1
2
DETERMINISMO Y TEORÍA CUÁNTICA ENSAYO FILOSÓFICO CIENTÍFICO
POR ISIDORO LÓPEZ SANTA CRUZ Y MARTÍNEZ
Esta unidad sólo contiene los Capítulos VI, VII, VIII, IX, X El resto se ofrece en unidades de capítulos varios cada una.
3
Determinismo y Teoría Cuántica. Capítulos VI, VII, VIII, IX, X.
CAPÍTULO VI LA MECÁNICA CUÁNTICA ONDULATORIA Sumario: Las ondas de materia de Louis de Broglie. L. de Broglie como precursor de Erwin Schrödinger. La ecuación diferencial de ondas de Schrödinger. Fórmula de misma. Expresión de la energía en la ecuación diferencial. Valores propios de la energía y funciones propias. La función que desempeña el término de energía. La ecuación de Schrödinger y el spin. ¿Qué representa el símbolo Ψ? Rasgos fundamentales de la ecuación, según Max Planck. Breve reseña sobre Schrödinger.
LAS ONDAS DE MATERIA DEL PRÍNCIPE LOUIS DE BROGLIE. El Príncipe Louis de Broglie descendía de una muy ilustre familia piamontesa, de origen italiano, los Broglia, que en el siglo XVII se pusieron al servicio del Rey de Francia. La dignidad de duque se transmitía por línea directa al primogénito masculino, pero el título de príncipe del Sacro Imperio Romano Germánico se extendía a todos los descendientes directos de ambos sexos. Sus ilustres antepasados dieron a su país de adopción cuatro mariscales de Francia, dos primeros ministros y varios académicos. El Príncipe Louis de Broglie, Duque desde 1960 por fallecimiento de su hermano, el notable físico Albert Maurice de Broglie, añadió otro timbre de honor a su familia y a Francia, la de Premio Nobel de Física, por su contribución genial a los inicios de la mecánica cuántica ondulatoria, premio que le fue concedido en solitario en 1929, a la edad de 37 años. Su aportación a la física cuántica está contenida en su tesis doctoral leída en 1924, pero ya un año antes redactó tres breves informes en el Comptes rendus de l’Académie des Sciences, donde anticipaba la dirección de su pensamiento. La Primera Guerra Mundial interrumpió durante seis años sus estudios de física. Previamente, en consonancia con la tradición familiar, obtuvo la licenciatura en Historia. Fue su Hermano Maurice quien le atrajo a la nueva disciplina. Con él viajó a Bruselas donde A. Maurice fue uno de los secretarios de la primera conferencia de Solvay en 1911. El eventual encuentro, aunque breve, con sabios eminentes de la talla de H. Poincaré, Max Planck, H. A. Lorentz, Albert Einstein y otros, así como la lectura de los ensayos científico-filosóficos de Henri Poincaré, terminaron por cambiar el rumbo de sus estudios, iniciando la carrera de ciencias físicas bajo la fraternal tutela de Maurice. Louis de Broglie era plenamente consciente de la crisis que la teoría de los quanta, en las primeras décadas del siglo XX, había desencadenado. Dejemos que él mismo nos lo cuente: Cuando me puse a reflexionar sobre estas dificultades, dos cosas me llamaron poderosamente la atención. Por una parte, la teoría de los quanta de luz no puede considerarse como satisfactoria ya que define la energía de un corpúsculo de luz mediante la relación W = hν, donde figura la frecuencia ”ν”. Ahora bien, una teoría estrictamente corpuscular no debería contener elemento alguno que permitiera definir
4
una frecuencia. Aunque sólo fuera por esta razón, en el caso de la luz es preciso introducir simultáneamente la idea de corpúsculo y la de periodicidad. Por otra parte, la determinación de los movimientos estables de los electrones en el átomo hace intervenir los números enteros. Hasta ahora los únicos fenómenos en que intervenían en física los números enteros eran los fenómenos de interferencia y los de vibraciones propias. Esto me sugirió la idea de que los mismos electrones no podían representarse como simples corpúsculos, sino que era necesario atribuirles igualmente una periodicidad. Así llegué a la idea global siguiente: es necesario, tanto para la materia como para la radiación, la luz en particular, introducir simultáneamente la noción de corpúsculo y la noción de onda. Dicho de otro modo, se debe, en un caso como en el otro, admitir la existencia de corpúsculos acompañados de ondas. Pero como corpúsculos y ondas no pueden ser independientes, constituyendo, según la expresión de Niels Bohr, dos caras complementarias de la realidad, se debe establecer un cierto paralelismo entre el movimiento de un corpúsculo y la propagación de la onda que le está asociada... Para los rayos X, el fenómeno de difracción por los cristales era una consecuencia natural de la idea que los rayos X son ondulaciones análogas a las de la luz, de las que sólo se diferencian por la longitud de onda más pequeña. Para los electrones, nada semejante podía preverse mientras se considerase al electrón como un simple y diminuto corpúsculo pero, si se admite que está asociado a una onda y que la densidad de la nube de electrones se mide por la intensidad de la onda asociada, entonces se debe prever para los electrones un fenómeno análogo al descubierto por Max von Laue. La onda electrónica será, en efecto, dispersada con intensidad en las direcciones que la teoría de Laue-Bragg permite calcular a partir de la longitud de onda: λ
= h/mv,
que corresponde a la velocidad v conocida de los electrones incidentes en el cristal. Dado que, según nuestro principio general, la intensidad de la onda dispersada mide la densidad de la nube de los electrones en la difusión, debemos encontrar en la dirección de los máximos muchos electrones difundidos. Si el fenómeno existe realmente, debería aportar una prueba experimental decisiva en favor de la existencia de la onda asociada al electrón, cuya longitud de onda es λ = h/mv y así, la idea fundamental de la mecánica ondulatoria quedaría establecida sobre bases experimentales sólidas. Tomado del discurso pronunciado en Stockholm con motivo de la recepción del Premio Nobel en 1929, inserto en la obra Matière et Lumière. De aquí nacería el concepto de onda-piloto guiando la singularidad del corpúsculo. En el desarrollo cuantitativo de estas ideas, formuló la ecuación anterior que define la longitud de onda, esto es, la distancia entre dos crestas consecutivas de la onda asociada al electrón, ecuación que también se expresa así: λ =
h/p,
como la razón de la constante de Planck al momento p, o cantidad de movimiento, siendo éste igual al producto de la masa por la velocidad, mv, como se indica en la fórmula anterior. De ello se deduce que la longitud de onda, asociada de alguna manera a los corpúsculos, no es constante; disminuye al aumentar la velocidad de éstos.
5
Hay quien considera que la citada ecuación debe colocarse en un mismo plano con las de Max Planck y Einstein, E = hν y E = mc2, respectivamente. Las ondas de materia fueron puestas de manifiesto y las dimensiones de las longitudes de onda, que preveía la teoría, confirmadas por Clinton Davisson y Lester Germer en los laboratorios Bell en New York; posteriormente, por George Thomson de la Universidad de Aberdeen en el reino Unido. Los tres fueron galardonados con el Premio Nobel. LOUIS DE BROGLIE COMO PRECURSOR DE ERWIN SCHRÖDINGER. Vamos a ver dos aspectos importantes de la teoría de Louis de Broglie. El primero de ellos ha sido incorporado, como condición cuántica fundamental, en teorías posteriores; el segundo es algo así como el esbozo de un programa, que él presintió pero que no pudo realizar, y que fue llevado cumplidamente a buen fin por Erwin Schrödinger: lograr para la mecánica cuántica un progreso análogo al que representó el tránsito de la óptica geométrica a la óptica ondulatoria. Esto nos lo cuenta, del modo más sencillo posible, Jean Thibaud, profesor que fue de la Facultad de Ciencias de Lyon y director del Instituto de Física atómica: La mecánica ondulatoria da al postulado de Bohr la significación de una condición de estabilidad en la propagación de un fenómeno periódico, de una condición de resonancia análoga a la que vincula la longitud de una cuerda de violín a la altura o tono del sonido que puede emitir. Más precisamente, la onda asociada a la circulación del electrón sobre una órbita atómica, y que corre a lo largo de ésta como una vibración elástica en la periferia de un disco metálico, tiene que encontrarse en el mismo estado después de haber recorrido una vuelta entera para que su régimen pueda ser estable. Esto sólo se realiza si existe una cierta relación entre el perímetro de la órbita descrita y la longitud de onda de la onda “asociada” al electrón que circula por ella. En un lenguaje, hoy más familiar, las diferentes órbitas electrónicas del átomo deben comportarse como minúsculos circuitos oscilantes, análogos a los de nuestras estaciones de radio, reguladas para longitudes de ondas determinadas. Se comprende que de no ser así, la onda asociada, se encontraría consigo misma, al cabo de cada ciclo, fuera de fase, esto es, dejaría de propagarse al unísono, coincidiendo, parcial o totalmente, las crestas con los valles, las amplitudes positivas con las negativas, lo que a la larga acarrearía su extinción. En cuanto al segundo punto, Jean Thibaud nos dice: Louis de Broglie cita, en su tesis doctoral, un ejemplo típico de los procedimientos de cálculo, en el caso de la difusión de partículas cargadas − los rayos alfa emitidos por substancias radioactivas− al pasar por la proximidad de centros atractivos, núcleos atómicos, por ejemplo. En la antigua mecánica se consideraba que la partícula en movimiento, al llegar suficientemente cerca del átomo para que el efecto repulsivo fuera sensible, abandonaba su trayectoria rectilínea y describía una parábola, como un cometa en torno al Sol (experimento de Rutherford). La mecánica ondulatoria reduce la cuestión a un problema de óptica, al de la difusión de una onda en un medio cuyo índice de refracción variara muy rápidamente, estando limitado este dominio variable a la región en que reina la acción repulsiva del centro atractivo. El rayo de la onda de Louis de Broglie se curvará al atravesar este dominio, como lo haría un rayo luminoso
6
al atravesar un prisma constituido por la yuxtaposición de vidrios de densidades y, por tanto, de índices de refracción diferentes. Desde el punto de vista de la coherencia teórica, la mecánica de ondas ha eliminado cierta arbitrariedad en las condiciones cuánticas postuladas por Niels Bohr. De la obra Vida y Transmutación de los Átomos. Paul Langevin, físico relativista, discípulo de H. Poincaré, atento como él a las innovaciones cuánticas, y amigo personal de Einstein, formó parte, como examinador invitado, del tribunal ante quien Louis de Broglie sostuvo la tesis doctoral. Aunque la tesis le pareció algo descabellada, envió copia de la misma a Einstein como físico realmente capacitado para enjuiciarla. No le falló su olfato, o intuición, de genial físico. Le contestó con estas palabras: Er hat ein Zipfel des grossen Schleirs gelüftet (Ha levantado una punta del gran velo). Efectivamente, no fue él, sino los científicos W. Heisenberg y E. Schrödinger, bávaro el primero, austríaco el segundo, quienes corrieron más ampliamente el velo que ocultaba la física de la envoltura electrónica de los átomos. Si bien la mecánica cuántica matricial del primero es totalmente independiente de las ideas broglianas, E. Schrödinger, por su parte, reconoció expresamente su deuda con L. de Broglie. Su mecánica cuántica ondulatoria constituye una generalización de las ideas propuestas por el físico francés. LA ECUACIÓN DIFERENCIAL DE ONDAS DE ERWIN SCHRÖDINGER. Las dos primeras descripciones cualitativas de la teoría de Schrödinger que vamos a ver se deben precisamente a los entonces jóvenes físicos, Heisenberg y Jordan, quienes, como vimos anteriormente, juntamente con Max Born crearon la mecánica cuántica matricial, émula de la mecánica cuántica ondulatoria. W. Heisenberg en sus memorias biográfico-científicas nos dejó este relato acerca del nacimiento de la mecánica cuántica ondulatoria: En los primeros meses del año 1926, aproximadamente por el mismo tiempo en que debía pronunciar mi conferencia en Berlín, conocimos los profesores de Göttingen un trabajo del físico vienés que abordaba el problema de la teoría atómica desde un frente totalmente nuevo. Ya un año antes, el francés Louis de Broglie había llamado la atención sobre el sorprendente dualismo entre los modelos de ondas y corpúsculos que, imposibilitando un conocimiento racional de los procesos lumínicos, también podría tener lugar en la materia, esto es, en el comportamiento de los electrones. Schrödinger desarrolló esta idea y formuló, en una ecuación de onda, la ley según la cual las ondas de materia deberían propagarse bajo el influjo de un campo electromagnético. Según esta hipótesis, los estados estacionarios de la corteza atómica podrían asimilarse a las oscilaciones estacionarias de un sistema, por ejemplo, a una cuerda vibrante; con lo cual las magnitudes, que se consideraban como energías de los estados estacionarios, aparecían en su teoría como frecuencias de las oscilaciones estacionarias. Los resultados obtenidos de este modo por E. Schrödinger se ajustaban perfectamente a los datos de la nueva mecánica cuántica. No tardó mucho Schrödinger en demostrar que su mecánica ondulatoria matemáticamente era equivalente a la mecánica matricial, que se trataba de dos formalismos matemáticos versando sobre un mismo contenido. Esto nos alegró mucho ya que fortaleció nuestra confianza en la exactitud del nuevo formalismo matemático. Además, con el formalismo de Erwin Schrödinger se podían realizar muchos cálculos que con el método de la mecánica cuántica [matricial] habrían sido extraordinariamente complicados.
7
Traducido del ensayo Der Teil und das Ganze. Según los expertos, los cálculos serían, como nos dice Heisenberg, más sencillos con la mecánica ondulatoria, pero más rápidos con la mecánica matricial. Este es un clásico ejemplo de cómo dos formalismos matemáticos distintos, trabajando sobre intuiciones y representaciones mentales diferentes, pueden llegar, no obstante, al mismo resultado. Según P. Jordan, W. Pauli se adelantó en demostrar la equivalencia de ambos formalismos pero no publicó la demostración. Conviene destacar la facilidad para el cálculo del formalismo de la mecánica ondulatoria frente a la matricial, que ha quedado prácticamente suplantada, al menos, en los manuales elementales de introducción a la teoría cuántica. Pascual Jordan nos ofrece esta otra interesante descripción cualitativa de la ecuación de ondas: Si Louis de Broglie tiene razón con su teoría de las ondas de materia, ha de existir una ley matemática para tales ondas −una ecuación de ondas− que signifique para ellas lo mismo que las ecuaciones de Maxwell para las ondas electromagnéticas. Más o menos esta fue la reflexión con que Schrödinger se planteó el problema, con cuya decisión dio un avance decisivo a la teoría cuántica. A la ecuación diferencial del campo material ondulatorio, formulada por él, se la conoce hoy generalmente como la “ecuación de Schrödinger”. Pero Schrödinger no sólo formuló esta ecuación, que ya por sí sola hubiera sido una aportación de la mayor transcendencia, sino que a la vez quiso aplicarla al átomo de hidrógeno: ¿qué sucede cuando el campo material ondulatorio de un electrón está bajo la influencia de un protón? Schrödinger superó ampliamente las grandes dificultades matemáticas que suponía en principio la aclaración de esta cuestión. Según puntos de vista de las matemáticas generales, el campo material ondulatorio de un electrón puede ser considerado como una superposición de “oscilaciones propias”, de las que cada una tiene una frecuencia determinada. Schrödinger consiguió averiguar estas oscilaciones propias y reconocer sus correspondientes frecuencias. El resultado fue un éxito rotundo: los valores de frecuencia de estas oscilaciones propias, multiplicadas por el quantum de acción, proporcionan los auténticos niveles energéticos del átomo de hidrógeno. Así, un poco después de aparecer el trabajo de Born-Heisenberg-Jordan, Schrödinger pudo dar a la luz pública una teoría cuántica nueva del átomo de hidrógeno, formulada de manera totalmente distinta, y que poseía toda la perfección lógica que faltaba en la vieja teoría provisional... Al igual que la mecánica de matrices, la teoría de Schrödinger renunciaba a la vieja idea de las órbitas de los electrones en el átomo; substituyó esta imagen superada por la no menos gráfica teoría ondulatoria y la elaboró con los medios usuales de las matemáticas clásicas. Del ensayo Der Naturwissenschaftler vor der religiösen Frage. Expresamente he destacado en negrita el pensamiento central de la mecánica ondulatoria, que luego veremos traducido en fórmulas. FÓRMULA DE LA ECUACIÓN DIFERENCIAL DE ERWIN SCHRÖDINGER. El amable lector podrá ver un desarrollo sencillo, tal vez demasiado simple, de la ecuación de Schrödinger en un apéndice de este ensayo, que sería conveniente leyera para refrescar algunas nociones matemáticas que hacen al caso, a no ser que tales
8
conceptos y simbolismos, por desuso, se hayan borrado totalmente de su mente. No obstante, presentaré la forma de dicha ecuación con una somera designación de los símbolos que en ella aparecen. La ecuación diferencial de Schrödinger independiente del tiempo, en tres dimensiones, suele expresarse así: (d2/dx2 + d2/dy2 + d2/dz2) ψ + (8π 2m/h2 ) (E-V)ψ = 0;
(1)
donde: (d2/dx2 + d2/dy2 + d2/dz2) es el llamado operador laplaciano, indicativo de una ecuación diferencial parcial de segundo orden; Ψ es el símbolo de la función de onda desconocida, el operando sobre el que opera el operador laplaciano; m, la masa del electrón; E, la energía total del sistema; V, la energía potencial; (E - V), representa, en consecuencia, la energía cinética: ½ mv2 π y h, son ya viejos conocidos del lector. LA EXPRESIÓN DE LA ENERGÍA EN LA ECUACIÓN DIFERENCIAL. VALORES PROPIOS DE LA ENERGÍA Y FUNCIONES PROPIAS. Es fundamental en la ecuación diferencial de Schrödinger saber qué forma reviste el símbolo de la energía, (E−V) que figura en el segundo término de la ecuación, ya que el resto de los símbolos, que aparecen en dicho término, representan constantes conocidas. Veamos a este respecto lo que nos dice A. Berthoud: La energía potencial V de un electrón depende de su posición. La energía total E, por el contrario, suma de la energía potencial y de la energía cinética, permanece constante siempre que los desplazamientos del electrón se efectúen sin absorción o emisión de energía. E es, pues, un parámetro de la ecuación. Ahora bien, las ecuaciones diferenciales poseen una propiedad conocida desde hace mucho tiempo y que es de una importancia capital para el problema que nos ocupa. Sólo admiten soluciones finitas y continuas para valores determinados de los parámetros, a los que se da el nombre de “autovalores”[eigenvalues]. Así, en la ecuación precedente Ψ varía, para ciertos valores de E, de manera continua con las coordenadas x, y, z. En otros términos, se da entre Ψ y dichas coordenadas una relación [funcional] que satisface dicha ecuación [diferencial]. Estas funciones, que satisfacen la ecuación diferencial, se llaman “autofunciones” [eigenfunctions]. Si E sólo puede asumir determinados valores, significa que la energía del electrón sólo puede variar de un modo discontinuo, de conformidad con la teoría de los quanta. De esta manera, el problema físico de la cuantificación se encuentra reducido, en la ecuación de Schrödinger, a un problema matemático, esto es, a la determinación de los autovalores de una ecuación diferencial. Traducido del ensayo Matière & Atomes, ya citado. Los paréntesis han sido añadidos, para una mayor precisión, por el autor de este ensayo.
9
LA PRIMITIVA ECUACIÓN DE SCHRÖDINGER NO INCORPORABA EL SPIN. Para el caso del átomo de hidrógeno, compuesto por un protón en el núcleo y un solo electrón planetario, las funciones, y sus correspondientes curvas, son más complicadas, pues a cada uno de los autovalores de E corresponde, en general, varias autofunciones Ψ que satisfacen la ecuación diferencial. Ello se debe a que, además del número cuántico principal n, se introducen nuevos parámetros, l, y m, que son números enteros y que entran en la expresión de la función Ψ. Como sabemos, representan, en la cuántica antigua, el eje de la órbita electrónica n, su excentricidad l, y la orientación del momento orbital en el espacio m. En la ecuación de Schrödinger no poseen estos números un significado tan concreto como en el viejo modelo de Bohr-Sommerfeld. Entran simplemente en los cálculos como expresión de posibilidades de carácter puramente matemático, sin hipótesis alguna sobre su significación física. A cada grupo de valores n, l, m, corresponde un cierto estado estacionario de onda en torno al núcleo. Como puede observar el amable lector, no se ha mencionado, en conexión con dicha ecuación, el cuarto número cuántico, el spin. En efecto, como ya se ha dicho, la ecuación del físico vienés, formulada en 1926, no lo incluía. Hubo que esperar a que P. A. M. Dirac estableciera la ecuación relativista del electrón en 1927 para que la ecuación de ondas reflejara los cuatro números cuánticos. Con cada uno de estos avances matemáticos, se lograba una mejor interpretación de los espectros atómicos. Otra ecuación célebre posterior es la conocida con el nombre de Klein-Gordon. Representa una modificación relativista de la ecuación de Schrödinger, con números de spin enteros, en lugar de los semi-enteros. Como sabe el lector, el número cuántico del spin, o momento cinético interno, es un ½ de h/2π, que podemos imaginar como si la simetría de la partícula fuera tal que habría que girarla dos vueltas completas para que pareciese la misma, mientras que el momento cinético orbital es un múltiplo entero de h/2π. ¿ QUÉ REPRESENTA EL SÍMBOLO Ψ? Básicamente representa una magnitud relacionada, de alguna manera, con la amplitud de la onda. Sabemos que ésta, en la cuerda del violín, representa la distancia, constantemente variable, que separa un punto de la cuerda de su posición de equilibrio, distancia que se denomina elongación. Lo mismo ocurre con las ondas en un lago producidas por un cuerpo que dejamos caer. En las ondas sonoras, que se propagan en el aire, las variaciones de dicha magnitud representan las variaciones de presión o densidad del aire atmosférico. En las ondas electromagnéticas, dicha magnitud designa las variaciones en la intensidad de las componentes eléctrica y magnética, perpendiculares entre sí y a la dirección del movimiento, cuyas variaciones periódicas, para un determinado dominio de longitudes de ondas, constituyen la luz. Justamente en el capítulo siguiente veremos cómo se solucionó, o se creyó haber solucionado, este problema. RASGOS FUNDAMENTALES QUE, SEGÚN MAX PLANCK, CARACTERIZAN LA MECÁNICA CUÁNTICA ONDULATORIA. Max Planck dedicó gran parte de su conferencia de 1919, titulada Das Weltbild der neun Physik, a la interpretación de la ecuación de Schrödinger, de la que entresaco los siguientes conceptos. En primer lugar, nos dice que el concepto clásico de punto
10
material ha quedado definitivamente obsoleto, al tiempo que destaca ese carácter, algo difuso, de totalidad, propio de los procesos cuánticos: Hasta ahora pertenecía a los supuestos de la física clásica que los procesos del mundo físico −en los cuales, como siempre, incluyo la imagen o teoría física, no el mundo real− pueden representarse como compuestos de procesos locales −diversos elementos de espacio, singulares e indefinidamente pequeños− y que cada uno de estos procesos elementales en su transcurso, conforme a las leyes, está determinado por los procesos locales que se desarrollan en su vecindad inmediata espacio-temporal, con independencia de los restantes procesos. Pongamos un ejemplo concreto, pero suficientemente general. La estructura física considerada se compone de un sistema de puntos materiales que se mueven en un campo de fuerzas conservativo, con energía total constante. Cada punto singular se encuentra en cada momento, según la física clásica, en un estado determinado, es decir, posee una determinada posición y una cierta velocidad, pudiéndose calcular completamente su movimiento en función de las condiciones iniciales y de las propiedades del campo de fuerza en los lugares del espacio por los que discurre. Conocidos estos datos, no se precisa saber nada más de cualesquiera otras propiedades del sistema considerado. En la nueva mecánica las cosas transcurren de muy otro modo. Según ésta, las relaciones locales son tan insuficientes para la formulación de las leyes del movimiento, como lo sería para la comprensión de una pintura el examen microscópico de las pequeñas porciúnculas de materia que componen el cuadro. Se llega a una representación más útil de las leyes, cuando se considera el sistema como una totalidad. En consecuencia, según la nueva mecánica cada punto material del sistema se encuentra en todo momento, en cierto modo, en todos los lugares del sistema, y no sólo con el campo de fuerza que se extiende a su alrededor, sino también con su propia masa y con su propia carga. Está claro: se trata nada menos que del concepto del punto material, el concepto más elemental de la mecánica clásica. La actual posición preeminente de este concepto debe ser fundamentalmente erradicada. Sólo en determinados “casos-límite” podrá subsistir. Lo que habrá que poner en su lugar lo podemos deducir de las consecuencias de los principios, inicialmente propuestos. A continuación nos da unas pinceladas descriptivas, desde el punto de vista matemático, de la ecuación de Schrödinger independiente del tiempo: Multiplicando entre sí la frecuencia y la longitud de onda se obtiene la velocidad de propagación, o la velocidad de fase, de una determinada onda en el espacio de configuración, y la substitución de los correspondientes valores en la conocida ecuación de onda de la mecánica clásica conduce a la ecuación diferencial formulada por Schrödinger, lineal, homogénea y parcial, que constituye el fundamento visualizable (anschauliche) de la actual mecánica cuántica y que parece desempeñar en ella la misma función que las ecuaciones de Newton, de Lagrange o de Hamilton, en la mecánica clásica. Lo que la diferencia de estas últimas es, sobre todo, la circunstancia que en ella las coordenadas del punto de configuración no son funciones de tiempo, sino variables independientes. Entre otros, alude al concepto de valores propios de la energía que, como sabemos, están estrechamente enlazados con el concepto del probabilismo cuántico:
11
En cualquier caso, el hecho de que existan lugares del espacio de configuración, donde la energía potencial es mayor que la energía total, tiene una importancia fundamental para la mecánica cuántica, pues en casos como éste, según demuestran los cálculos, a cada valor arbitrario de la constante de energía no corresponde una onda finita, sino sólo a determinados valores, los denominados valores propios de la energía (Eigenwerte der Energie). Éstos se pueden calcular mediante la ecuación de onda y resultan diferentes según sea la configuración de la energía potencial dada. De los valores discretos de la energía se deducen, según el postulado cuántico, los valores propios y discretos de las frecuencias de oscilación, del mismo modo que acontece en una cuerda de guitarra tensa y sujeta en los extremos, con la diferencia de que en esta última la cuantificación se debe a una circunstancia exterior, esto es, a la longitud de la cuerda. En nuestro caso, se debe al quantum elemental de acción contenido en la misma ecuación diferencial. A cada frecuencia propia corresponde una función oscilatoria particular ψ como solución de la ecuación de ondas, y todas estas diversas funciones propias de onda forman la expresión de cualquier proceso de movimiento según la mecánica ondulatoria. El resultado práctico de todo esto, es decir, su traslado al terreno concreto de los procesos físicos, para cuya interpretación se crean teorías y fórmulas, es el siguiente: El resultado es éste: mientras la física clásica descompone espacialmente un sistema físico dado en sus partes más pequeñas, por lo que atribuye el movimiento de los cuerpos materiales al movimiento de sus puntos materiales, supuestos invariables, tal como se hace en la mecánica corpuscular, la física cuántica, por otra parte, analiza cada proceso de movimiento en las diversas ondas periódicas de materia, correspondientes a las frecuencias y funciones propias del sistema, llegando por este camino a la mecánica ondulatoria. Por ello, el movimiento más simple, según la mecánica clásica, es el de un punto material único y, según la mecánica cuántica, el de una onda periódica simple; según la primera, el movimiento más general de un cuerpo se interpreta como la totalidad de los movimientos de sus diversos puntos; según la segunda, el movimiento consiste en la conjunción de todas las clases posibles de ondas periódicas de materia. Esta diversidad de opiniones se pone de manifiesto, por ejemplo, en las vibraciones de una cuerda tensa de guitarra. Por una parte, podemos considerar como elementos primarios del proceso los movimientos de los puntos individuales de la cuerda de la guitarra. Cada partícula individual de la cuerda se mueve, independientemente de las demás, en función de la fuerza que sobre ella actúa dependiendo de la flexión local de la cuerda. Por otra parte, sin embargo, podemos considerar como elemento primario del proceso del movimiento el conjunto de la oscilación fundamental y de las oscilaciones harmónicas, cada una de las cuales se refiere a la totalidad de la cuerda, el conjunto de las cuales también representa la clase más general del movimiento de la cuerda. Traducido de la obra Vorträge und Erinnerungen, ya citada. BREVE RESEÑA SOBRE ERWIN SCHRÖDINGER. Cursó brillantemente estudios en la Universidad de Viena. En 1926, a la edad de 39 años, descubrió la famosa ecuación que lleva su nombre, edad algo tardía si tenemos en cuenta la edad en que los grandes científicos hicieron sus aportaciones más importantes, exceptuando Max Planck quien realizó la suya a los 42 años.
12
En 1927 sucedió a Max Planck en la prestigiosa Universidad de Berlín, en cuya Facultad trabajaba también Einstein y otros eminentes físicos. En 1933 fue galardonado con el Premio Nobel, que compartió con el eminente físico P. A. M. Dirac. La ceremonia se celebró conjuntamente con la concesión de dicho premio a Werner Heisenberg (Premio Nobel 1932). Fue, tal vez, el trío más representativo de la nueva mecánica cuántica. En el mismo año abandonó Alemania por hacérsele insoportable el régimen nazi. Emprendió entonces una larga odisea de siete años que le llevó a varios países para recalar finalmente en Irlanda, donde se hizo cargo del Instituto de Dublín para Estudios Superiores, el “Dublin Institute for Advanced Studies”, creado en 1940 por su protector y gran admirador, el estadista irlandés Eamon de Valera, matemático de formación. Permaneció en este país casi quince años, dedicado a la física, a la filosofía y a diversos temas científicos interdisciplinarios. Del amplio libro de Walter Moore, titulado Schrödinger Life and Thought (Vida y Pensamiento de Schrödinger), recojo dos juicios de ilustres físicos contemporáneos suyos. Nos dice Max Born, aludiendo levemente a su peculiar estilo de vida: Su vida privada pareció extraña a burgueses como nosotros. Pero eso no importa. Fue una persona que se hizo querer, independiente, divertido, temperamental, amable, generoso y poseía un cerebro sumamente perfecto y eficiente. Por su parte, A. Sommerfeld, tenido como el mejor matemático de entre los físicos de su generación, al referirse a la famosa ecuación diferencial, dedicó a Schrödinger el mejor cumplido que, en mi opinión, cupiera imaginar: Fue el más sorprendente de entre todos los sorprendentes descubrimientos del siglo XX.
13
CAPÍTULO VII DESDE LAS ONDAS DE MATERIA A LAS ONDAS DE PROBABILIDAD.
Sumario: Ondas de materia. La interpretación intuitiva de E. Schrödinger. El debate “Bohr-Schrödinger” sobre la interpretación de la cuántica. Fracaso de la interpretación brogliana de la onda piloto. Ondas de probabilidad. La interpretación probabilística y abstracta de Max Born. Sugestiva imagen de J. Jeans. Enunciado del probabilismo cuántico por Dirac, Jeans, Hawkings y de L. Broglie. La función de onda como representación de cómo evoluciona nuestro conocimiento acerca de los procesos cuánticos.
ONDAS DE MATERIA. LA INTERPRETACIÓN INTUITIVA DE SCHRÖDINGER W. Heisenberg nos relata, en Der Teil und das Ganze, la enorme sorpresa que esta interpretación causara en el círculo de Göttingen-Copenhague: Pero las dificultades se iniciaron con la interpretación del esquema matemático. Schrödinger pensaba que con la conversión de las partículas en ondas de materia podían eliminarse las paradojas que habían dificultado tan desesperadamente, y durante largo tiempo, la comprensión de la teoría cuántica. Las ondas de materia deberían ser, pues, procesos intuitivos en el espacio y en el tiempo, en un sentido similar al que solemos emplear al hablar, por ejemplo, de las ondas electromagnéticas o de las de ondas de sonido. Las discontinuidades, tan difícilmente inteligibles, como los saltos cuánticos y cosas análogas, deberían desaparecer de la teoría. Yo no podía aceptar esta interpretación que se oponía frontalmente a nuestra representación de Copenhague... El elemento de discontinuidad, que Einstein había señalado en Berlín como rasgo característico de los procesos atómicos, no permitía tal interpretación. En verdad esto constituía sólo una constatación negativa pues estábamos aún muy lejos de una interpretación completa de la mecánica cuántica. Pero nos sentíamos seguros de que, de alguna manera, deberíamos renunciar a una representación objetiva transcurriendo en el espacio y en el tiempo. En abierta oposición, la interpretación de Schrödinger iba encaminada −y esta era la gran sorpresa− a negar simplemente la existencia de discontinuidades. Según su interpretación, el átomo, en el tránsito de un estado estacionario a otro, no cambiaría súbitamente su energía, emitiendo la diferencia de energía en forma de un quantum einsteniano. Es más, la radiación tendría como efecto la excitación simultánea de dos oscilaciones materiales estacionarias. La interferencia de ambas provocaría la emisión de ondas electromagnéticas, por ejemplo, ondas luminosas. Estas hipótesis me parecían excesivamente atrevidas para ser ciertas, por lo que hice acopio de todas las pruebas y argumentos tendentes a demostrar que las discontinuidades constituyen un rasgo característico de la realidad cuántica. Por supuesto, el argumento principal era la ley de la radiación de Planck, de cuya
14
verificación experimental nadie podría dudar, y que marcó el punto de partida de la tesis planckiana que introdujo los valores de la energía, discontinuos y discretos. UNA CONFERENCIA DE E. SCHRÖDINGER EN MUNICH PROVOCA EL VIVO DEBATE BOHR-SCHRÖDINGER. En 1926 Arnold Sommerfeld invitó a Schrödinger a exponer su teoría en un seminario en la Universidad de Munich. Estuvo también presente Wilhelm Wien, director del Instituto de Física Experimental de dicha Universidad, quien mantenía una actitud extremadamente escéptica acerca de la atomística de Sommerfeld. W. Heisenberg nos cuenta cómo se sintió impotente y frustrado por su incapacidad de convencer a los asistentes sobre la interpretación, supuestamente errónea, del conferenciante. Wilhelm Wien apoyó la interpretación del físico vienés y hasta el mismo A. Sommerfeld se sintió atraído por la elegante exposición matemática, basada en las ecuaciones diferenciales, habituales en física. Tras la conferencia, volvió a casa algo triste e inmediatamente escribió a Niels Bohr sobre el desafortunado desenlace de la discusión posterior a la conferencia. Como consecuencia de esta petición de auxilio, el físico danés invitó a E. Schrödinger a pasar una semana en su casa a fin de dilucidar la interpretación de la teoría cuántica. W. Heisenberg fue testigo de esta visita. No voy a describir los puntos más salientes del debate, dado que el tema principal versó acerca de la continuidad o discontinuidad de los procesos cuánticos que apenas nadie pone en duda. Las discusiones fueron muy vivas, muestra de ello son las frases con las que Heisenberg cierra el relato: La discusión se prolongaba muchas horas del día y de la noche. Pero no pudo llegarse a un acuerdo. A los pocos días Schrödinger cayó enfermo, tal vez, del enorme esfuerzo. Tuvo que guardar cama por un resfriado con fiebre. La señora de Bohr le cuidaba y le llevaba té y pasteles, pero Niels Bohr se sentaba en el borde de la cama y tornaba al tema con Schrödinger. “Vd. tiene que comprender que...” Bohr era siempre singularmente respetuoso y afable en el trato con los demás. Sin embargo, en esta ocasión se comportó, a mi juicio, como un fanático empedernido, que no estaba dispuesto a hacer concesión alguna a su interlocutor, o a permitir la más mínima falta de claridad. Traducido liberalmente del ensayo Del Teil und das Ganze. FRACASO DE LA INTERPRETACIÓN BROGLIANA DE LA ONDA PILOTO. La interpretación de E. Schrödinger, en el sentido de que la magnitud ψ representaría la densidad de la carga eléctrica del electrón en torno al núcleo, encontró fuerte oposición y no se sostuvo. Igual suerte corrió la propuesta de Louis de Broglie acerca de la onda piloto, asociada al electrón, que guiaba a éste comme une vague entraînerait un bouchon (como la ola arrastraría al tapón de corcho), imagen esta poco feliz, ya que el tapón de corcho, en ausencia de mareas, del viento o de otras fuerzas con componente paralela a la superficie del agua, no se desplaza progresivamente con la onda, únicamente efectúa oscilaciones verticales en torno a su posición de equilibrio. En los últimos párrafos del siguiente texto se puede observar cómo la onda brogliana va perdiendo materialidad acercándose al enfoque probabilista, prevaleciente en la actualidad. Escuchemos sus palabras:
15
De hecho es realmente posible establecer entre el movimiento del corpúsculo y la propagación de la onda una conexión tal que, si en el instante inicial la intensidad de la onda mide en cada punto la probabilidad de presencia del corpúsculo, ocurra lo mismo en cada instante posterior. Se puede considerar el corpúsculo como guiado por la onda que desempeña el papel de onda-piloto. Esta concepción visualiza de una manera interesante el movimiento de los corpúsculos en mecánica ondulatoria sin que tengamos que alejarnos demasiado de las ideas clásicas. Por desgracia, también aquí se presentan objeciones muy graves y no es posible considerar la teoría de la ondapiloto como satisfactoria. Sin embargo, como las ecuaciones sobre las que descansa esta teoría son incontestables, se pueden conservar algunos de sus resultados, dándoles una forma “suavizada”, de conformidad con las ideas de M. Kennard, desarrolladas independientemente del autor. En lugar de hablar del movimiento y de la trayectoria de los corpúsculos, se habla del movimiento y la trayectoria de los “elementos de probabilidad”, evitándose así las dificultades señaladas. Traducido de Matière et Lumière. La expresión elementos de probabilidad nos lleva directamente a la interpretación estadística, o probabilística, anticipada por algunos físicos, pero formalmente propuesta por Max Born. Como se ha dicho, es la interpretación que más ampliamente goza del favor de los físicos. SUGESTIVA IMAGEN DE LAS ONDAS DE PROBABILIDAD, SEGÚN SIR JAMES JEANS. La interpretación probabilística, otros prefieren el término estadística, de las ondas de materia se debe al eminente físico Max Born, por la que recibió el premio Nobel en 1954. En el discurso de recepción destacó el hecho de recibir dicho premio no por algún descubrimiento físico nuevo, sino por un nuevo enfoque mental que pertenece, en mi opinión, a esa tierra de nadie que yace entre la física y la filosofía: Los trabajos, por los que he sido honrado con el premio Nobel del año 1954, no contienen el descubrimiento de ningún fenómeno natural nuevo, sino los fundamentos de una nueva forma de pensar acerca de los fenómenos naturales. Según esta interpretación, las ondas de probabilidad no son materiales, no poseen entidad física alguna. Representan sólo un modo de comportamiento de las partículas materiales, un comportamiento probabilístico o estadístico. Sir James H. Jeans nos ofrece estas sugestivas imágenes: Algunos físicos abordaron esta situación considerando las ondas de los electrones como ondas de probabilidad. Cuando hablamos de una ola de marea nos referimos a una onda material de agua que moja todo a su paso Cuando hablamos de una ola de calor, queremos dar a entender que “algo“, aunque no material, calienta todo a su paso. Pero cuando la prensa de la noche habla de una ola de suicidios, no pretende decir que todas las personas, que se encuentran en la trayectoria de la onda, necesariamente han de suicidarse; sólo se quiere significar que la probabilidad de cometer un suicidio es ahora mayor. Si la onda de suicidios pasa sobre Londres, el porcentaje de suicidios aumentará; si pasa sobre la isla de Robinson Crusoe, la probabilidad de que su único habitante cometa suicidio es mayor. Se sugiere que las
16
ondas, que representan el electrón, son ondas de probabilidad, cuya intensidad en un punto dado mide la probabilidad de que un electrón se encuentre en dicho punto. De este modo, en las placas del profesor Thomson, (en las que confirmó las ondas de materia previstas por Louis de Broglie), la intensidad de la onda mide la probabilidad de que un determinado electrón difractado incida en un punto dado de la placa. ENUNCIADO DEL PROBABILISMO CUÁNTICO POR DIRAC, JEANS Y OTROS. Paul Adrien Maurice Dirac, profesor de Cambridge, el más joven de los físicos que irrumpieron, con geniales aportaciones propias, en el escenario del desarrollo de la cuántica a partir del año 1925, escribió un breve y muy lúcido texto que, para mi gusto personal, es uno de los enunciados más acabados, por su precisión, del probabilismo estadístico cuántico, al cual me referiré repetidas veces. James Jeans lo reprodujo en varios de sus opúsculos. Veamos cómo lo presenta en una de sus obras, contraponiéndolo a otro texto, no menos célebre, de Newton. Otros prefieren citar o referirse a otro enunciado ya clásico de Laplace. Dice así: Observaremos el contraste fundamental entre la ciencia clásica y la nueva física, si comparamos el comienzo de los “Principia” de Newton, en el que la visión mecanicista de la naturaleza alcanzó por primera vez su forma lógica perfecta, con el párrafo inicial del “Quantum Mechanic” de Dirac, que representa hasta la fecha la exposición más completa de la nueva teoría de los “Quanta”. Newton escribió en 1687: Todo cuerpo permanece en estado de reposo, o en movimiento uniforme rectilíneo, a no ser que se vea impulsado a cambiar dicho estado por fuerzas aplicadas al mismo. La alteración del movimiento siempre es proporcional a la fuerza motriz aplicada. Y Dirac en 1930: Cuando se realiza un experimento en un sistema atómico... en un cierto estado, el resultado, en general, no estará determinado, esto es, si el experimento se repite varias veces bajo idénticas condiciones, se obtendrán diferentes resultados. Si el experimento se repite una gran cantidad de veces, se encontrará que un resultado particular saldrá una fracción dada del número total de casos, de modo tal, que podemos decir que existe una probabilidad definida de que dicho resultado se consiga cada vez que se realice el experimento. La teoría permite calcular esta probabilidad. En algunos casos especiales la probabilidad puede ser igual a la unidad y el resultado del experimento está completamente determinado. Texto citado por Sir J. H. Jeans en The New Background of Science. Y añade Jeans, explicitando el mismo concepto en su opúsculo The Mysterious Universe: La vieja ciencia ( física clásica) proclamaba confiada que la naturaleza sólo podía seguir el camino que estaba marcado desde el inicio del tiempo hasta su final, mediante una cadena continua de causas y efectos; el estado inicial “B” seguía inevitablemente al estado “A”. Hasta ahora la nueva ciencia sólo puede decir que el estado “A” puede ser seguido por el estado “B” o “C” o “D”, o por otros innumerables estados. Es verdad que nos puede asegurar que el estado “B” es más probable que el “C”, el “C”
17
que el “D” y así sucesivamente; puede incluso especificar las relativas probabilidades de los estados “B”, “C” y “D”. Pero, precisamente porque tiene que expresarse en términos de probabilidad, no puede predecir con certeza la sucesión de los diversos estados. En ambos textos, sobre todo en el de Dirac, el amable lector puede observar claramente el tránsito desde las frecuencias estadísticas al concepto de probabilidad. Stephen Hawking, en su popular obra, A Brief History of Time, expresa el mismo principio, enlazando los dos enunciados anteriores, el de Dirac y el de Jeans, en una admirable síntesis de precisión. Este es el texto de Stephen Hawking, cuya similitud literal con el de James Jeans es, cuando menos, sorprendente: En general, la mecánica cuántica no predice un único resultado de cada observación. En su lugar predice un cierto número de resultados posibles y nos da la probabilidad de cada uno de ellos. Es decir, si se realizara la misma medida sobre un gran número de sistemas similares, con las mismas condiciones de partida en cada uno de ellos, se encontraría que el resultado de la medida sería “A” un cierto número de veces, “B” otro número diferente de veces, y así sucesivamente. Se podría predecir el número aproximado de veces que se obtendría el resultado “A” o el “B”, pero no se podría predecir el resultado específico de una medida concreta. Así pues, la mecánica cuántica introduce un elemento inevitable de incapacidad de predicción, una aleatoriedad en la ciencia. Veamos este luminoso texto de Louis de Broglie, físico dotado de una gran intuición quien, con su habitual capacidad de iluminar los temas más recónditos de la teoría cuántica, nos expone el principio de Max Born desde la óptica de la mecánica de ondas, apelando a nuestro viejo conocido, el formalismo analítico de Fourrier para las ondas, del que hablamos someramente con ocasión de la mecánica matricial: Las más serias de estas dificultades estaban vinculadas a la existencia de un nuevo principio que se había introducido en la mecánica ondulatoria, junto al de las interferencias, y que comenzaba a jugar allí un papel muy importante: quiero hablar del principio de Born o de “descomposición espectral”. Este principio era sugerido por la teoría ondulatoria de la luz. Consideremos un haz de luz blanca; se sabe que distintos dispositivos, como prismas o redes, permiten descomponer la luz en un espectro, es decir, aislar los distintos componentes monocromáticos que, por su “superposición”, daban esa luz blanca. Esta debe, pues, estar representada por una ecuación de onda formada por la suma de ondas planas monocromáticas, y los dispositivos en cuestión tienen por resultado aislar los diferentes componentes monocromáticos. Empleando el lenguaje matemático, puede decirse que el prisma aísla los componentes de la serie de Fourier, que representan analíticamente la luz blanca incidente. Si entonces se introduce la idea del fotón, deberá decirse que después de su paso a través del prisma, un fotón incidente puede manifestar su presencia en uno u otro de los haces coloreados que de allí emergen. La teoría ondulatoria exige entonces que la probabilidad para que el fotón manifieste su presencia en uno u otro de los haces coloreados viene determinada por la intensidad (amplitud) de la componente de Fourier correspondiente, en la serie del mismo nombre que representa la onda incidente. Born fue el primero en transponer estas
18
observaciones de la óptica a la mecánica ondulatoria. La transposición condujo al principio general de la descomposición espectral, cuyo enunciado es: “En general un corpúsculo, cuyo estado está representado por una cierta onda asociada, no tiene una energía bien definida; ésta posee únicamente ciertos valores “posibles”. La probabilidad, para que una medida de esta energía suministre uno de los valores posibles, viene dada por la intensidad de la componente monocromática correspondiente en la serie de Fourier, que representa la onda asociada al corpúsculo en su estado inicial, antes de ser medida”. El enunciado entraña la adopción de conceptos del todo nuevos, enteramente extraños a la física clásica, pues implica que, en general, un corpúsculo no tiene un estado de movimiento bien definido, sino que es preciso considerar el estado del corpúsculo como una “superposición” de estados de movimiento. De la obra Física y Microfísica. LA FUNCIÓN DE ONDA COMO REPRESENTACIÓN DE CÓMO EVOLUCIONA NUESTRO CONOCIMIENTO ACERCA DE LOS PROCESOS CUÁNTICOS. Existen múltiples interpretaciones acerca de las funciones de onda y de las superposiciones a que dan lugar, pero me interesa destacar principalmente la que denominaría simbólica; describe, como reza el título de esta sección, cómo evoluciona nuestro conocimiento acerca de los procesos cuánticos. Este modo de interpretación es el que describe Louis de Broglie en el siguiente texto: Finalmente, existe un cuarto punto de vista, el que goza de un mayor favor actualmente: el desarrollado por los físicos Heisenberg y Bohr. A primera vista, parece un poco desconcertante, mas parece contener una gran parte de verdad. En esta concepción, la onda no representa totalmente un fenómeno físico que se desarrolle en una región del espacio; es, más bien, una representación simbólica de lo que sabemos acerca del corpúsculo. Una experiencia, o una observación, no nos permite jamás decir exactamente: tal corpúsculo ocupa tal posición y posee tal velocidad en tamaño y dirección. Todo lo que el experimento nos permite saber es que la posición y la velocidad del corpúsculo están comprendidas entre ciertos límites, o dicho de otro modo, que existe una determinada probabilidad para que el corpúsculo ocupe tal posición, y otra cierta probabilidad para que posea tal velocidad. Las informaciones que nos aportó un primer experimento, u observación, en el instante inicial se representan mediante una onda, cuya intensidad en ese mismo instante da en cada punto la probabilidad de presencia del corpúsculo, y cuya composición espectral nos facilita la probabilidad relativa de los diversos estados de movimiento. Si estudiamos la evolución de la onda a partir del instante cero hasta un instante posterior, la distribución de intensidades y la composición espectral de la onda nos permitirán decir cuál es la probabilidad para que una segunda experiencia, hecha en un instante posterior, localice el corpúsculo en tal o cuál punto y se le atribuya tal o cuál estado de movimiento. La consecuencia esencial de esta manera de ver es la relación de indeterminación de Heisenberg. Traducido de la obra Matière et Lumière. Estudiaremos este nuevo y fundamental principio cuántico, conocido como el principio de indeterminación por unos, de incertidumbre por otros, en un próximo capítulo. En la física cuántica subyace una notable unidad de principios. Es casi imposible
19
describir a fondo cualquiera de sus principios y características esenciales sin mencionar, aludir o sobrentender otros. La interpretación estadística o probabilística de M. Born, el principio de indeterminación de W. Heisenberg, que posteriormente estudiaremos, la noción de paquete de ondas, la descomposición espectral de las ondas en las llamadas componentes de Fourier, el mismo colapso de onda, todo ello está admirablemente entrelazado, no pudiéndose comprender bien lo uno sin lo otro. Veamos este texto de W. Heisenberg, en el fondo muy similar al anterior de L. De Broglie, en el que hablándonos del principio de indeterminación, alude a la interpretación estadística de Born, al paquete de ondas y su posterior colapso: Por otra parte, nadie sabía cómo representar mediante un esquema cuántico un caso tan simple como la trayectoria de un electrón a través de una cámara de Niebla. Born había dado un primer paso al calcular, con ayuda de la teoría de E. Schrödinger, las probabilidades de los procesos de colisión; había introducido el principio de que el cuadrado de la función de onda no era una densidad de carga [eléctrica], como pensara Schrödinger, sino la probabilidad de encontrar el electrón en un lugar determinado… Con este dato regresamos al electrón en la cámara de niebla ¿No sería que la pregunta estuviera mal planteada? Entonces recordé lo que Einstein me dijera en cierta ocasión: “Es siempre la teoría la que decide lo que se puede observar”. Tomado en serio significaba que no había que preguntar ¿cómo podemos representar la trayectoria del electrón en la cámara de niebla?, sino esta otra: ¿no será que en la naturaleza sólo se presentan aquellas situaciones que pueden representarse en la mecánica cuántica o en la mecánica ondulatoria? Volviendo la pregunta de revés, era evidente que esa trayectoria del electrón en una cámara de niebla no era, en absoluto, una línea infinitamente delgada, con posición y velocidades bien nítidas; la trayectoria era en realidad una sucesión de puntos que no estaban demasiado bien definidos por las gotitas de agua, como tampoco lo estaban las velocidades. De manera que formulé sencillamente la siguiente pregunta: Si de un paquete de ondas queremos saber tanto su velocidad como su posición, ¿cuál es la máxima precisión que podemos obtener, partiendo del principio de que en la naturaleza sólo se dan aquellas situaciones que se pueden representar mediante el esquema matemático de la mecánica cuántica? El problema matemático, así planteado, era muy sencillo, y el resultado fue el principio de indeterminación, que parecía ser compatible con la situación experimental. Por fin sabíamos cómo representar un fenómeno como la trayectoria de un electrón pero a muy alto precio, porque esta interpretación significaba que el paquete de ondas, que representa al electrón, varía en cada punto de observación, esto es, en cada gotita de agua en la cámara de niebla. En cada punto obtenemos una nueva información sobre el estado del electrón, de manera que tenemos que substituir el paquete de ondas original por otro nuevo que represente esa nueva información… Matemáticamente lo describimos como un vector en el espacio de Hilbert, y ese vector determina probabilidades para los resultados de cualquier clase de experimentos que puedan llevarse a cabo sobre ese estado. El estado puede cambiar con cualquier nueva información. Del ensayo Tradition in der Wissenschaft En el apéndice titulado, Precisiones sobre el Probabilismo Cuántico, encontrará el amable lector algunas explicaciones complementarias de este importante principio.
20
SEGUNDA PARTE CAPÍTULO VIII PRINCIPIO DE INDETERMINACIÓN DE WERNER HEISENBERG
Sumario: Circunstancias en las que se formuló el principio de incertidumbre. Magnitudes observables. Sólo la teoría decide sobre lo que se puede observar. Exposición del principio de indeterminación desde el punto de vista de la teoría corpuscular. Exposición del Principio de incertidumbre en el marco de la teoría ondulatoria. El principio de indeterminación aplicado a otras magnitudes conjugadas. Insólitas aplicaciones del principio de indeterminación.
RETOMANDO EL HILO DEL DISCURSO. En los capítulos anteriores −Primera Parte− de este ensayo, creo haber expuesto lo esencial de los supuestos previos que deben conocerse antes de entrar directamente en el tema central de este ensayo que, como reza el título de la obra, versa sobre el determinismo y la teoría cuántica, si bien es verdad que de lo que más te voy a hablar, amable lector, es de la otra cara de la moneda, esto es, del indeterminismo cuántico. Al final del ensayo, en la Tercera Parte, he colocado un extenso apéndice en el que se expone un breve bosquejo de ulteriores desarrollos de la teoría cuántica, así como los rudimentos de lo que se entiende por Física de Partículas. Comprende temas que no son imprescindibles para la exposición de la tesis de este ensayo, pero que podrían ser muy útiles para que el amable lector redondeara su perspectiva global de la teoría cuántica al nivel elemental, preferentemente conceptual, aquí tratado. Llegados a este punto, es conveniente hacer un breve resumen, o más bien tomar una vista panorámica, de los puntos más prominentes, expuestos en capítulos anteriores. Lo haremos llevados de la mano magistral de Albert Einstein. Se presentará el texto en particiones con indicación del tema al que alude en cada momento, y de los que el lector ya tiene algunos conocimientos previos. Acerca del descubrimiento del quantum de acción de Max Planck, punto de arranque de la teoría cuántica, nos dice: En el año 1900, en el curso de unas investigaciones puramente teóricas, Max Planck realizó un descubrimiento notable − la ley de la radiación de los cuerpos en función de la temperatura− que no se podía deducir de las leyes de la electrodinámica maxwelliana. Al objeto de lograr una teoría compatible con los resultados experimentales, había de tratarse la radiación de una determinada frecuencia como si consistiera de átomos de energía de valor “hν”, donde “h” es la constante universal de Planck. Durante los años siguientes quedó patente que la luz se originaba y se absorbía [efecto fotoeléctrico] en unidades discretas, los llamados “quanta” de energía.
21
Sobre la feliz ocurrencia de Niels Bohr de enlazar el modelo atómico de Lord Rutherford con el quantum de acción de Max Planck se expresa así:: En particular Niels Bohr pudo explicar la estructura del átomo sobre la base de que éstos sólo poseen valores de energía discretos y que las transiciones discontinuas entre tales estados están relacionadas con la emisión y absorción de cuantos de energía, lo que arrojó luz sobre el hecho de que los elementos en estado gaseoso y sus compuestos sólo radian y absorben luz de una determinada frecuencia, nítidamente definida. Todo ello era inexplicable en el marco de las teorías clásicas a la sazón vigentes. Era evidente que, al menos en el dominio de los fenómenos atómicos, la nota característica de cuanto acontece está determinada por los estados discretos y las transiciones discontinuas entre tales estados, desempeñando en todo ello la constante “h” de Planck un papel decisivo. En referencia a la genial intuición de Louis de Broglie acerca de las ondas de materia asociadas a los electrones y otras partículas cuánticas comenta: El siguiente paso fue dado por L. de Broglie. Se preguntó cómo podrían entenderse los estados discretos a la luz de los conceptos a la sazón vigentes, y dio con un acertado paralelismo entre los estados estacionarios cuánticos y las ondas estacionarias, tales como se presentan en las frecuencias propias de los tubos de órgano y de las cuerdas vibratorias (violín, piano) en la acústica. Cierto que el comportamiento matemático de esta nueva clase de ondas [de materia] era desconocido; pero podría ser construido y sus leyes matemáticas formuladas, utilizando la constante “h” de Planck. L. de Broglie concibió el electrón, que giraba alrededor del núcleo, como un hipotético tren de ondas y explicó, hasta cierto punto, el carácter discreto de las órbitas “permitidas” de Bohr en base a la peculiaridad estacionaria de las ondas correspondientes. Alude ahora a E. Schrödinger, quien complementó y generalizó las ideas de L. de Broglie al formular su famosa ecuación de ondas: Ahora bien, en la mecánica el movimiento de los cuerpos materiales está determinado por las fuerzas, o campo de fuerzas, que actúan sobre los mismos. Consiguientemente, era de esperar que, de un modo análogo, tales campos de fuerza habrían de influir en los sistemas de onda de L. de Broglie. Erwin Schrödinger demostró cómo describir matemáticamente dicha influencia, reinterpretando ingeniosamente ciertas fórmulas de la mecánica clásica. Incluso tuvo éxito en desarrollar la mecánica ondulatoria hasta el punto que, sin necesidad de introducir hipótesis adicionales, su teoría pudo aplicarse a cualquier sistema mecánico de un número cualquiera de puntos de masa, es decir, que poseyera un número arbitrario de grados de libertad. Esto fue posible porque un sistema mecánico de “n” puntos de masa es matemáticamente equivalente, en un grado considerable, a un único punto de masa que se moviera en un espacio de “n” dimensiones. Incide a continuación sobre la interpretación estadística de Max Born: Sobre la base de esta teoría se obtuvo una representación, sorprendentemente buena, de una inmensa variedad de hechos que, por otra parte, aparecían completamente incomprensibles. Pero, curiosamente, en un punto capital apareció un fallo: resultó imposible asociar las ondas de Schrödinger con movimientos definidos de puntos de masa y esto, después de todo, constituyó la finalidad original de toda la construcción. La dificultad parecía insoluble, hasta que fue resuelta por Born de un modo tan simple como inesperado. El campo de ondas de L. de Broglie-Schrödinger no había de
22
interpretarse como una descripción de cómo tienen lugar los acontecimientos en el tiempo y en el espacio, aunque, por supuesto, hace referencia a tales sucesos; representa, más bien, una descripción matemática de lo que podemos conocer de los sistemas cuánticos. Sólo sirven para hacer enunciados estadísticos y pronósticos acerca de los resultados de las medidas realizables sobre tales sistemas. Traducido del artículo The Fundaments of Theoretical Physics, aparecido en Science el 24 de Mayo de 1940. Por este admirable texto han desfilado los ilustres nombres de Planck, Bohr, de Broglie y Born, mas no se hace mención alguna de la mecánica cuántica matricial de Heisenberg, ni de su principio de indeterminación, por los que Einstein sentía escasa simpatía. Es de observar cómo las ondas, en un principio ondas de materia en L. de Broglie y E. Schrödinger, van perdiendo materialidad al tiempo que adquieren un carácter estadístico-probabilístico en Max Born. Incluso vemos cómo la ecuación de ondas reviste un cierto carácter epistemológico: no describen ya, como le gustaría a Einstein, sucesos objetivos en el espacio y en tiempo, sino la evolución de nuestro conocimiento acerca de los procesos cuánticos, de conformidad con la interpretación de Copenhagen. Esta penetración de las probabilidades en la cuántica es parte, y la vez culminación, de la invasión progresiva de las mismas en la física. Como nos lo explica Eddington: La teoría matemática de la probabilidad alcanzó gran prominencia a principios del siglo XIX gracias a los trabajos de Laplace, Gauss y otros célebres matemáticos. Ha tenido muchas aplicaciones en la ciencia física. En un principio estuvo casi totalmente confinada al tratamiento de los errores de observación, especialmente en astronomía, ciencia ésta que parece haber merecido la dudosa distinción de ser la disciplina que mejor se prestaba a una teoría del tratamiento de los errores. Con la aparición de la termodinámica y el análisis de la materia en un gran número de partículas independientes, moviéndose al azar [teoría cinética], la probabilidad entró en un contacto más íntimo con los problemas fundamentales de la física. En el día de hoy, el símbolo más preeminente de la mecánica ondulatoria, la misteriosa ψ que el físico cuantista persigue de ecuación en ecuación, se identifica −en la medida en que podemos definir lo indefinible− con la probabilidad. En las teorías más modernas de la física, la probabilidad parece haber substituido al éter como el” nominativo” del verbo “ondular”. Estas breves pinceladas están tomadas del ensayo de Sir Arthur Stanley Eddington, titulado New Pathways in Science. CIRCUNSTANCIAS EN INDETERMINACIÓN.
LAS QUE SE FORMULÓ EL PRINCIPIO
DE
W. Heisenberg nos ha relatado en Der Teil und das Ganze en qué circunstancias formuló este principio. Corrían los primeros meses de 1927. W. Heisenberg se encontraba en Copenhague como asistente de N. Bohr en su Instituto de Física Teórica, puesto que había preferido al de profesor en Leipzig. Nos cuenta cómo sus diálogos vespertinos con Niels Bohr se prolongaban hasta altas horas de la madrugada. El tema que preocupaba a Heisenberg era el modo de representar la trayectoria del electrón dentro del marco de la teoría cuántica. En la mecánica matricial no aparece en absoluto tal concepto, y en la mecánica ondulatoria puede darse un paquete de ondas de materia
23
estrictamente dirigido, pero estas ondas debían extenderse poco a poco sobre ámbitos espaciales que eran muy superiores al diámetro del electrón. El cansancio y las tensiones, provocados por estos diálogos intensivos, determinaron que N. Bohr emprendiera un viaje a Noruega para descansar practicando el esquí, mientras su joven ayudante permanecía solo en el Instituto reflexionando acerca de cómo representar la trayectoria del electrón en la teoría cuántica. Un año antes A. Einstein le objetaba su intento de suprimir en su mecánica matricial las órbitas de los electrones a pesar de que vemos, o creemos ver, las trayectorias electrónicas en la cámara de niebla. El joven físico alemán meditaba así durante el paseo: Siempre solíamos decir, no sin cierta superficialidad: “la trayectoria del electrón se puede observar en la cámara de niebla”. Pero es posible que lo que realmente veamos sea mucho menos. Lo que podemos percibir es, tal vez, sólo una serie discontinua de posiciones, muy poco precisas, del electrón. En realidad sólo vemos diminutas y aisladas gotas de agua, de un tamaño muchísimo mayor que el electrón. La pregunta correcta sería ésta: ¿Se puede describir en la mecánica cuántica una situación, en la cual el electrón se encuentre en una posición de un modo aproximado, esto es, con una determinada inexactitud, y que al mismo tiempo posea una cierta velocidad, también con una determinada inexactitud? ¿Se pueden hacer estas inexactitudes tan pequeñas como se quiera para no caer en contradicción con el dispositivo del experimento? Unos cálculos breves al volver del paseo al Instituto me confirmaron que tal situación se podía describir matemáticamente y que para estas inexactitudes eran suficientes esas relaciones, que más tarde se denominaron Relaciones de Indeterminación de la Mecánica Cuántica (Unbestimmtheitsrelationen der Quantenmechanik): El producto de las indeterminaciones de posición y cantidad de movimiento no puede ser inferior al “quantum” de acción de Planck. Se entiende por cantidad de movimiento al producto de la masa por la velocidad. Me pareció que con esto se restablecía finalmente la conexión entre lo observado en la cámara de niebla y las matemáticas de la mecánica cuántica”. Traducido de Der Teil und das Ganze. Su formulación matemática es la siguiente: ∆p∆q ≥ h/2π
(a)
Y continua W. Heisenberg en su relato: También me sirvió de ayuda en este problema el recuerdo de una conversación que mantuve en cierta ocasión con un amigo de estudios en Göttingen, Buckhard Drude. En las dificultades asociadas con la representación de las órbitas electrónicas, Buckhard Drude había especulado con la posibilidad de poder observar dichas órbitas con un microscopio, de un extraordinario poder de resolución. Un tal microscopio no podría construirse para funcionar con luz visible, sino, tal vez, con rayos gamma muy duros. En principio, se podrían fotografiar las órbitas electrónicas en el átomo. Ahora debería demostrar que tampoco sería posible un
24
microscopio tal que traspasara los limites impuestos por las relaciones de indeterminación. Esta demostración tuvo éxito y fortaleció mi confianza en la comprensión de la nueva interpretación. Después de ulteriores cálculos resumí los resultados y los remetí en una larga carta a Wolfgang Pauli, quien me envió desde Hamburgo la suya animándome en la tarea emprendida. Traducido de la obra citada. Es frecuente encontrar en la fórmula anterior, en lugar del segundo miembro, la “h barrada”, esto es, h. En un principio, Niels Bohr se opuso a la publicación del borrador, lo que motivó un enfrentamiento no leve entre el joven físico y su mentor. Bohr alegaba la existencia de un error en la prueba del experimento mental, que Heisenberg basaba casi exclusivamente en el retroceso del corpúsculo, en el impacto por efecto Compton, dejando en la penumbra la acción de la dispersión de las ondas de luz, producida al pasar los fotones por la apertura de la lente del microscopio, detalle este que W. Heisenberg consideraba de orden menor. Como veremos más tarde, en la visión de Niels Bohr el principio de indeterminación representaba un caso particular de un principio más amplio, ideado por él, el famoso principio de complementariedad. Al parecer W. Heisenberg defendía la autonomía y paternidad de su principio como una loba defiende sus recién nacidos cachorros. Como es de suponer, dado su buen carácter, el joven físico se concilió unos meses más tarde con Niels Bohr, con ocasión de la conferencia de éste en el Instituto Carduchi, junto al lago Como en Italia. ¿ALGO MÁS QUE UNA SIMPLE DISCUSIÓN CIENTÍFICA? El dramatismo con el que David C. Cassidy describe en su biografía de Werner Heisenberg este gross misunderstanding (falta grave de entendimiento mutuo) entre ambos físicos con motivo de la publicación, por parte de Werner Heisenberg, del principio de indeterminación, hace sospechar que, además de los principios puramente científicos, se debatía algo más personal: el atrevimiento de un discípulo de marchar por delante de su maestro, lo cual, a la larga, es ley de vida, pero no fácil de conllevar si se produce prematuramente. Niels Bohr pretendía que el principio de indeterminación era un caso espacial de su propio principio de complementariedad, que estudiaremos en el próximo capítulo, concebido como la piedra angular que sustenta el edificio de la teoría cuántica. El problema nace, según él, por la concurrencia simultánea de ondas y corpúsculos en las situaciones de observación, donde se mezclan símbolos propios de las ondas, “λ” y “ν”, con símbolos propios de los corpúsculos, E y p. Al tener que elegir necesariamente el experimentador, según Niels Bohr, entre una u otra de estas nociones, se produce una perturbación que da lugar a las relaciones de incertidumbre. Desde el punto de vista humano y circunstancial, el vencedor de esta contienda fue, sin ningún género de dudas Niels Bohr, al menos en el corto plazo. Al final de la conferencia que éste pronunciara junto al lago Como, considerada por muchos como la presentación en sociedad del principio de complementariedad e interpretación de Copenhague, Werner Heisenberg se levantó de su asiento para demostrar públicamente su adhesión a la interpretación bohriana de la teoría cuántica. Destacados físicos del entorno, Max Born, Wolgang Pauli, Pascual Jordan y otros, asumieron como punto de referencia, y casi como enseña de partido, el principio de complementariedad de Niels Bohr. Creo, no obstante, que en nuestros días la situación ha cambiado radicalmente. Si hubiera que elegir un símbolo de la teoría, éste podría ser, a mi juicio, el principio de
25
incertidumbre, la interpretación probabilística de Max Born o, tal vez, la letra griega “ψ”, símbolo de la famosa ecuación de Schrödinger. No obstante, hay que reconocer que existe entre ellos un muy estrecho parentesco: exhiben un mismo aire de familia. El principio de indeterminación sería la expresión fuerte, o cuantitativa, del principio de complementariedad. MAGNITUDES OBSERVABLES. SÓLO LA TEORIA DECIDE SOBRE LO QUE SE PUEDE OBSERVAR (EINSTEIN) Es conveniente resaltar esta frase de W.Heisenberg: Pero es posible que lo que realmente veamos sea mucho menos. Ya en un capitulo anterior subrayamos la trascendencia que tuvo para este, entonces joven físico, el atenerse escrupulosamente a lo inmediatamente observado. Constituyó la clave para concentrarse en las magnitudes observables de los espectros atómicos: frecuencias y amplitudes. Con ello esbozó la mecánica matricial. Empleó la misma técnica en el descubrimiento de las relaciones de indeterminación. Einstein, por otra parte, insistía en que sólo la teoría decide sobre lo que se puede observar. La misma doctrina epistemológica se encuentra en Max Planck. EXPOSICIÓN DEL PRINCIPIO DE INDETERMINACIÓN POR D. PAPP DESDE EL PUNTO DE VISTA DE LA TEORÍA CORPUSCULAR Veamos este texto del profesor D. Papp en que se explica el principio de W. Heisenberg, desde el punto de vista del aspecto corpuscular del electrón. Es fundamental, en esta descripción, el efecto Compton, del cual el principio de indeterminación, como dice acertadamente el profesor Papp, es una prolongación: El descubrimiento de Heisenberg revela una consecuencia necesaria e imprescindible de la doble naturaleza de la luz. Prolonga el efecto Compton, dándole un alcance imprevisto y un sentido profundo. Hemos narrado la hazaña de Arthur Compton; su ingenioso experimento mostró que la colisión de un rayo Roentgen con un electrón se produce como el choque de una bola de billar en movimiento con otra en reposo. El electrón es proyectado hacia delante y el fotón rebota con una pérdida de impulso. Es esta colisión del fotón con el electrón la que interviene en todas las observaciones y produce un cierto margen de incertidumbre. Supongamos que queremos determinar la posición exacta de un electrón. Para verlo es necesario iluminarlo. Si lo iluminamos con rayos de luz ordinaria, la longitud de onda de la luz empleada será mayor que el electrón y éste quedará invisible. Por consiguiente, emplearemos ondas cortas. En el momento en que la onda alcanza al electrón, se producirá una colisión entre ambos: es exactamente el efecto Compton que ya conocemos. El resultado del choque será que la velocidad del electrón cambiará; cambiará tanto más, cuanto más cortas son las ondas empleadas. He aquí la impotencia en que nos encontramos: si elegimos ondas largas para no perturbar demasiado la velocidad del electrón, que queremos observar, su posición quedará indeterminada. El producto de estas dos imprecisiones inevitables lo mide la constante del Plank.
26
Hagamos otra experiencia: fotografiemos la trayectoria de un electrón. Pongamos a nuestra disposición una placa idealmente sensible que pueda registrar perfectamente las impresiones recibidas. ¿Las imágenes sucesivas dibujarán la trayectoria exacta? Ciertamente, no. La toma de la fotografía exige que el electrón sea iluminado; las radiaciones empleadas lanzarán al electrón fuera de su trayectoria. La fotografía será, pues, borrosa; y la trayectoria, en lugar de ser una línea ideal, será una zona: los puntos en el interior de esta zona no materializarán las posiciones sucesivas del electrón, solamente la probabilidad de su presencia definida por la ecuación de Schrödinger. La verdadera trayectoria queda oculta, escondida, por la incertidumbre de Heisenberg. De la obra La Doble Faz del Mundo Físico. Naturalmente esto sólo ocurre, o sólo es observable, en los procesos micro o ultramicroscópicos. El avión nunca sufrirá desviación alguna en su trayectoria por el simple hecho de que sea profusamente iluminado por un reflector, ni el sol desplaza las órbitas de los planetas al derramar raudales de luz sobre ellos. Es posible que, en principio, como exigen los teóricos, la observación de cualquier proceso del universo esté sometida al principio de indeterminación, mas en los objetos macroscópicos tales efectos no son en modo alguno detectables. Aquí tenemos, pues, un caso concreto en que la teoría va más allá de los puros hechos. EXPOSICIÓN DEL PRINCIPIO POR LOUIS DE BROGLIE DESDE EL PUNTO DE VISTA DE LA MECÁNICA ONDULATORIA. Dado que el principio de incertidumbre Heisenbergiano es de capital importancia para el tema de este ensayo, por las consecuencias filosóficas que se han querido derivar de él, me voy a permitir reproducir, una vez más, otro texto, esta vez de Louis de Broglie, cuya exposición, como siempre, es de una luminosidad desbordante. Tiene la ventaja de explicar dicho principio en el marco representacional de las ondas, como era de esperar del físico cofundador, o más bien iniciador, de la mecánica ondulatoria. En primer lugar define los términos básicos de las ondas y la distinción entre ondas simples, monocromáticas, y ondas complejas, formadas por la superposición de las monocromáticas, que nos recuerdan las series de Fourier, de las que hablamos en capítulo anterior: Y ahora debemos precisar de qué modo las teorías contemporáneas han llevado a asociar las ondas con los corpúsculos de la materia. Para ello, en primer lugar, debemos recordar sucintamente lo que llamamos una onda. Podemos hacernos una representación de una onda simple imaginando una serie de ondas que se siguen a intervalos iguales; la distancia entre dos crestas consecutivas se llama longitud de onda; y amplitud, la altura de la cresta. La longitud de onda y la amplitud son dos magnitudes que definen la onda simple. Tal onda se denomina, con un término tomado del lenguaje de la óptica, una onda monocromática. Pero podemos considerar clases de ondas más complejas que se forman por una superposición de ondas monocromáticas. Para definir una onda compleja de este género, se precisa conocer las longitudes de onda y las amplitudes de todas las ondas simples componentes o, como se dice por analogía con la óptica, “la descomposición espectral” de la onda compleja.
27
Después de estas breves definiciones, el ilustre físico alude a su propio trabajo y al de Schrödinger: He dicho antes que los físicos, después de un largo estudio de los fenómenos de los “quanta”, habían llegado a la convicción de que, en la teoría de la materia, era necesario asociar la noción de onda a la de corpúsculo. Se empezó por reconocer que al movimiento de un corpúsculo de velocidad bien definida debía corresponder la propagación de una onda monocromática, cuya longitud de onda está ligada a la velocidad del corpúsculo por una relación donde figura la constante h. A partir de esta idea se desarrolló una nueva mecánica conocida por el nombre de “Mecánica Ondulatoria”, donde el estudio del movimiento del corpúsculo se substituye por el estudio de la propagación de la onda asociada. La propagación de la onda tiene lugar mediante leyes rigurosas, de las que no resulta para el corpúsculo, como voy a tratar de explicar, un movimiento rigurosamente determinado. El siguiente párrafo se inicia con un concepto epistemológico muy sutil, adoptado por los miembros más destacados del Círculo de Copenhague, según el cual, como ya se comentó anteriormente, una onda cuántica no representa un proceso objetivo en el espacio y en el tiempo sino que simboliza lo que sabemos sobre el corpúsculo, esto es, representa la evolución de nuestro conocimiento acerca del comportamiento del corpúsculo, todo ello en términos de probabilidades, según la interpretación de Max Born, a la que alude. En la nueva concepción, la onda asociada a un corpúsculo representa, o simboliza, todo lo que sabemos sobre el corpúsculo. La onda asociada es en general una onda compleja, definida por una cierta descomposición espectral y cuya amplitud resultante se distribuye, en cada instante, de una cierta manera en el espacio. La nueva Mecánica prohíbe atribuir al corpúsculo una posición constantemente bien definida en el espacio; Solamente nos dice que el corpúsculo se encuentra necesariamente en la región ocupada por la onda, y que la probabilidad de encontrarse en un punto determinado es proporcional a la amplitud de la onda en dicho punto. De un modo análogo, no permite atribuir constantemente al corpúsculo un movimiento perfectamente determinado. A cada componente monocromático, que figura en la descomposición espectral de la onda asociada, corresponde un valor posible de la velocidad del corpúsculo y se sabe que la velocidad real del corpúsculo posee uno de estos valores posibles. A continuación Louis de Broglie entra de lleno en el principio de incertidumbre, como él lo denomina. Parece derivarlo de la misma estructura matemática de las ondas: Existe siempre en la nueva Mecánica una cierta incertidumbre sobre la posición del corpúsculo y una cierta incertidumbre sobre su estado de movimiento. Es fácil darse cuenta, estudiando las propiedades matemáticas de las ondas que estas incertidumbres no son independientes: cuanto una de ellas es más pequeña, la otra es mayor. Para verlo, examinemos primero un caso límite: el de una onda asociada simple, monocromática; corresponde, como hemos visto, a un corpúsculo cuya velocidad es perfectamente conocida. Pero se puede demostrar que una onda monocromática de esta clase tiene una extensión indefinida en el espacio, poseyendo en todos los puntos idéntica amplitud. En mecánica ondulatoria esto quiere decir que el corpúsculo
28
asociado tiene una posición completamente indeterminada, que puede encontrarse en cualquier punto del espacio. Por consiguiente, un conocimiento completo del movimiento entraña una incertidumbre absoluta en cuanto a la posición. Puede suceder que la onda asociada al corpúsculo, en lugar de ser indefinida, ocupe una región limitada “R0” del espacio, fuera de la cual la amplitud de la onda es nula: la incertidumbre sobre la posición es entonces menor que en el caso precedente, puesto que el corpúsculo se encuentra ciertamente en la región “R0”. Mas una onda limitada a una región del espacio es necesariamente compleja; como la demuestra el análisis matemático, está formada por una superposición de ondas monocromáticas, cada una de las cuales corresponde a una velocidad posible del corpúsculo. Por consiguiente, en este caso la incertidumbre sobre la posición ya no es incompleta, pero obtenemos en compensación una incertidumbre sobre el movimiento. Finalmente pongámonos en el caso más extremo, esto es, el de una onda que ocupe solamente una región “Rn” infinitamente pequeña. La posición del corpúsculo es entonces bien conocida puesto que debe encontrarse en “Rn”; pero una onda tal, de dimensiones infinitamente pequeñas, sólo puede resultar de la superposición de ondas monocromáticas de todas las longitudes de onda posibles para el corpúsculo: cuando desaparece la incertidumbre sobre la posición, reaparece la incertidumbre total sobre la velocidad. Como ha podido observar el amable lector, el principio de indeterminación de Heisenberg está entrañablemente unido a la interpretación probabilística de Max Born que define una determinada probabilidad, en función del cuadrado de la amplitud, para cada uno de los componentes monocromáticos de la onda compleja, esto es, la probabilidad de encontrarse la partícula en un determinado nivel de energía y posición espacial. Concluye Louis de Broglie, pasando de la imagen de ondas a la de corpúsculo, pues a ambos modelos se aplica el principio de indeterminación: Werner Heisenberg, quien ha sido el primero en percibir las consecuencias de la nueva Mecánica, las ha expresado matemáticamente con la ayuda de ecuaciones llamadas hoy “Relaciones de Incertidumbre”. Estas relaciones evidencian el hecho siguiente: es precisamente la existencia de la constante “h” la que nos impide conocer simultáneamente, y con exactitud, la posición y el movimiento de un corpúsculo; si “h” fuera nula, el conocimiento simultáneo de tales magnitudes sería posible. Podría objetarse, sin embargo, que para conocer simultáneamente la posición y la velocidad de un corpúsculo, es suficiente medir simultáneamente esas dos magnitudes. Heisenberg ha contestado victoriosamente a esa objeción demostrando que no existe ningún procedimiento de medida o de observación que pueda hacernos conocer, al mismo tiempo y de manera rigurosa, la posición y la velocidad de un corpúsculo. Todo dispositivo, que permita la medida de la posición, tiene por efecto perturbar de una manera desconocida la velocidad, y esta perturbación es tanto más pronunciada, cuanto más precisa sea la medida de la posición; inversamente cualquier dispositivo que permita la medida de la velocidad tiene por efecto perturbar la posición de un modo desconocido y esto con tanta más fuerza cuanto más precisa es la medida de la velocidad. Examinando de cerca la cuestión, encontramos, por esta crítica de las posibilidades de medida, las relaciones de incertidumbre deducidas de las propiedades de las ondas. Texto traducido de la obra Matière el Lumière.
29
He indicado más arriba que el principio de indeterminación parece como derivado del concepto mismo de ondas, como indican los esquemas sobre esta página. Robert Eisberg y Robert Resnick, en su obra de texto, La Mecánica Cuántica, donde aportan la prueba, previenen al lector antes de tratar el tema: Más adelante se demostrará que las relaciones de Heisenberg se pueden derivar del postulado de Louis de Broglie y de propiedades sencillas, comunes a toda onda. EL
PRINCIPIO DE MAGNITUDES
INDETERMINACIÓN
EXPRESADO
EN
OTRAS
No crea el amable lector que este principio se aplica únicamente a la posición y al momento de las partículas o, lo que hasta cierto punto es equivalente, a su posición y velocidad. Se aplica también a cualquier otro par de magnitudes conjugadas, esto es, magnitudes que no conmutan en la mecánica cuántica como, por ejemplo, frecuencia y tiempo. Según L. de Broglie, en tales pares de magnitudes siempre existe una que sirve
30
para la descripción del proceso dado en términos de espacio y tiempo, mientras que la otra magnitud tiene como cometido la descripción de su estado dinámico. Una excelente exposición del principio de indeterminación, aplicado al par de magnitudes conjugadas, frecuencia y tiempo, así como la fabricación de un paquete de ondas, puede verse en el luminoso artículo de Raymon Y. Chiao, Paul G. Kwiat y Aephraim M. Steinberg, aparecido en Investigación y Ciencia, en Octubre de 1993, bajo el título ¿Más veloz que la luz? EL PRINCIPIO DE INDETERMINACIÓN ENUNCIADO POR LOS FÍSICOS CONTEMPORÁNEOS. El enunciado matemático de este principio es algo tan preciso que no cabe distinción entre los enunciados de los físicos contemporáneos y los del primer tercio del siglo XX. Veamos este texto tomado de la obra popular, A Brief History of Time, del físico teórico Stephen W. Hawking. Su exposición no difiere esencialmente de la explicada por el Prof. Papp: La hipótesis cuántica explicó satisfactoriamente la observada tasa de emisión de radiación de los cuerpos calientes, pero sus implicaciones en relación con el determinismo no fueron aclaradas hasta 1926, cuando otro científico alemán, Werner Heisenberg, formuló su famoso principio de incertidumbre. Para predecir la posición y la velocidad de las partículas, debemos antes medir con toda precisión la posición y velocidad actuales. El modo obvio de hacerlo es iluminar la partícula. Algunas ondas de luz serán dispersadas por la partícula, lo que indicará su posición. Sin embargo, no podremos determinar la posición de la partícula con más precisión que la distancia que media entre dos crestas consecutivas de la onda de luz, por lo cual precisamos utilizar luz de corta longitud de onda para medir con exactitud la posición de la partícula. Pero ahora, la hipótesis cuántica de Planck nos prohibe usar una porción de luz arbitrariamente tan pequeña como se quiera; hemos de emplear, como mínimo, un quantum de luz. Este quantum perturbará la partícula, alterando su velocidad de una manera impredecible. Es más, cuanto con más precisión intentemos medir la posición, más corta será la longitud de onda a emplear y, en consecuencia, mayor será la energía del quantum de luz, resultando de ello una mayor perturbación de la velocidad de la partícula. En otras palabras, cuanto con más precisión se mide la posición de la partícula, con menos precisión se consigue medir su velocidad y viceversa. Heisenberg mostró que la imprecisión en la posición de la partícula multiplicada por la imprecisión en la medida de su velocidad y por su masa, nunca puede ser inferior a una determinada cantidad, conocida como la constante de Planck. Por otra parte, este límite no depende del método de medir la posición o la velocidad de la partícula, ni de la clase de partícula: el principio de indeterminación de Heisenberg es una propiedad fundamental e ineludible del universo. Traducido de A Brief History of Time. Si bien el enunciado del principio no ha cambiado en absoluto, sí han surgido nuevas e insólitas aplicaciones del mismo, siendo algunas de ellas verdaderamente notables, como notable y sorprendente es la que aparece en la obra citada, donde puede verse cómo Stephen Hawking apela al principio cuántico de indeterminación de Heisenberg para explicarnos su teoría acerca del final de los agujeros negros que, después de todo, no parecen tan negros como se les suponía. Sólo expondré la parte del texto que hace referencia al punto concreto que nos ocupa, esto es, cómo el principio de
31
indeterminación hace imposible la existencia de un vacío absoluto de materia: ¿Cómo es posible que un agujero negro parezca emitir partículas cuando sabemos que nada puede escapar de su horizonte de sucesos? La contestación, nos dice la teoría cuántica, es que las partículas no proceden del interior del agujero negro, sino del espacio vacío, inmediato al horizonte de sucesos del agujero negro. Lo podemos entender de este modo. Cuando hablamos del espacio “vacío” no debemos entenderlo como algo absolutamente vacío, porque ello significaría que todos los campos, el campo gravitacional y el campo electromagnético, deberían ser exactamente cero. Sin embargo, el valor del campo y su velocidad de variación en el tiempo son magnitudes análogas a la posición y velocidad de una partícula. El principio de incertidumbre implica que cuanto con mayor precisión conocemos una de ellas, con más imprecisión conocemos la otra. Esto quiere decir que el campo en el espacio vacío no puede ser exactamente cero, pues, si así fuera, tendríamos simultáneamente medidas precisas de su valor (cero) y de su velocidad de variación (cero). Debe existir, pues, un mínimo margen de incertidumbre, o fluctuaciones cuánticas en el valor del campo. Debemos concebir estas fluctuaciones como pares de partículas que en algún momento surgen simultáneamente, se alejan y vuelven a encontrarse de nuevo, aniquilándose mutuamente. Se trata de partículas virtuales como las partículas que transmiten la fuerza gravitacional del Sol. Contrariamente a las partículas reales, no pueden ser observadas directamente con un detector de partículas. Causan, sin embargo, pequeños cambios en la energía de las órbitas electrónicas en los átomos, que se pueden medir y concuerdan con las predicciones teóricas en un elevado grado de exactitud. El principio de incertidumbre predice que también deben existir pares virtuales similares de partículas materiales, como electrones o quarks. En este caso, sin embargo, el par consistirá en una partícula y su antipartícula (la luz y la gravedad carecen de antipartículas)… Ya en los primeros años treinta del pasado siglo exponía A. S. Eddington ideas análogas en lo relativo a la imposibilidad del espacio absolutamente vacío de toda energía, como paso previo a la unificación de las dos grandes teorías modernas, relatividad y cuántica. Véase la sección al final del capítulo II de su obra The New Pathways in Science (Nuevos Senderos en la Ciencia), de la que traduzco estos párrafos: Generalmente consideramos el espacio completamente vacío (desprovisto de masa y hasta de la más infinitesimal probabilidad de contener masa) como el marco ideal común a las dos teorías [relatividad y cuántica]. Cada una de estas teorías introduce en dicho marco vacío sus propias entidades características. La teoría cuántica inserta una distribución de probabilidades de electrones y protones y la teoría de la relatividad introduce su tensor de materia, de nivel macroscópico y energía media, así como los campos electromagnéticos. En realidad el concepto de un marco vacío es extraño a ambas teorías; sólo puede introducirse como un caso límite. Cuando examinamos el marco standard (the standard framework) que dichas teorías utilizan, no el que generalmente imaginamos que deberían usar, tal conexión salta a la vista.. Whitehead dijo en cierta ocasión: “No puedes tener primero el espacio y luego colocar cosas en él, del mismo modo que no puedes tener primero una sonrisa burlona y luego el gato de Cheshire al que acoplarla”. Para adaptar el símil al estado actual de la física, deberíamos modificarlo levemente; deberíamos admitir esa peculiar sonrisa [la que se hace enseñando los dientes] siempre que se dé una probabilidad, superior a cero, de que exista un gato a quien aplicarla. Pero dejando a un lado esta pequeña
32
anécdota, lo esencial del enunciado es que no puedes tener espacio sin cosas o cosas sin espacio. La adopción de un espacio sin cosas, −“vacuum”, thingless space− como norma standard en gran parte de la teoría física es un impedimento para el progreso de la misma. A causa de esta concepción contradictoria y desatinada, hemos introducido en la física moderna una separación abstracta entre la teoría del espacio (campos) y la teoría de las cosas (materia), de modo tal que los investigadores, que tratan hoy de hallar una teoría unificada del campo-materia, están teniendo dificultades en unirlas de nuevo. Como he indicado más arriba, el remedio es utilizar una norma o standard que no corresponda a la ausencia absoluta de materia. El capítulo concluye instaurando el adagio en que los escolásticos resumieron la doctrina de Aristóteles al respecto y que posteriormente adoptaron Descartes y Leibniz: “Nature abhors a vacuum”. Pienso que los físicos teóricos harían bien en seguir el ejemplo. Aún es más sorprendente el siguiente texto de un físico moderno que representa, además, una nueva e inusitada aplicación del principio de indeterminación, donde vemos a este principio ejerciendo algo así como las funciones de un vigilante algo distraído, y continuamente burlado por unos niños traviesos (mientras no se pasen demasiado de la raya), representados, en este símil, por limitadas violaciones del principio de la conservación de la energía: La explicación de estas propiedades peculiares del fotón virtual está en el principio de indeterminación, introducido en la mecánica cuántica por Werner Heisenberg. El principio de indeterminación no invalida las leyes de la conservación de energía y del momento, pero permite que no se note una violación de estas leyes si se rectifica con suficiente rapidez. Los electrones estacionarios tienen idéntica energía y momento antes de emitir el fotón virtual y después de que éste haya sido absorbido; las leyes de conservación parecen violarse sólo durante el breve paso del fotón. El principio de indeterminación establece que tal violación manifiesta puede tolerarse si no dura demasiado tiempo o no tiene un alcance excesivo. ¿Qué significa aquí demasiado tiempo y demasiado grande? Las contestaciones variarán según sea la magnitud de la violación que ocurre: cuanto mayor sea la violación de energía y momento, causada por la emisión de un fotón virtual, antes deberá reabsorberse el fotón. Un fotón virtual de alta energía puede sobrevivir sólo brevemente, mientras que otro de baja energía gozará de un largo período de gracia antes de que los libros de balance se deban ajustar. Y ahora surge una nueva e inusitada formulación del principio de Heisenberg: Para ser explícito: el producto de la violación de la conservación de la energía y la vida media del fotón no puede superar la constante de Planck. Del artículo: Teoría Unificada de las Partículas Elementales y las Fuerzas por Howard Georgi, aparecido en la revista Investigación y Ciencia, en Julio de 1981. Parece como si al principio de indeterminación, desde su formulación en 1927, le hubieran llovido multitud de empleos y cometidos, desde los más triviales a los más inusitados.
33
Según la diversidad de enunciados anteriores, el principio de Werner Heisenberg podría definirse con la siguiente generalidad: El producto de las imprecisiones, o errores, en las medidas simultáneas de dos magnitudes conjugadas, en el sentido de la teoría cuántica, no puede ser inferior a la constante de Planck. ¿PRINCIPIO DE INDETERMINACIÓN O PRINCIPIO DE INCERTIDUMBRE? Habrá observado el lector que unas veces decimos Principio de Indeterminación, y otras Principio de Incertidumbre. Lo mismo ocurre con los autores alemanes, sobre todo con los dos físicos, el entonces joven profesor Werner Heisenberg y el venerable veterano Max Planck, que marcan los dos polos opuestos en cuanto al alcance científicofilosófico de este principio. En Heisenberg leemos indefectiblemente la expresión Unbestimmheitsrelationen (relaciones de indeterminación), y en Planck Unsicherheitsrelationen (relaciones de incertidumbre) y, en ocasiones, Das Heisenbergschen Gesetz der Unschärfe (la ley de imprecisión de Heisenberg). En inglés los dos términos son: Indeterminacy y Uncertainty; y en francés: Indétermination y Incertitude. En general, pero no de un modo absoluto, se puede decir que sienten marcada predilección por el uso del término indeterminación, los físicos que admiten el indeterminismo radical y objetivo de los procesos cuánticos. Entiendo por indeterminismo radical, u objetivo, la concepción según la cual, en los procesos cuánticos, el principio de casualidad no tiene plena validez. Por el contrario, prefieren el término incertidumbre los físicos que, aún admitiendo el carácter probabilista y estadístico de los procesos cuánticos, no niegan la validez absoluta del principio de causalidad; simplemente admiten que, dadas nuestras limitaciones humanas y la complejidad de los procesos cuánticos, no es factible aplicar dicho principio en los niveles en los que “h”, la constante de Planck, hace sentir marcadamente su presencia. Los primeros, aun cuando no les guste, podrían calificarse de indeterministas de principio o metafísicos, mientras que denominaremos indeterministas pragmáticos o metodológicos a los segundos. En este ensayo se usan ambos términos indistintamente; se reconoce, no obstante, que el vocablo indeterminación es el que mejor corresponde a la mente de su fundador, el entonces joven físico Werner Heisenberg.
34
CAPITULO IX EL CONCEPTO BOHRIANO DE LA COMPLEMENTARIEDAD
Sumario: Debate secular entre las teorías corpuscular y ondulatoria. Enunciado del principio de complementariedad. La dualidad onda-corpúsculo en los físicos contemporáneos. Comparación de ambos principios: complementariedad e indeterminación. Preeminencia del principio de indeterminación. Complementariedad: un principio que vale casi para todo. Biología y cuántica.
DEBATE SECULAR ENTRE LAS TEORÍAS CORPUSCULAR Y ONDULATORIA DE LA LUZ. Narramos en un capítulo anterior cómo Niels Bohr fuese a esquiar, mientras Werner Heisenberg se quedó solo en el Instituto de Física. El primero, en su esparcimiento, también tuvo tiempo de reflexionar, llegando al enunciado conocido como Principio de Complementariedad. Su formulación es eminentemente cualitativa, no prestándose a revestimiento o tratamiento matemático alguno, lo que le confiere un cierto sabor filosófico. Antes de enunciarlo, recordemos la pugna científica entre los defensores de las teorías corpuscular y ondulatoria de la luz. Newton concibió la luz como un chorro de finísimas partículas que emanan de los cuerpos luminosos, teoría cuyos orígenes se remontan a la antigüedad greco-romana (Lucrecio). La teoría explica fácilmente la propagación rectilínea de la luz, la reflexión en las superficies especulares y la refracción al pasar de un medio transparente a otro de distinta densidad, aunque para explicar algunos fenómenos lumínicos, como los anillos de Newton, este sabio tuviera que introducir, en su teoría de los accesos, elementos periódicos, no compatibles con la concepción corpuscular. La alta autoridad de Newton hizo que la teoría corpuscular prevaleciera durante el siglo XVIII. La otra teoría rival, la teoría ondulatoria, fue propuesta por un ilustre contemporáneo de Newton, el holandés Christian Huyghens. La teoría ondulatoria no ofrece una visualización tan nítida e intuitiva de los efectos de la propagación rectilínea y de la reflexión como la teoría corpuscular, cuyos dibujos en los libros de física parecen una esquematización de nuestros juegos infantiles con pelotas, como acontece en el frontón, tenis y otros varios juegos. La teoría corpuscular fracasa, sin embargo, en los procesos de interferencia y difracción, no muy conocidos y suficientemente estudiados en tiempos de Newton, puestos de relieve al principio del siglo XIX por el inglés Thomas Young, y que dieron ocasión a Augustin Fresnell para desarrollar toda una teoría matemática ondulatoria, bella y completa, válida aún en lo esencial de su formalismo matemático, pero menoscabada y superada en lo concerniente a la hipótesis del éter elástico, de naturaleza mecánica y supuesto portador de las ondas lumínicas.
35
Las ondas de luz guardan cierta similitud con las olas del mar y las pequeñas ondas que se forman en un recipiente de agua al arrojar objetos en él. Si el objeto es un corcho, vemos cómo se forman y propagan las ondas hasta reflejarse en las paredes del recipiente. Las ondas reflejadas interfieren con las ondas incidentes formándose franjas, llamadas nodos, donde la superficie ni sube ni baja. Se dice entonces que están en oposición de fase. La superficie se queda quieta, en equilibrio, porque las moléculas de agua en dicha franja sufren dos impulsos idénticos pero en sentido contrario. Decimos entonces que un hoyo, o valle, de una de las ondas coincide con la cima, o cresta, de otra onda. Esto equivale a decir que en esos puntos, si se tratara de ondas lumínicas, tendríamos luz + luz = obscuridad, algo que jamás ha conseguido explicar la teoría corpuscular. Vemos también que aunque las ondas se propagan hasta alcanzar las paredes y rebotar, sin embargo el corcho ha permanecido inmóvil, efectuando oscilaciones sin desplazarse en sentido horizontal, esto es, a lo largo de la superficie. Lo que vemos propagarse son únicamente las ondas. Las ondas, pues, no transmiten materia sino energía e información. La información es energía modulada, en forma de ondas acústicas o electromagnéticas, como ocurre en las ondas que emanan del gong y en las emisiones de radio y televisión. El profesor D. Papp, en la obra ya citada, nos cuenta una anécdota que debió de producirse en el momento culminante del debate entre corpúsculos y ondas. Fue con motivo de presentar Augustin Fresnel su teoría en la Academia Francesa. El astrónomo y matemático Poisson, admirador de las ideas de Newton y opuesto a la teoría ondulatoria, propuso un experimento crucial que decidiría sobre la veracidad de la teoría ondulatoria, tal como A. Fresnel la presentaba: Un disco muy pequeño, iluminado por un rayo, debería producir sobre una pantalla una sombra cuyo centro se iluminaría. Merced a la difracción, justamente en el centro de la sombra, debería encontrarse un punto luminoso. Ante el asombro de Poisson y sus amigos, el experimento montado por François Aragò arrojó el resultado previsto por Poisson. A partir de este momento la victoria de la teoría ondulatoria parecía definitivamente asegurada En la segunda mitad del siglo XIX, James Clark Maxwell, como sabemos, unificó en unas mismas ecuaciones, los procesos eléctricos, magnéticos y ópticos, lo que contribuyó aún más al triunfo de las ondas. El andamiaje estructural de los campos eléctricos y magnéticos tenía como finalidad tender un puente entre las cargas para las que ya no era posible la acción a distancia, hasta tal punto que el auténtico proceso electromagnético residía en el mismo puente tendido, esto es, en el éter y no en las cargas puntuales, concebidas ahora como las terminales de las líneas de fuerza del campo de Faraday. Así estaban las cosas en los albores del siglo XX, cuando la explicación del efecto fotoeléctrico, expuesta por Einstein en 1905, constituyó, en cierto modo, un brusco retorno a los corpúsculos newtonianos. La luz estaría constituida por partículas discretas, los quanta de luz, como los llamó Einstein, hoy fotones, confirmados más tarde por el efecto Compton. Si la luz está formada por pequeñas y discretas partículas de energía, ¿cómo es que definimos su poder energético como el producto de la constante de Planck por la frecuencia? La frecuencia y su recíproco, el período, son propiedades de las ondas, no de los corpúsculos. Nadie define el poder energético de una perdigonada aludiendo a su
36
frecuencia o longitud de onda. Si la luz puede aparecer en unos procesos como partícula y en otros como onda, se preguntó Louis de Broglie, ¿no podría suceder lo mismo con la materia? Así fue cómo este físico dio los primeros pasos para la construcción de una mecánica ondulatoria que llevaría a feliz término Erwin Schrödinger con su famosa ecuación, según se ha relatado en un capítulo anterior. Caminando en esta dirección nos encontramos con la propia materia disuelta en ondas de materia y ante un universo que constaría de ondas y nada más que de ondas. Llegamos, así, a un momento álgido de interminables discusiones sobre las múltiples interpretaciones en torno a la relación entre partículas y ondas. Louis de Broglie propuso, en un principio, su teoría de la onda-piloto en la que ambos conceptos parecían gozar del mismo derecho de ciudadanía. El punto representa una singularidad en la onda. La onda porta y guía la partícula comme un vague entraînerait un bouchon. En Schrödinger se rompe el equilibrio a favor de las ondas. Las partículas, y con ellas toda la materia, se disuelve en ondas y nada más que en ondas. Las partículas pasan a ser paquetes de ondas. Para la escuela de Göttingen, M. Born, W. Heisenberg y otros, priman las partículas. Las ondas pierden su materialidad física y se convierten en ondas de probabilidad que regulan estadísticamente la distribución de las partículas en un espacio dado. En una palabra, en esta concepción sólo existen partículas siendo las ondas exclusivamente una modalidad o comportamiento de las mismas. ENUNCIADO DEL PRINCIPIO DE COMPLEMENTARIEDAD. En este momento de confusión formuló N. Bohr su famoso principio de complementariedad: la imagen de ondas y la imagen de corpúsculos no son contradictorias; más que opuestas, diríase que son complementarias. En realidad no tiene sentido preguntarse si realmente son ondas o partículas. Lo que en verdad observamos en los procesos cuánticos es que la luz, los electrones y otras partículas, se comportan unas veces como si consistieran en ondas; otras, como si consistieran en corpúsculos. Lo esencial, para evitar la contradicción, es que en ningún experimento nos veamos obligados a emplear simultáneamente ambas imágenes. Ambas representaciones se completan mutuamente, enriqueciendo nuestra comprensión de los procesos cuánticos. Louis de Broglie expresó con donaire la no simultaneidad de ambos conceptos aludiendo a la imagen del duelo: Las propiedades de ondas y corpúsculos nunca entran en conflicto porque jamás concurren simultáneamente. Estamos siempre al acecho de que se produzca un duelo entre ambas, pero éste nunca tiene lugar. En cada intento sólo uno de los rivales se presenta. W. Heisenberg , en referencia a N. Bohr, enuncia así este principio: En el centro de sus reflexiones, se erigía el concepto de complementariedad, recientemente acuñado por él, y que debe describir una situación en la cual podemos aprehender un mismo suceso desde diferentes puntos de vista. Ambos puntos de vista se excluyen mutuamente, no obstante se complementan mutuamente, y es precisamente por la conjunción de ambos puntos de vista por lo que logramos captar, de un modo exhaustivo, el concepto intuible de los fenómenos.
37
De la obra Der Teil und das Ganze. Esta es la mejor y más breve descripción que he encontrado del famoso principio. El amable lector tal vez desearía escuchar el mismo principio de boca de su autor, Niels Bohr. Desgraciadamente el estilo de este eminente físico es algo confuso, excesivamente matizado. En su momento renuncié a reproducir el principio de correspondencia por su expresión poco comprensible, mas no quisiera dejar de reproducir sus propias palabras en las que se alude al principio de complementariedad: De la misma manera que el principio de la relatividad nos ha enseñado que la conveniencia de hacer una clara distinción entre el espacio y el tiempo, impuesta por nuestros sentidos, se apoya únicamente en el hecho de que las velocidades relativas habituales son muy pequeñas comparadas con la velocidad de la luz, del mismo modo la teoría cuántica nos enseña que nuestro modo de intuición, a la vez causal y espaciotemporal, está bien adaptado a su fin, eso no se debe más que al pequeño valor del cuanto de acción comparado con las acciones que intervienen en nuestras percepciones ordinarias. En realidad, para tener en cuenta el postulado cuántico en la descripción de los fenómenos cuánticos, debemos desarrollar una “teoría de la complementariedad” cuya consistencia sólo puede ser juzgada confrontando las posibilidades de definición y las posibilidades de observación. Esta concepción se impone ya con claridad en la controvertida cuestión de la naturaleza de la luz y de las partículas materiales elementales. Por lo que se refiere a la luz, su propagación en el espacio y en el tiempo queda descrita satisfactoriamente por la teoría electromagnética. En particular, el principio de superposición de la teoría ondulatoria da cuenta, sin excepción, de los fenómenos de interferencia en el vacío y de las propiedades ópticas de la materia. Sin embargo, para llegar a una expresión exacta de la conservación de la energía y de la cantidad de movimiento en la interacción entre la materia y la radiación, tal como se evidencia en el efecto fotoeléctrico y en el efecto Compton, es preciso recurrir a la idea de fotón desarrollada por Einstein… Naturalmente, no se trata de aplicar de manera por completo independiente ya sea la descripción espacio-temporal, ya sea la idea de causalidad, sino que, muy al contrario, estos dos puntos de vista de la naturaleza de la luz constituyen dos tentativas diferentes de interpretación de la evidencia experimental en la que la limitación de los conceptos clásicos se expresa en términos complementarios Se llega a conclusiones análogas al estudiar las propiedades de las partículas materiales…. De la obra La Teoría Atómica y la Descripción de la Naturaleza. El principio de complementariedad parece un principio de concordia. Nada se excluye excepto las idealizaciones extremas de partícula pura u onda pura. Éstos son conceptoslímite, metas de abstracciones puras a las que no corresponde correlato alguno en lo real. La realidad es mucho más compleja y flexible, más pletórica de matices y harmónica que nuestras puras abstracciones. Parece natural que un tal principio de concordia, que nada excluye excepto los exclusivismos, sólo podría emanar de la mentalidad de un físico, de cuya serenidad, ecuanimidad y benevolencia se hicieron eco cuantos, viejos o jóvenes, le trataron. LA DUALIDAD ONDA-CORPÚSCULO EN LOS FÍSICOS CONTEMPORÁNEOS.
38
Pero ¿qué dicen los físicos contemporáneos sobre estos misteriosos objetos cuánticos, llamados por algunos cuantones? Oigamos a Richard Feynman, físico teórico y uno de los creadores de la electro-dinámica cuántica: La mecánica cuántica es la descripción del comportamiento de la materia y de la luz en todos sus detalles y, en particular, de todo lo que ocurre en la escala atómica. A escala muy pequeña, los objetos no se comportan en modo alguno como lo hacen las cosas de las que tenemos experiencia directa. No se comportan como ondas, no se comportan como partículas, no se comportan como nubes, ni como bolas de billar, ni como pesos que penden de cuerdas, ni como nada que jamás hayáis visto. Y en cuanto a la dualidad de ondas y partículas: Newton pensaba que la luz se componía de partículas, pero se descubrió más tarde que se comportaba como onda. Posteriormente, al principio del siglo XX, se halló que la luz se comportaba algunas veces como partícula. Históricamente se supuso que el electrón se conducía como una partícula, después se encontró que se comportaba, en ocasiones, como onda. En realidad no se conduce ni como una cosa, ni como la otra. Actualmente hemos abandonado este dilema y decimos: No es ni lo uno, ni lo otro. Traducido de la obra: Le Monde Quantique. COMPARACIÓN DE INDETERMINACIÓN,
AMBOS
PRINCIPIOS:
COMPLEMENTARIEDAD
E
Ya desde el principio hubo cierta discusión entre N. Bohr y W. Heisenberg sobre la primacía de ambos principios. El primero consideraba que el principio de indeterminación es sólo un caso particular del principio de complementariedad. Oskar Klein, físico que se encontraba entonces en Copenhague, intervino en la discusión para convencerles de que no existía diferencia esencial entre ambos. Creo que fue W. Pauli quien propuso que la mecánica cuántica recibiera el nombre de Física de la complementariedad, del mismo modo que, en otro orden de ideas, decimos Física de la relatividad. Veamos este texto de Max Born donde se alude al principio de complementariedad como la clave para la comprensión de los procesos cuánticos: ... Para medir coordenadas espaciales y tiempos hacen falta reglas rígidas y relojes. Por el contrario, para medir impulsos y energías se necesitan dispositivos con partes móviles que reciban y acusen el impacto del objeto a medir. Si se tiene en cuenta que la mecánica cuántica es la responsable de la interacción entre el objeto y el aparato, se comprende que no puede existir ningún dispositivo que satisfaga al mismo tiempo ambas condiciones. Por tanto, existen experimentos que se excluyen mutuamente, pero que se complementan entre sí, y que considerados en conjunto nos proporcionan toda la información que puede obtenerse de un objeto. Esta idea de la complementariedad se considera generalmente como la clave para comprender claramente los procesos cuánticos. Texto entresacado de la conferencia: La Interpretación Estadística de la Mecánica Cuántica, pronunciada con motivo de la recepción del premio Nobel. La marcación en negritas es del autor de este ensayo. Pascual Jordan afirma categórica y laudatoriamente:
39
Hay que considerar este concepto de la complementariedad como el resultado filosóficamente más importante surgido de la actual física cuántica. Estamos delante de una nueva forma de pensar científico-natural, radicalmente diferente de la forma de pensar clásica con sus imágenes objetivas de los fenómenos. Y parece justificada la creencia de que esta manera nueva de pensar, una vez que haya logrado dominar mentalmente los fenómenos de la física cuántica, totalmente inaccesible a la manera antigua, habrá de revestir también en otros dominios de la ciencia de la naturaleza una significación de las que hacen época. Entresacado de la obra La Física del Siglo XX. Me temo que los resultados al día de hoy no se han correspondido con tan altas esperanzas y optimistas augurios. No todos los físicos de la época se mostraron tan entusiasmados con el concepto de complementariedad. En Einstein, por ejemplo, la reacción fue más bien fría. Fue E. Schrödinger quien mostró, de una manera bastante poco delicada, su rechazo al mencionado principio: La complementariedad, dijo, es un slogan falto de sentido. Si no estuviera completamente convencido de que [Bohr] es honesto y que cree realmente en la relevancia de esta resonante palabra, que no teoría, yo debería calificarla de intelectualmente perversa (intellectually wicked). Citado por su biógrafo Walter Moore. Hace poco apareció en Investigación y Ciencia un artículo titulado, La Dualidad en la Materia y en la Luz, por Berthold-Georg Englert, Marlan O. Scully y Herbert Walther, tres expertos en óptica cuántica. En él se afirma, y luego se desarrolla con adecuados experimentos, este anunciado: Recientemente, nos hemos esforzado, nosotros y otros colegas, en mostrar que la incertidumbre no es el único factor por el que la complementariedad se impone. Hemos concebido y analizado experimentos reales y mentales que escapan a la relación de incertidumbre, para “engañar” a los objetos cuánticos bajo estudio. Sin embargo, los resultados descubren que la naturaleza siempre se pone a sí misma a salvo de estas intromisiones: la complementariedad permanece intacta, aun cuando la relación de incertidumbre no desempeñe ningún papel. Nuestra conclusión es que la complementariedad es algo más profundo de lo que se apreciaba; posee un carácter más general y fundamental en la mecánica cuántica que el principio de incertidumbre. Artículo publicado en la revista”Investigación y Ciencia”, Febrero de 1.995 Aparte de experimentos, mentales o reales, es lógico que así pudiera ser. En efecto, el principio de complementariedad es de orden cualitativo. Los aspectos cualitativos suelen ser más generales que los aspectos cuantitativos, esto es, suelen poseer un ámbito de aplicación más amplio. Así vemos que la lógica aristotélica de clases, o su equivalente moderno, la teoría de los conjuntos, tiene un mayor ámbito de aplicación que otras ramas de las matemáticas. Lo mismo sucede con la topología en relación con la geometría métrica.
40
PREEMINENCIA DEL PRINCIPIO DE INDETERMINACIÓN. Sin embargo, la importancia del principio de indeterminación es indiscutible. En un momento de cierta confusión, motivado por la copiosa floración de las partículas elementales en la década de los años sesenta, antes de la consolidación del modelo standard de las partículas fundamentales, Igor E. Tamm, físico ruso, premio Nobel de física en 1958, escribió las siguientes líneas en la Revue Polytechnique de Ginebra en 1965, en las que se alude precisamente a la importancia del mencionado principio, y no al de complementariedad, al tiempo que nos ofrece un nuevo enunciado del principio de Heisenberg, y nos aclara ciertas diferencias entre la mecánica cuántica convencional (Schrödinger) y la mecánica cuántica relativista (Dirac). Alude, de pasada, al problema de la renormalización. Como dijimos, esto fue escrito en una época de gran confusión, muy decisiva, en la que se estaba fraguando la teoría cromodinámica. Destaco en negrita la referencia al principio de indeterminación: Desde hace algún tiempo, los físicos están cada vez más convencidos de que nos encontramos en vísperas de una revolución fundamental en el dominio de la teoría, que nos conducirá a una revisión de los conceptos e ideas, de tanta trascendencia como la llevada a cabo por la teoría de la relatividad y la teoría de los “quanta”. Esta convicción se basa en el hecho siguiente: la teoría cuántica relativista es manifiestamente insuficiente. Se distingue netamente de la teoría cuántica no relativista en que ésta se ocupa de velocidades y energías poco elevadas. La teoría cuántica no relativista es absolutamente clara, lógica y perfectamente puesta a punto; en su dominio de aplicación es tan intangible como la teoría de Newton para los fenómenos macroscópicos en los que no aparecen grandes velocidades. Pero si tratamos con altas energías o con masas muy pequeñas, la teoría actual no es satisfactoria y se muestra ilógica. Daré un ejemplo. Cuando se calcula, de acuerdo con la teoría cuántica relativista, cualquier magnitud concreta, tal como la longitud de onda de una radiación o la masa de una partícula, se obtiene el infinito, esto es, el absurdo. Es cierto que se puede recurrir a una receta muy ingeniosa, que consiste en restar de un número infinito otro número infinito, de modo tal que la diferencia obtenida concuerde exactamente con la experiencia. Efectivamente, casi siempre se llega a una concordancia casi perfecta con las medidas. Mas, por una parte, este método no es universal: en ciertos casos no es aplicable. Por otra parte, sucede que se introducen en la teoría magnitudes que, en principio, no han sido observadas, disponiéndolo todo de tal manera que éstas últimas no aparezcan en el resultado final. Es absolutamente indispensable elaborar una nueva teoría que palíe estas insuficiencias. Diversos hechos hacen creer a la mayoría de los físicos, entre los que me cuento, que en el desarrollo de la nueva fase de la teoría de los quanta, el principio de indeterminación desempeñará un papel esencial. La mecánica cuántica actual descansa sobre el principio de indeterminación entre la coordenada y el impulso de una partícula, esto es, en la conversión de su masa en velocidad. Con frecuencia esta ley se formula así: en principio se debería poder medir por separado las coordenadas y el impulso, o momento cinético, de una partícula con la precisión deseada; sin embargo, la partícula se substrae a esta investigación precisamente por causa del carácter indeterminista de estas dos magnitudes. En consecuencia, el problema no reside en el alcance limitado de nuestros conocimientos, sino en el hecho de que nuestros conceptos clásicos −los conceptos de partícula y onda− son demasiado estrechos y en que la partícula elemental posee un contenido mucho más rico. No existe objeto clásico dotado a la vez de las propiedades de la partícula y de la onda, mas la partícula elemental posee ambas
41
clases de propiedades. Es, pues, natural que nuestros conceptos habituales no le sean aplicables. Texto traducido del mencionado artículo. En nuestros días vemos cómo el principio de indeterminación juega un papel esencial en las prometedoras, mas inacabadas, teorías de la gravedad cuántica y de los campos unificados. COMPLEMENTARIEDAD: UN PRINCIPIO QUE VALE CASI PARA TODO. Werner Heisenberg nos refiere el relato de un breve crucero en el yate Chita de Niels Bohr, desde Copenhague a Svendborg en la isla Fyn, donde debería ser reparado en la temporada invernal. Varios científicos viajaban con ellos. Como era habitual, el tema de conversación terminaba siempre girando en torno a la teoría cuántica. Esta vez se habló principalmente del concepto de complementariedad aplicado a cuestiones biológicas. Veamos este extracto, que venía precedido de una charla acerca de las diferencias en los procesos de las reparaciones en las embarcaciones y de la curación de las ballenas malheridas. El cirujano Chievitz adelantó esta objeción a una reflexión de N. Bohr: El médico no tiene por qué preocuparse de dar una respuesta a esa pregunta. Presupone que en el organismo existe la tendencia a restablecer las relaciones normales cuando éstas han sido perturbadas y cuando se da al organismo la posibilidad de tal recuperación; el médico está al mismo tiempo convencido de que los procesos transcurren causalmente, es decir, que, por ejemplo, tras una intervención mecánica o química, se producen los mismos efectos que debían producirse según la física y la química. El hecho de que estas dos formas de pensar no se acoplen harmónicamente, no tiene por qué inquietar a la mayoría de los médicos. Bohr: Este es precisamente el caso típico de dos formas de pensar complementarias. Podemos hablar sobre el organismo con los conceptos que se han ido formando a lo largo de la historia humana a partir del contacto con los seres vivos. En este caso, hablamos de lo “vivo”, de la “función de un órgano”, del metabolismo, de la respiración, del proceso de curación, etc. Pero podemos también plantear la cuestión desde el punto de vista del proceso causativo. En este segundo caso, utilizamos el lenguaje físico-químico, estudiamos los procesos químicos o los eléctricos, por ejemplo, en materia de nervios, y gracias a ello concluimos, con notable éxito manifiesto, que las leyes físico-químicas o, más en general, las leyes de la teoría cuántica, tienen vigencia ilimitada en el organismo. Ambos modos de pensar se contradicen entre sí, porque en el primer caso presuponemos que el acontecer está determinado por el objetivo al que sirve, por el fin al cual está dirigido; en el segundo creemos que el hecho está fijado por el hecho inmediatamente precedente. Que ambas aproximaciones den al azar el mismo resultado, parece, sin embargo, extremadamente inverosímil. Sin embargo, ambas formas de pensar se complementan mutuamente, pues en realidad sabemos desde hace tiempo que las dos son correctas, precisamente porque hay vida. La cuestión que se plantea para la biología no es, por tanto, cuál de los dos puntos de vista es el más auténtico, sino tan sólo cómo ha logrado la naturaleza el acoplamiento de ambos.
42
Texto traducido de la obra: Der Teil und das Ganze, en uno de cuyos capítulos aparecen otros variados textos, considerando la finalidad y la causalidad como aspectos complementarios en los ámbitos −biológico y social− humanos. El trasfondo de este ejemplo de complementariedad es el famoso paralelismo psicofísico, esto es, dos series causales de acontecimientos, mentales unos, físicos los otros, que discurren independientemente la una de la otra, y que recuerdan los relojes leibnizianos sabiamente acordados por la mano del Creador y Gran Arquitecto del universo. No es probable que Niels Bohr se hubiera inspirado en este paralelismo de corte cartesiano para establecer el principio de complementariedad. Tanto Niels Bohr, como Werner Heisenberg, en especial el primero, extendió la aplicación del mencionado principio a los ámbitos de orden psíquico, biológico, e incluso a problemas ético-filosóficos, animados por un moderado celo evangelista pero con bastante menos fortuna que en sus teorías puramente científicas. En efecto, los principios, por muy fecundos que sean, sacados de su entorno natural, esto es, del dominio estricto que les es propio y donde asientan sus raíces en terreno abonado, pierden vigor y languidecen. Caso análogo tenemos en la famosa trilogía hegeliana de la tesis, antítesis y síntesis. Se quiso ver en ella la clave de numerosos procesos históricoculturales y se consiguió, pero a base de violentar artificiosamente los mismos hechos que se querían explicar. No están lejos los años en que se pretendía explicar casi todo, la historia, la sociedad, la economía y la evolución en general, a base de los artículos de fe del credo marxista −determinismo, materialismo histórico y lucha de clases– explosiva combinación de materialismo y darwinismo, elevados, a imitación de las antiguas religiones, a la categoría de dogmas infalibles. En general, los principios que pretenden explicarlo todo, como muy acertadamente decía Karl Popper, terminan no explicando nada. He de reconocer, sin embargo, que la extensión del principio de complementariedad a otros campos por los físicos cuánticos fue siempre, más que un intento serio, un esbozo tentativo, sin mezcla alguna de fanatismo. Si esta crítica del principio de complementariedad pudiera parecer irrespetuosa para con Niels Bohr y su escuela, he de observar que después de escritas estas líneas, he encontrado otras opiniones aún más duras, como la siguiente: Habiendo triunfado dentro de su profesión, los partidarios de la escuela de Copenhague iniciaron un movimiento para tratar de aplicar su doctrina en otros campos. Sin embargo, cuando proclamaron su doctrina e intentaron aplicarla a campos distintos de su disciplina, pretendieron darle un alcance que desbordaba su significado actual dentro de los confines de la física cuántica. Bohr, por ejemplo, utilizó su contribución a la edición del “Die Naturwissenschaften” de 1929, en honor de Planck, para informar a los filósofos de la nueva doctrina. Procedió luego, a principio de 1930, a aplicar la complementariedad prácticamente a todo: biología, derecho, ética, religión, incluso a la vida misma. Algunos físicos cuánticos empezaron a aderezar la doctrina de Copenhague para ser servida en filosofías vitalístas, neoromáticas e incluso místicas. Sus intentos anticientíficos y antirracionalístas continúan hasta el día de hoy.
43
Extractado de la obra: Uncertainty. The Life and Science of Werner Heisenberg, de David C. Cassidy, edición de 1992. La crítica es, ciertamente, durísima, por no decir “exagerada”. La segunda crítica al principio de complementariedad de Niels Bohr es que tal principio no debería estar asociado a su nombre sino, tal vez con mayor razón, al de Louis de Broglie, cuya teoría, inspiración e inicio de la mecánica ondulatoria, conjugaba paritariamente los dos aspectos, ondulatorio y corpuscular, de la materia, mientras que, por una parte, Niels Bohr, Werner Heisenberg y Max Born acentuaban, con preferencia, la discontinuidad de las partículas y, por otra, Erwin Schrödinger daba la preeminencia a la continuidad de las ondas, como vimos en un vivo diálogo entre ambos, propiciado por W. Heisenberg. No obstante, es de justicia admitir que el físico danés fue quien, ejerciendo de árbitro muy autorizado, formuló expresamente el principio de complementariedad. A continuación vamos a ver la aplicación de la cuántica a la biología en una línea que yo calificaría de moderada. BIOLOGÏA Y CUANTICA. Sabemos que el científico danés se preocupó por las relaciones entre cuántica y la biología, como puede verse en la obra Física Atómica y conocimiento Humano, preocupación que se dejó más ampliamente sentir en el físico cuántico Ernst Pascual Jordan. La verdad es que ciertos procesos biológicos parecen desarrollarse a niveles muy próximos al dominio propio de la cuántica por la exigua cantidad de moléculas y átomos que intervienen, como sería el caso de ciertos procesos genéticos y del sistema nervioso, en especial el sentido de la vista y la interrelación de las funciones cerebrales en los animales más desarrollados. En nuestros días, el conocido físico Penrose está intentando una teoría que explicaría el hecho de la conciencia humana, no menos sorprendente que cualquier otro hecho físico, a base de la física cuántica, en contraposición a la actitud del prestigioso biólogo, Francis Crick, behaviourista en estado puro, conceptualmente prisionero del mecanicismo materialista de la física clásica, quien cree que el mecanismo buscado tendría lugar en un entorno sumamente complejo de neuronas y neurotransmisores, cuyo número en nuestro cerebro sería del mismo orden de magnitud que el de las estrellas en nuestra galaxia. El futuro nos dirá quién tiene razón, si es que se llegara alguna vez a la solución del problema. Como ejemplo de la extensión del principio de la complementariedad a los hechos biológicos, veamos este texto de P. Jordan. Primero alude al Hombre-Máquina de La Mettrie, sometido al riguroso determinismo laplaciano. Merece que dediquemos atención especial a este hecho por lo que se refiere a los organismos vivos. Según la imagen trazada por Dubois-Reymond, era imposible pensar que la rigurosa predicción causal de todos los movimientos atómicos pudiera sufrir una excepción, por ejemplo, en el cerebro del hombre; la consecuencia inexorable era reconocer que el hombre venía a ser un autómata complicado. El áspero y rudo contraste de esta tesis de “L´Homme Machine” con el mundo religioso de las ideas y
44
sentimientos fue desarrollado por los representantes pugnaces del materialismo con especial alborozo. A continuación nos va desvelando las diferencias entre la estructura de la materia inanimada y los organismos: Pero ya sabemos que no es posible hablar de una causalidad que predice con exactitud excepto en los dominios de la macrofísica y tenemos que pensar si también los organismos vivos pertenecen, en este sentido, a la macrofísica. Cierto que todo organismo vivo, aún el más diminuto, constituye una formación enorme si la comparamos con un átomo y, sin embargo, en modo alguno podríamos designarlo, sin más, como una formación macrofísica. Porque la índole de un cuerpo inorgánico consiste en que contiene innumerables átomos del mismo género y sometidos a condiciones externas similares; a través de esa circunstancia, y sólo de ella, se puede hacer valer la causalidad estricta en el destino de los cuerpos macrofísicos, como resultado total de las leyes estadísticas que valen para cada átomo singular. Pero en los cuerpos vivos la situación es muy diferente, porque todas las partes del organismo vivo muestran estructuras finas y extremadamente complicadas. La invención del microscopio nos permitió ver por primera vez todo el cúmulo de tan complejas estructuras; pero estas estructuras se prolongan, sin duda, más allá de las fronteras de la visibilidad microscópica, al menos en parte, hasta las dimensiones “coloidales” y moleculares. A este tenor, las cantidades de materia que colaboran en ciertas reacciones fisiológicas finísimas pero, por eso mismo, decisivas, implican con frecuencia, a lo que perece, muy pocas moléculas. Finalmente, en los organismos se dan procesos pilotados por un reducidísimo número de moléculas que los aproximan a los procesos cuánticos discontinuos: Las más primitivas experiencias fisiológicas nos enseñan que las reacciones con grandes gastos de energía y substancia química son “pilotadas” por otros procesos de índole mucho más delicada. Piénsese que, tratándose de animales superiores (vertebrados, artrópodos), los movimientos musculares están regulados por el sistema nervioso, es decir, por procesos muchos más finos, que se desarrollan en el cerebro y en los demás centros nerviosos. Parece, pues, justificada la sospecha de que en la vida orgánica se presentan, en formas muy variadas, circunstancias semejantes y nos asisten razones para creer que las reacciones últimas de “pilotaje” son de una finura precisamente microfísica. Así, por ejemplo, se sabe que la sensibilidad luminosa del ojo desciende hasta unos pocos “quanta” de luz. Y la genética, que nos presenta a los organismos individuales como mosaicos compuestos de sus factores hereditarios, ofrece como su ley más general una discontinuidad elemental en la variación de dichos factores. Parece, pues, que también aquí desembocamos en las discontinuidades atómicas y cuánticas del acaecer elemental. En consecuencia, estas reflexiones nos impiden considerar los seres vivos como simples máquinas, por muy complejas que éstas fueren: Pero si resulta justificada la conjetura de que las reacciones directoras del organismo ofrecen la finura de los procesos atómicos, en ese caso nuestro saber actual nos autoriza a pensar que el organismo es algo muy diferente de una máquina y que sus reacciones vivas contienen un elemento de incalculabilidad e imprevisibilidad
45
fundamentales. Se podría objetar que no se gana mucho para nuestra comprensión fundamental de los fenómenos citados substituyendo la imagen de la máquina, como esquema del organismo, con la imagen de un cubilete de dados que funciona estadísticamente. Pero lo que nos interesa, por el momento, es subrayar, en un sentido negativo, que la teoría del organismo como máquina (incluidas todas sus consecuencias como, por ejemplo, la negación del libre albedrío) resulta bastante difícil de comprender a base de la física actual. Bohr, que ha expresado resueltamente su convicción de la significación fundamental que a la nueva física corresponde por lo que atañe a los problemas de la biología, ve la diferencia entre física cuántica y biología en el hecho de que, en la primera, estudiamos el comportamiento estadístico de cada átomo en condiciones bien definidas, mientras que no sería posible definir los estados internos del organismo vivo con patrones atómicos, de suerte que en este campo la observación toparía con límites todavía más estrechos que en la física atómica. Y concluye P. Jordan: El nuevo concepto de la “complementariedad”, que, gracias a la física cuántica, se nos ha presentado como una nueva forma de pensamiento científico-natural, había de ser también, según Bohr, con independencia de todo saber físico-atómico, de significación fundamental para el estudio de los procesos vivos. De la obra La Física del Siglo XX. Ignoro si David C. Cassidy también calificaría este texto de P. Jordan de irracional, romántico o, tal vez, místico. De pasada observemos la similitud entre incalculabilidad e imprevisibilidad de las reacciones biológicas, de las que nos habla P. Jordan, y el concepto de creación continua de novedad inherente a la vida, y extensible al cosmos, de la filosofía bergsoniana. La polémica entre ciertos biólogos y físicos aparece reseñada, con gracia y humor, por Bertrand Russell en un el artículo sobre Mente y Materia: Platón, y con más fuerza la religión, ha llevado a la humanidad a aceptar la división del mundo conocido en dos categorías: mente y materia. Tanto los físicos, como los psicólogos, encuentran muy dudoso esta dicotomía. Parece que la materia, como el gato de Cheshire, se está haciendo cada vez más diáfana hasta el punto de sólo mostrar su sonrisa burlona, como si le divirtiera que pensáramos que todavía está ahí. La mente, por otra parte, por influencia de la cirugía cerebral y las oportunidades que la guerra ofrece al estudio de los efectos de las balas incrustadas en el tejido cerebral, parece cada vez más como un mero sub-producto de ciertos procesos fisiológicos... De lo que resulta una situación curiosamente paradoxal, que recuerda el duelo entre Hamlet y Laertes, en el que los investigadores físicos se han convertido en idealistas, mientras los psicólogos están al borde mismo del materialismo. Traducido del ensayo Portaits from Memory and Other Essays.
46
CAPÍTULO X EL DETERMINISMO FÍSICO Y EL PRINCIPIO DE CAUSALIDAD.
Sumario: Qué se entiende por determinismo físico. Textos de Laplace y Poincaré. Críticas de B. Russell al principio de causalidad. Ecuaciones diferenciales y determinismo. Precisiones de Einstein y Poincaré sobre las ecuaciones diferenciales. Del determinismo mecanicista al determinismo morfológico. El principio leibniziano de razón suficiente. El error de Hume y la categoría kantiana de la causalidad. La opinión de Einstein sobre la causalidad en la nueva física. La posición moderada de Max Planck.
EL DETERMINISMO FÍSICO SEGÚN LAPLACE Y POINCARÉ. W. Heisenberg, en el mismo documento en que daba a conocer el principio de indeterminación, adelantaba ciertas consecuencias que, excediendo del dominio estrictamente científico, se adentraban en el ámbito filosófico, concretamente en la llamada epistemología, que versa sobre la validez de los criterios del conocimiento. Estas fueron sus palabras: En la estricta formulación de la ley causal –si conocemos el presente, podremos calcular el futuro− no es la conclusión sino la premisa la que es falsa. Veremos más tarde que ésta no es la formulación exacta de la ley causal, pero antes de analizar este texto como se merece en el capítulo siguiente, el amable lector me acompañará en un recorrido histórico, donde veremos variadas opiniones sobre el determinismo físico y el principio de causalidad. El principio de indeterminación, al prohibir la medida simultánea y exacta de la posición y velocidad de las partículas, que forman el universo, impide al Genio de Laplace calcular y prever el desarrollo del cosmos. Pierre Simon, Marquis de Laplace, célebre matemático y astrónomo francés entre los XVIII y XIX, expresó en unos famosos textos, admirables por su concisión y elegancia, el concepto del determinismo físico, tal como se deducía del modelo mecanicista, inaugurado por la física del siglo XVII y avalado por eminentes físicos como Galileo, Newton y Huyghens. Veamos el texto tal vez más famoso, y con mayor frecuencia repetido, acerca del determinismo físico: Debemos considerar el estado actual del universo como el efecto de su estado anterior y como la causa del estado que le seguirá. Una inteligencia que, en un instante dado, conociera todas las fuerzas que animan la naturaleza, y la posición respectiva de los seres que la componen; si, además, poseyera una mente tan potente que pudiera someter estos datos al Análisis, encerraría en la misma fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más liviano; nada sería incierto para ella: el futuro, como el pasado, estaría presente ante sus ojos. El espíritu humano ofrece, en la perfección que ha sabido dar a la astronomía, un pálido reflejo de esta inteligencia… Todos estos esfuerzos en la investigación de la
47
verdad tienden a aproximarse sin límite a la inteligencia que acabamos de imaginar. Pertenece a L’Introduction à la Théorie Analytique des Probabilités, de Laplace. Puede verse el texto en francés, citado por H. Bergson, en L’Évolution Créatrice; el mismo texto en inglés, algo más ampliado, en el ensayo New Pathways in Science de Arthur Eddington y en numerosas otras obras de fácil acceso. Cuando se dice: “someter al Análisis”, entiéndese por tal el Análisis Matemático o Cálculo Diferencial. Quisiera destacar el último párrafo: Todos los esfuerzos en la búsqueda de la verdad tienden a aproximarse sin límite a la inteligencia que acabamos de imaginar. Esto, viniendo de Laplace, nos recuerda el coeficiente diferencial que se aproxima indefinidamente a la derivada, o la sumación de los productos diferenciales que, en el límite, nos da la integral de superficies regulares y volúmenes de sólidos de revolución. Laplace no nos dice expresamente si se da ese paso al límite, en que la inteligencia humana, al menos colectivamente y en el límite, se equipararía a la Suprema Inteligencia, si bien implícitamente parece admitirlo al hablar de una aproximación sin límite a la inteligencia, por él imaginada y que otros, físicos y filósofos, identificaron con el Supremo Diseñador, Gran Matemático y Arquitecto del universo, en el marco de la tradición, o tal vez simple reminiscencia, judeo-cristiana. ¿Qué diferencia existe entre el principio de causalidad y el determinismo? En el fondo, tal vez no mucha, mas no así en la forma. El determinismo, término preferido por los físicos, es, en mi opinión, una forma más refinada de expresar el encadenamiento del principio de causalidad. Cuando tratamos de hallar la razón de un fenómeno particular, hablamos de la causa del mismo, es decir, de algo que nos explique su aparición; mas cuando los físicos nos hablan de la evolución del universo, a veces en términos grandilocuentes y filosóficos, como solían hacerlo, por ejemplo, ciertos físicos del siglo XIX con motivo de la exposición de la muerte térmica del universo, entonces se prefiere emplear el término más genérico de determinismo. Según este principio físico, el estado del universo en un momento dado depende del estado del universo inmediatamente anterior, y así indefinidamente. La definición lleva implícita la continuidad del tiempo, que exigen las ecuaciones diferenciales en que se expresa. Otra nota característica del determinismo, no aplicable a la noción clásica de causa-efecto, es la de reversibilidad, esto es, que los procesos físicos podrían, en principio, evolucionar hacia delante o hacia atrás, como cuando se invierte el sentido de la marcha de un vídeo, aunque aquí nos topamos con el principio de la entropía global, siempre creciente conforme el tiempo avanza que, al menos en el dominio macrofísico, impediría la reversibilidad absoluta temporal de los procesos. La reversibilidad parece implicar cierta simetría profunda entre la dimensión del tiempo y las dimensiones espaciales, lo cual, si bien es una ficción matemática útil, sobre todo en la teoría de la relatividad, encuentra fuerte oposición entre destacados filósofos −Henri Bergson, por ejemplo− y el sentido íntimo mediante el cual sentimos fluir nuestras propias vivencias con la flecha del tiempo, como suele decirse, apuntando hacia el futuro. En esto, el sentido íntimo y el principio físico de la entropía parecen estar acordes. En la vida ordinaria, las causas generalmente son efectos de causas anteriores; las fuerzas y movimientos, efectos de fuerzas y movimientos anteriores. El universo no es una totalidad apiñada de cosas inertes, sino un conjunto de series de procesos que continua e incesantemente se transforman unos en otros. Todo ello representa una
48
madeja inextricable de líneas causales que, provenientes de los tiempos primordiales, se cruzan y entrecruzan constantemente y alcanzan en forma, más o menos debilitada, los confines del espacio y tiempo. Los físicos, tal vez por razones de economía del pensamiento, prefieren representarse el estado actual del universo como efecto, o función, del estado inmediatamente anterior, esto es, dependiente de la posición y velocidad de las partículas en su vecindad inmediata espacio-temporal, en lugar de considerarlo como un complejo inextricable de las innumerables líneas causales, lo cual no evita la complejidad sino en la medida en que restringimos el antecedente inmediato espacio-temporal a una muy diminuta región, caso contrario, esto es, si extendemos lo inmediatamente anterior a todo el universo, la complejidad que emergería sería apabullante y la economía de pensamiento se iría al traste. El determinismo, así entendido, puede parecer un concepto idealmente sublime; su realización práctica, una de las más quijotescas utopías que ha engendrado la mente humana. El siguiente texto de H. Poincaré resalta el inexorable nexo de la secuencia temporal del determinismo y su reversibilidad: Supuesto esto, ¿qué es una ley? Es el enlace constante entre el antecedente y el consiguiente, entre el estado actual del mundo y su estado inmediatamente anterior. Conociendo el estado actual de cada parte del universo, el sabio ideal que conociera todas las leyes de la naturaleza, poseería las reglas fijas para deducir el estado que estas mismas partes tendrán al día siguiente; se concibe que este proceso pueda proseguir indefinidamente. Del estado del mundo del lunes, podría deducir el del martes; conociendo el del martes, por el mismo procedimiento conocería el del miércoles; y así sucesivamente. Pero esto no es todo; si hay un eslabón constante entre el estado del lunes y el del martes, se podrá deducir el segundo del primero, pero también se podrá proceder a la inversa, es decir, que conociendo el estado del martes podremos llegar al conocimiento del estado del lunes, y así indefinidamente; lo mismo podemos avanzar en el curso del tiempo que volver sobre sus pasos. Con el presente y sus leyes podemos adivinar tanto el futuro como el pasado. El proceso es esencialmente reversible. Creo que la reversibilidad del determinismo físico es la nota esencial que lo diferencia del principio de causalidad, pues la categoría de reversibilidad no parece aplicable al concepto aristotélico-escolástico de causa y efecto; diríase que es un elemento extraño a tal sistema. El determinismo implica, pues la causalidad y algo más. Por ello, para algunos, es una forma más estricta de causalidad. El determinismo físico, por otra parte, y esta es otra característica esencial, precisa de un instrumento matemático especial para transformarse en determinismo riguroso, que le distingue y distancia, toto coelo, de cualquier determinismo pre-científico: las ecuaciones diferenciales. Por eso añade el ilustre geómetra: Puesto que nos colocamos en el punto de vista matemático, conviene dar a esta concepción toda la precisión que entraña, aunque para ello tengamos que emplear el lenguaje matemático. Diremos entonces que el conjunto de las leyes equivale a un sistema de ecuaciones diferenciales que ligan las velocidades de los diversos elementos del universo con los valores actuales de dichos elementos. Los textos citados de H. Poincaré están tomados y traducidos de un artículo L’Évolution des Lois, compilado en la obra póstuma Dernières Pensées.
49
CRÍTICAS DE BERTRAND RUSSELL A LA FORMULACIÓN TRADICIONAL DEL PRINCIPIO DE CAUSALIDAD. En nuestros días, a lo largo del siglo XX, el principio de causalidad ha sido objeto de numerosos y feroces ataques, sobre todo por parte de los miembros del círculo neopositivista vienés. Tal vez, el siglo XX haya sido, en su primera mitad, el más iconoclasta que hasta ahora haya registrado la historia, al menos en cuanto a las ideas se refiere; posiblemente también en otros muchos aspectos que no nos conciernen. Me viene a la mente el capítulo On the Notion of Cause (Sobre el Concepto de Causa) del ensayo de Bertrand Russell, titulado Free Man’s Worship (La Adoración del Hombre Libre). Como se sabe, este eminente filósofo fue maestro de Ludwig Wittgenstein, líder indiscutible de los neopositivistas vieneses. Se inicia el capítulo con este enunciado: En este escrito intento, en primer lugar, mantener que el vocablo “causa” está tan inextricablemente envuelto en asociaciones de conceptos erróneos que se hace deseable su completa extirpación del vocabulario filosófico; en segundo lugar, investigo qué principio, si existe, se emplea en la ciencia en lugar de la supuesta “ley de causalidad”, que los filósofos se imaginan es el empleado en la ciencia; en tercer lugar, indico ciertas confusiones, especialmente referidas a la teleología y al determinismo, que me parecen guardar relación con las nociones erróneas de la causalidad. Una vez expuesto su propósito, pasa al análisis rechazando como inútiles las formulaciones del principio de causalidad enunciadas por J. S. Mill y H. Bergson; británico el primero, de una generación anterior a la suya; francés el segundo, de ascendencia polaca y madre inglesa, contemporáneo suyo. Sobre Bergson comenta: Y Bergson, que ha observado con razón que la ley, tal como la formulan los filósofos, es inútil, no obstante continúa suponiendo que se usa como tal en la ciencia y la enuncia así: La ley de causalidad expresa que todo fenómeno está determinado por sus condiciones o, en otras palabras, que las mismas causas producen los mismos efectos. Si las mismas causas no produjeran los mismos efectos, estaríamos ante un mundo mágico, no tendríamos seguridad alguna acerca de si las leyes de la gravedad, del electromagnetismo, de la termodinámica, de la óptica, o de la misma teoría cuántica, serían o no aplicables a la totalidad de los astros y galaxias; o si aplicables hoy, lo serían también mañana. El término de constantes universales carecería de sentido. Otra cosa es cerciorarse si las condiciones, previas a una determinada clase de experimento, son absolutamente equivalentes. En ensayos relativamente simples y macrofísicos, la mejor medida es sólo la mejor aproximación a la media estadística; en experimentos delicados, donde intervienen partículas elementales, la garantía puede llegar a ser escasa o muy precaria. El enunciado propuesto por Bertrand Russell es simplemente el sistema matemático de las ecuaciones diferenciales. Su verbalización a este respecto es sumamente enredada, diríase caliginosa, porque intenta explicar con palabras lo que suele expresarse
50
sucintamente con los símbolos, que para este fin han sido ingeniosamente creados. Esta es mi traducción liberal del texto russelliano: Existe una relación constante entre el estado del universo en cada momento y la tasa de variación en el ritmo al que cambia o evoluciona cualquier parte del universo en cada instante, y esta relación es de “varios a uno”, esto es, el ritmo de variación en la tasa del cambio está determinado desde que se da el estado del universo. El texto en inglés es como sigue: There is a constant relation between the state of the universe at any instant and the rate of change in the rate of change at which any part of the universe is changing at that instant, and this relation is many-one, i.e., such that the rate of change in the rate of change is determinate when the state of the universe is given. Traducido a castellano paladino, lo que nos está diciendo Bertrand Russell, es que la verdadera ley de causalidad ha de poder expresarse en ecuaciones diferenciales. En parte tiene razón, mas no toda. El hecho de que pueda expresarse un proceso natural en ecuaciones diferenciales no implica que se trate de un proceso determinista. Los físicos trabajan preferentemente con tales instrumentos matemáticos, pero existen ecuaciones diferenciales que no implican determinismo en el sentido riguroso aquí apuntado, como es el caso de las ecuaciones empleadas en la desintegración atómica y en el comportamiento de los depredadores en la conducta de los animales, por citar sólo dos ejemplos características entre otros muchos. Por otra parte, cualquiera que abra un manual de física, se topará por doquier con términos como fuerza, campos de fuerza y aceleraciones, que se tienen como efectos de dichas fuerzas y campos. PRECISIONES DE EINSTEIN Y POINCARÉ SOBRE LAS ECUACIONES DIFERENCIALES. Veamos este texto magistral de Albert Einstein: La ley diferencial es la única forma que brinda completa satisfacción a las exigencias de causalidad del físico moderno… Sólo al considerar lo que ocurría durante un tiempo infinitamente breve (ley diferencial), pudo Newton llegar a la formulación de leyes válidas para cualquier tipo de movimiento. Tomó el concepto de fuerza de la estática, que ya había alcanzado un nivel muy alto de desarrollo. Estuvo en condiciones de conectar fuerza y aceleración sólo al introducir el nuevo concepto de masa que, por extraño que parezca, se basaba en una definición errónea. Hoy estamos tan habituados a formar conceptos que corresponden a cocientes diferenciales, que apenas somos capaces de comprender qué enorme poder de abstracción era necesario para obtener la ley diferencial del movimiento mediante un doble proceso al límite, en el curso del cual debía inventarse, por añadidura, el concepto de masa. (La Mecánica de Newton y su Influencia en el Desarrollo de la Física Teórica). Henri Poincaré nos ha mostrado las condiciones que tienen que darse en los fenómenos físicos para hacer posible la aparición y desarrollo de la física matemática. Seguiremos a grandes trazos su relato, omitiendo muchos otros párrafos no menos interesantes:
51
Avancemos un poco más y estudiemos de cerca las condiciones que han permitido el desarrollo de la física matemática. En primer lugar reconocemos que los esfuerzos de los sabios siempre han tenido por objeto descomponer el fenómeno complejo, que se ofrece directamente a la experiencia, en un gran número de fenómenos elementales. La primera descomposición es relativa al tiempo: En lugar de abarcar en su conjunto el desarrollo progresivo de un fenómeno, se busca relacionar simplemente cada instante con el instante inmediatamente anterior; se admite que el estado actual del mundo sólo depende del pasado más próximo, sin estar directamente influido, permítase así expresarlo, por el recuerdo de un pasado lejano. Gracias a este postulado, en lugar de estudiar directamente toda la sucesión de los fenómenos, nos podemos limitar a escribir la “ecuación diferencial”; a las leyes de Kepler, se substituyen las de Newton. La segunda descomposición es relativa al espacio: Lo que la experiencia nos ofrece es un conjunto confuso de hechos que tienen lugar en un teatro de cierta extensión; se precisa, pues, aislar el fenómeno elemental que será, por el contrario, localizado en una muy reducida región del espacio. A continuación nos presenta el siguiente ejemplo: Si se quiere estudiar en toda su complejidad la distribución de la temperatura en un sólido que se enfría, jamás se conseguirá tal objetivo. Todo se simplifica si reflexionamos que un punto del sólido no puede ceder directamente calor a otro punto lejano; sólo lo cederá a los puntos más próximos. El flujo de calor sólo podrá alcanzar otras porciones del sólido siguiendo el puente de los puntos intermedios. El fenómeno elemental es el intercambio de calor entre dos puntos contiguos; está estrictamente localizado, y es relativamente simple, si se admite, como es natural, que no le influye la temperatura de las moléculas situadas a una distancia sensible... La mejor manera de llegar al fenómeno elemental será, evidentemente, la experiencia... El conocimiento del hecho elemental nos permite poner el problema en forma de ecuación; sólo nos queda ahora deducir por combinación el hecho complejo observable y verificable. Es lo que se llama “integración” y esta es la labor del matemático. Y ¿qué es lo que hace posible esta operación matemática: La razón es ahora fácil de ver. No sólo es el hecho que vayamos a expresar leyes numéricas; es que el fenómeno observable es el resultado de la superposición de un gran número de fenómenos elementales “todos semejantes entre sí”; de este modo se introducen con toda naturalidad las ecuaciones diferenciales. Poincaré se hace la siguiente pregunta: Cuándo sabemos en qué dirección buscar el fenómeno elemental, ¿por qué medios podremos conseguirlo? En primer lugar, sucederá con frecuencia que, para adivinarlo, o mejor dicho, para adivinar lo que nos es útil, no será necesario penetrar hasta conocer el mecanismo; la ley de los grandes números será suficiente. Volvamos al ejemplo de la ley de propagación del calor; cada molécula irradia calor a su vecina; no tenemos necesidad de saber con arreglo a qué ley; si hacemos cualquier suposición a este respecto, tal hipótesis sería indiferente y, por consiguiente, inútil e inverificable. En efecto, por la
52
acción de los promedios y gracias a la simetría del medio, todas las diferencias se nivelan y, cualquiera que sea la hipótesis formulada, el resultado será siempre el mismo. Textos seleccionados de la obra. La Science et L’Hypothèse. Esta observación es muy pertinente pues desliga en ciertos casos, contrariamente a lo que nos decía Russell, las ecuaciones diferenciales de la noción de causa y efecto, reteniendo únicamente el nexo, o encadenamiento, en la secuencia de los procesos físicos. Reciben el nombre de leyes estadísticas. Tal ocurre, como ya hemos apuntado, con las ecuaciones diferenciales que expresan la desintegración de las substancias radioactivas (otros prefieren decir radiactivas, contrariamente a los países de nuestro entorno), un proceso aleatorio en cuanto a la desintegración de cada átomo se refiere, y cuya ecuación diferencial, una de las más simples, es: −(dy/dx) = ky; o bien: (dy/dx) = −ky
(1)
y cuya solución general es una función exponencial decreciente: −
y = yo e kx La ecuación (1) nos dice que el coeficiente diferencial, con signo negativo, decreciente, de y con relación a la variable x es proporcional, en cada instante, a la misma magnitud y, que indica la cantidad pendiente de descomposición en cada momento, siendo yo la cantidad inicial en el tiempo cero; x representa aquí el tiempo, u otra variable en otras ecuaciones, y la constante k puede concebirse como la velocidad de desintegración. Ningún símbolo nos indica la causa o el mecanismo de la descomposición, que queda silenciado. La misma ecuación, en cuanto a la forma, se aplica a una gama muy variada de procesos físicos y no físicos, deterministas o aleatorios, que, en su materialidad, nada tienen de común entre sí, como la pérdida de intensidad de la luz al atravesar el grosor de los cuerpos absorbentes, la disminución de la presión atmosférica en función de la altura, o el descuento matemático continuo. Ello muestra, pues, que no hay equivalencia exacta entre ley, expresada en ecuación diferencial, por una parte, y ley causal o determinismo, por otra. Se nos puede replicar que los casos aludidos no son auténticas ecuaciones diferenciales de la naturaleza en el sentido matemático riguroso del término, sino modelos idealizados de ecuaciones diferenciales a los que los procesos radioactivos y los comportamientos de los depredadores más o menos se ajustan, del mismo modo que no todas las circunferencias, o acaso ninguna, que encontramos en la naturaleza cumplen con rigurosa exactitud la definición geométrica, y en las que, consecuentemente, la relación del perímetro al diámetro no es exactamente el número π con su cortejo de infinitas cifras decimales, sino un número más o menos aproximado. Todo ello es cierto, mas ¿quién nos garantiza qué determinados procesos físicos, astronómicos, químicos o biológicos materializan, con absoluto rigor, la definición matemática de las ecuaciones diferenciales, y cuáles otros son aproximaciones suficientemente buenas para que funcionen en la práctica? No se comprende el deseo de B. Russell por eliminar de la filosofía el término mismo de causa. Este concepto tiene su origen en la vida diaria. Los bueyes necesitan ejercer fuerza para vencer la resistencia del terreno a la reja del arado que abre el surco. Antes de la invención del timbre eléctrico, al tirar de la borla de un cordón, la tensión
53
transmitida a lo largo de él hace sonar la campanilla en otra habitación lejana, un proceso en el que se alternan y enlazan diversas causas y efectos. No dudo que el físico teórico podría expresar este proceso en ecuaciones diferenciales, pero ¡qué engorroso nos lo pondría! El concepto de causa pasó de la vida ordinaria a la filosofía y de ésta a la ciencia, sufriendo en cada etapa los refinamientos necesarios para las nuevas finalidades a las que debía servir. Si tuviéramos que eliminar este término, habría que rehacer, poco o mucho, no sólo los libros de filosofía, sino también los textos de física. El amable lector puede verificar esto por sí mismo. Escoja cualquier texto de física, elemental, intermedio o superior, y compruebe por sí mismo cuántas veces encuentra en ellos los términos de causa y efecto o, en su lugar, cualesquiera otros términos equivalentes que, por cierto, son muy abundantes. Tal vez fue un arrebato juvenil de animosidad iconoclasta, animosidad que respira por los cuatro costados el ensayo antes mencionado, lo que incitó al filósofo, aristócrata británico, a denostar el concepto de causa. Pero lo que se siembra se recoge. No es extraño, pues, que los jóvenes neo-positivistas, en sus acerbas críticas al principio de causalidad, recolectaran los frutos de la siembra russelliana. Pero aún es más extraño que el mismo B. Russell, prácticamente en todos sus ensayos filosóficos, haya recurrido siempre al concepto de causalidad, sin expresar ecuación diferencial alguna, para defender contra tirios y troyanos, y especialmente contra las marcadas veleidades solipsistas de algunos miembros del círculo de Viena, la objetividad del mundo exterior, en cuya defensa se mostró siempre inflexible. Veamos este texto del ensayo My Philosophical Developmente, obra de plena madurez, escrita y pensada con esa nota de reposo y serenidad mental, que la naturaleza regala a las mentes otrora especialmente inquietas y agitadas como la suya, semejantes a esos grandes ríos que, tras despeñarse entre rocas en su turbulenta mocedad, fluyen cansados y serenos, próximos ya a su desembocadura: Existen en esta teoría dos modos de asociar los sucesos en grupos. Por una parte puedes formar un grupo de todos los sucesos que se consideran como apariencia de una cosa. Supongamos, por ejemplo que esta cosa sea el Sol. En primer lugar tenemos todos los perceptos visuales de las personas que están viendo el Sol. Además, podemos contar con todas las fotografías que los astrónomos están tomando del mismo astro. Finalmente disponemos de todos los sucesos, en lugares diversos, en virtud de los cuales podría verse o fotografiarse el Sol en tales lugares. La totalidad de estos grupos de sucesos está conectada causalmente con el Sol de la física (The whole of this bundle of events is causally connected with the sun of physics). Las negritas, como es habitual, las pone el autor de este ensayo. Al igual que éste, podría citar otros muchos textos de Russell. BENJAMIN FRANKLIN Y EL PRINCIPIO DE CAUSALIDAD. Dejemos a un lado teorías demasiado abstractas y pongamos, por un momento, los pies sobre la tierra. Max Planck nos refiere una anécdota divertida, atribuida a Benjamín Franklin quien, aparte de ser un excelente físico y hombre de estado, también se interesó por la economía agraria, concretamente por la cuestión de los abonos artificiales. No pudiendo convencer a sus convecinos de que el excelente resultado de sus cosechas de alfalfa se debía al abono artificial, con ocasión de la próxima siembra hizo abonar copiosamente ciertas hileras de un campo para que se pudiera deletrear claramente este texto: This part has been manured with gypsum (Esta parte ha sido abonada con sulfato
54
de calcio). De esta suerte los incrédulos agricultores obtuvieron, como resalta Max Planck, la prueba ad oculos, esto es, los campesinos vieron con sus propios ojos la causa y el efecto en la copiosa cosecha de alfalfa, sin necesidad de echar mano de las ecuaciones diferenciales, ni escuchar las explicaciones de Bertrand Russell sobre la expresión correcta del principio de causalidad. El texto completo de esta divertida anécdota aparece en su obra, Where is Science Going? y también en Vorträge und Erinnerungen, de donde lo he tomado. DEL DETERMINISMO MECANICISTA AL DETERMINISMO MORFOLÓGICO. Como es sabido, las órbitas de los planetas no son elipses perfectas. Se producen en ellas irregularidades por influencia de los demás planetas. En el caso del planeta Urano las perturbaciones no pudieran ser explicadas por la influencia de los planetas hasta entonces conocidos. Ello llevó al británico J. C. Adams y al francés J. J. Leverrier a calcular la órbita en que se movería el planeta desconocido, causante de tales irregularidades. El astrónomo británico se puso en contacto con el Observatorio de Cambridge para localizarlo, mientras el matemático y astrónomo francés hizo lo mismo con el Observatorio de Berlín, donde el Dr. Galle, siguiendo las instrucciones de Leverrier, se adelantó en el hallazgo del nuevo planeta que fue llamado Neptuno. Esto Ocurría en 1846. Un proceso análogo llevó al descubrimiento del planeta Plutón en 1930 por el astrónomo americano C. W. Tombaugh. Pero el relato sobre J. J. Leverrier tiene una segunda parte no tan feliz. Aplicó un método similar para explicar las irregularidades de la órbita de Mercurio. Para ello se postuló la existencia de un planeta interior, que se movería entre éste y el Sol. Hasta se llegó a bautizarle, por su proximidad al Sol, con el nombre de Vulcano, el dios romano del fuego y los metales, que presidía las fraguas y protegía a los que en ella trabajaban. Pero jamás fue localizado. La solución del enigma tuvo que esperar a la segunda década del siglo XX. La teoría de la relatividad general de Einstein consiguió explicar dichas irregularidades más satisfactoriamente que lo hiciera la mecánica celeste de Newton y Laplace. Este es un caso que debe hacernos reflexionar, un caso donde las causas mecánicas ceden el paso a un determinismo de otro orden, que por falta de un nombre más adecuado, se podría denominar determinismo morfológico. En lugar de hablar exclusivamente de la fuerza gravitatoria se habla de modificaciones en la estructura o configuración del espacio-tiempo que provoca la masa de los cuerpos. Con ello quedó explicado satisfactoriamente, según los expertos, lo que técnicamente se conoce con el nombre de precesión del perihelio de Mercurio, fenómeno que recuerda el cabeceo de una peonza al ir perdiendo velocidad de giro. La substitución de la fuerza de gravitación por la geometría del espacio-tiempo en la teoría de la relatividad no conlleva el debilitamiento del determinismo; muy al contrario, es una teoría absolutamente determinista con una clase de determinismo que, a falta de un nombre más idóneo, denomino morfológico, al estilo de las leyes de Kepler, o de los grupos de simetría de la teoría cuántica. El importante papel jugado por la simetría en las partículas fundamentales podría referirse, creo, al concepto de determinismo morfológico.
55
EL PRINCIPIO DE RAZÓN SUFICIENTE DE G. W. LEIBNIZ. LAS CAUSAS COMO EXPLICACIÓN DE LOS PROCESOS FÍSICOS, SEGÚN EDDINGTON. EL ERROR DE HUME. Hablando de determinismo, o del principio de causalidad, hemos de evitar, pues, el concepto excesivamente concreto y mecanicista de un contacto físico, tal como sucede en la cadena de sucesos que se extiende, sin solución de continuidad, desde la borla del cordón, del que se tira, hasta la percepción del sonido de la campana en cuyas paredes interiores repica el pequeño badajo. No se debe elevar a categoría general lo que es un simple caso particular, aunque muy abundante, en la vida ordinaria. Creo que fue A. S. Eddington quien dijo: En física, las causas son las explicaciones de los fenómenos. Ésta será, en lo sucesivo, mi preferida definición de causa. Hemos, pues, de asumir un concepto de causa mucho más amplio. En el límite llegaría a identificarse con el principio leibniziano de la razón suficiente. Cuando indagamos la causa de un suceso, lo que tratamos de encontrar, lo consigamos o no plenamente, es saber el cómo y, a ser posible, el por qué se ha producido, esto es, una explicación suficiente de su aparición. La relación de causa a efecto no es intuitiva, no se nos da en intuición alguna. Si así fuera, tal vez no valdría de un caso para otro. Llegamos a entender la relación de causa a efecto, cuando somos capaces de construir, tras la debida observación o experimentación, y análisis, una explicación adecuada que, según su complejidad y el grado de constatación alcanzado, la denominamos simplemente explicación, conjetura, hipótesis o teoría. Una simple explicación nos basta para entender la caída de un corpulento árbol por la fuerza del huracán; pero necesitamos una explicación mucho más compleja para comprender por qué son elípticas, y no circulares, las órbitas de los planetas. La simple observación nos basta para lo primero, pero para el segundo caso, además de los datos experimentales, necesitamos recurrir a la teoría de la gravitación de Newton, o a la teoría de la relatividad general de Einstein para obtener una explicación satisfactoria. Gottfried Wilhelm Leibniz, al enunciar su principio de razón suficiente, escribió en su Monadología: Nuestro raciocinio está basado en dos grandes principios: el de contradicción…y el de razón suficiente, en virtud del cual consideramos que no puede concebirse ningún hecho verdadero o existente, ni enunciado alguno verdadero, sin que haya una razón suficiente para que sea así y no de otro modo, si bien estas razones, las más de las veces, nos son desconocidas. Es de notar la observación final: si bien estas razones, las más de las veces, nos son desconocidas. Algunos físicos han criticado el principio de causalidad, basándose en el hecho de que tal principio, aplicado a un suceso dado, no facilita un criterio inequívoco para identificar su causa. Se olvidan de esta advertencia de Leibniz y confunden, lamentablemente, un principio epistemológico con una fórmula matemática, o simplemente con una receta química o culinaria para obtener tal o cual resultado numérico, medicamento o manjar.
56
Sostenía Leibniz que existen dos clases de verdades: verités de raison y verités de fait. Son ejemplos de las primeras los teoremas matemáticos y geométricos, cuyos opuestos son imposibles porque, aceptadas las premisas y axiomas pertinentes, denominados antecedentes, fallaría el principio de contradicción si no admitiéramos la tesis, esto es, el consiguiente. Como es sabido, llegamos a la verdad de los teoremas analizando el conjunto de los supuestos previos, integrado por axiomas, postulados, teoremas anteriores pertinentes y las nuevas definiciones que hacen al caso. Por esta razón, los denominamos enunciados analíticos. Decimos que la tesis es verdadera si descubrimos que fallaría el principio de contradicción si, manteniendo la verdad del citado conjunto previo de supuestos, al mismo tiempo negáramos la verdad de la tesis. Cesar cruzó el Rubicón es un ejemplo de verdad de hecho. Para el intelecto humano su opuesto no es contradictorio pero consideramos que tal hecho no se habría producido sin una razón suficiente. Una inteligencia infinita, según Leibniz, que escudriñara todos los entresijos de la mente humana, podría ver que el paso del Rubicón está incluido en la definición de la personalidad de Julio Cesar; lo vería con la misma clarividencia con la que intuiría la tesis de un teorema matemático, implícita en lo que hemos denominado el conjunto de supuestos previos pertinentes al caso. Este exceso de logicismo, o pitagoreísmo extremo, es la perenne tentación de algunos físico-matemáticos; ello implica la reducción de todo conocimiento posible a la lógica y a las matemáticas. Para Leibniz, el estado actual de una mónada −las unidades elementales en el sistema leibniziano− no depende del estado inmediatamente anterior de otras mónadas, sino que desenvuelve inexorablemente el plan implícito en su estructura esencial, semejante a una función matemática que desplegara sus posibles valores sucesivamente, al tiempo que va inscribiendo su representación gráfica en un sistema de coordenadas. Cada una de las mónadas evolucionaría según su propia función matemática, harmónica e independientemente de las demás. En última instancia el paso del Rubicón sería uno de los valores que desplegaría en el tiempo la función matemática, representativa, en un momento dado, de la esencia de Julio Cesar. Pero no todo es lógica, ni siquiera en matemáticas. Los axiomas, por definición, no se demuestran y, si bien constituyen los pilares de las matemáticas, sus fuentes, de donde procede su inagotable riqueza, son las definiciones, formuladas libremente a las que sólo se exige, para su aceptación, que sean compatibles con los supuestos previos. En el extremo diametralmente opuesto a esta línea de pensamiento tenemos al filósofo escocés David Hume, quien primero comete el error de adoptar un nominalismo radical, no admitiendo como conocimiento sino las percepciones sensoriales y sus reproducciones posteriores, más débiles, en la imaginación; a continuación declara no tener la impresión viva, o debilitada, del supuesto nexo entre la causa y el efecto, lo que evidentemente es cierto, por lo que concluye invalidando el principio de causalidad. Lo realmente preocupante sería encontrar entre nuestras impresiones sensoriales alguna que representase tal conexión. El resultado sería catastrófico: dejaría de ser objeto del intelecto para convertirse en una impresión subjetiva más, como la impresión del matiz de un color o la sensación de suavidad o rugosidad de tal o cual superficie. Pero se olvidan estos filósofos que tampoco disponemos de la impresión viva, o debilitada, del polígono de un millón lados, sobre el que los matemáticos pueden razonar con la misma seguridad que un escolar sobre las propiedades del pentágono. Ni siquiera la representación del triángulo, que acompaña en nuestras mentes a la demostración de los teoremas, es la misma en dos individuos cualesquiera, y ello no es óbice para que lleguen ambos con igual rigor a la demostración de un mismo teorema. Simplemente, nos atenemos a su definición, que va más allá de cualquier representación concreta, y
57
que es rigurosamente la misma en todas las mentes capaces de razonar. Es más, suponiendo cierta la tesis de Hume, no serían posibles las actuales matemáticas, la diversidad de geometrías o las teorías más abstractas de la física matemática, porque esas teorías contienen algo más que sensaciones o reproducciones debilitadas de sensaciones. Representan un entramado de relaciones, expuestas en complejas formas matemáticas, que sólo nuestra facultad de entender, no la de sentir, imaginar o intuir, aunque auxiliado en ocasiones por éstas, puede crear. Estas teorías básicamente versan sobre las relaciones entre objetos idealizados, previamente definidos, creados libremente por la mente, aunque sugeridos, al menos parcialmente, por la experiencia. No representan la visión de algo recóndito y difícilmente accesible, como las ideas de Platón o las ideas-arquetipo en la mente divina de San Agustín, ni las esencias aristotélicas en el interior de las cosas. Son simplemente generalizaciones provisionales de los procesos físicos, que en tanto valen en cuanto los explican más o menos satisfactoriamente. Pero eso sí, no serían posibles tales teorías sin la facultad creadora del entendimiento, que no es reducible en modo alguno a las facultades sensoriales, si bien son éstas las primeras en desarrollarse y las que ofrecen, como si dijéramos, la materia prima al intelecto. Por eso, frente a la tesis, ciertamente correcta, de Locke de que la mente del niño al nacer carece de todo conocimiento previo, sicut tabula rasa (como un encerado en blanco), sentencia que tomó de los escolásticos, Leibniz replica: nisi intellectus ipse (excepto la razón misma). La función de la razón, o intelecto, es percibir las relaciones entre las impresiones sensoriales e incluso relaciones de relaciones, estructuradas jerárquicamente. Y estas relaciones, cada vez más abstractas, como sucede en matemáticas, no son impresiones. No creo que nadie tenga, o haya tenido nunca, la impresión, o impresiones sensoriales, correspondientes al teorema de las series de Fourier, ni la impresión sensorial del número “e”, cuya reproducción debilitada en la imaginación sería su concepto, según David Hume. Existen ramas de las matemáticas, como el cálculo matricial y teoría de grupos donde imágenes e impresiones sensoriales están prácticamente ausentes. De ser cierta la epistemología de David Hume, las matemáticas se enseñarían exclusivamente con los dibujos que mejor facilitaran las impresiones sensoriales. Bastaría con presentar a los alumnos los dibujos y esquemas más representativos de las ecuaciones diferenciales para hacer de ellos unos perfectos matemáticos. Sobrarían los razonamientos verbales o codificados en fórmulas. La pedagogía de las matemáticas estaría basada en la asociación de imágenes y la lógica pura brillaría por su ausencia. Estas son las consecuencias a las que conduce la tan elogiada epistemología de David Hume. Algo análogo sucede en la física. Nadie tiene, ni ha tenido jamás, la impresión sensorial de un campo de fuerzas, ni gravitacional, ni electromagnético, ni de cualquier otra clase, como tampoco existe la impresión sensorial de una corriente eléctrica, aunque asociemos estos entes físicos con variadas y confusas sensaciones visuales o táctiles. Es verdad que los físicos crearon estos conceptos y teorías basándose en experimentos muy concretos, pero los correlatos físicos de tales conceptos y teorías no son directamente accesibles a nuestros órganos sensoriales. Son el resultado de remotas inferencias. De lo contrario, ¿cómo se explica que la humanidad haya tardado tantos siglos en percibirlos, disponiendo de los mismos cinco sentidos? Son, pues, objetos inferidos de los que está superabundantemente poblada la física de los científicos más positivistas. La física cuántica también está profusamente poblada de entidades inferidas, pero aún mucho más extrañas: saltos cuánticos, ondas de probabilidad, superposición de estados cuánticos…
58
EL PRINCIPIO DE CAUSALIDAD EN EL MARCO APRIORÍSTICO KANTANO. EL PRETENDIDO NUEVO GIRO COPERNICANO DE KANT. Hemos visto lo que pensaba Leibniz en el siglo XVII y lo que opinaba Hume, su polo opuesto, en el XVIII, pero el filósofo prusiano Immanuel Kant, en las postrimerías del XVIII, dio un giro radical a la cuestión para salvar, según él, la ciencia del escepticismo devastador de David Hume. El giro que Kant pretendió imprimir a la filosofía, y que él llegó a calificar de giro copernicano, consistió básicamente en postular que el principio de causalidad, el concepto de substancia, en total las doce categorías kantianas, análogas pero más completas que las de Aristóteles, y las dos formas a priori de la sensibilidad, las intuiciones del espacio y del tiempo, todas ellas independientes de la experiencia, son los instrumentos de los que se vale la mente para ordenar el caos de las impresiones sensoriales, transformando éstas en objeto de ciencia. Según Kant, la ciencia no investiga para descubrir el orden en la naturaleza; es la menta humana quien pone el orden en ella; en ocasiones, llega incluso a afirmar que es ella la que legisla. En su sistema, las proposiciones de las matemáticas, de la geometría y ciertos principios fundamentales, como el principio de causalidad, no son proposiciones analíticas, como pretendía Leibniz, pues entonces serían meras tautologías, sino auténticos juicios sintéticos a priori. Los denomina sintéticos en cuanto enuncian predicados que no están contenidos analíticamente en los sujetos de las proposiciones a los que se refieren; añaden, pues, algo nuevo a nuestro conocimiento que no podríamos jamás descubrir por el simple análisis leibniziano de las notas contenidas en la definición del sujeto. Y lo más curioso es que este aporte de novedad tampoco proviene de la experiencia, fuente de datos contingentes. Por ello, Kant los denomina juicios sintéticos a priori, esto es, independientes de toda experiencia. Kant creyó dar un giro copernicano a la filosofía, y con ella, a la ciencia, pero en realidad su giro no tiene absolutamente nada de copernicano, sino netamente de anticopernicano. Como es bien sabido, el sistema de Copérnico desplazó la Tierra del centro del universo, eliminando la creencia antigua de que los astros giraban en torno a ella, lugar preeminente del Universo y asiento de la Humanidad. Con el sistema kantiano las cosas vuelven, en un sentido figurado, a donde estaban antes de Copérnico: ideas y conceptos hacen un giro anticopernicano. En el sistema kantiano las matemáticas, la geometría, las categorías y las dos intuiciones fundamentales de la ciencia, espacio y tiempo, por su cualidad de sintéticas y a priori, esto es, independientes de la experiencia, dependen totalmente de la naturaleza o estructura de la mente humana. Con estos supuestos vemos que las cosas, y con ellas la totalidad del Universo, vuelven de nuevo a girar en un sentido figurado, pero más estricto y radical, en torno a la mente humana, esto es, en torno a la Humanidad, lo que va en contra del sentido profundo del giro copernicano. En relación con este supuesto giro se da un error de bulto, demasiado abultado para que no lo percibiera la tan loada mente crítica de Kant. Se dice por activa y por pasiva en su sistema, y lo repite más de un físico, que la mente humana pone el orden en el laberinto de las sensaciones. Esto sólo puede tener un sentido figurado; constituye una metáfora o licencia del lenguaje. El único orden que parece establecerse es el que se va creando paulatinamente en la mente novicia que se inicia en el conocimiento de la naturaleza, o en la mente del sabio consagrado que se enfrenta a un nuevo e intrincado problema. La mente pasa por sucesivas etapas de perplejidades, tanteos y dudas hasta lograr algunas claridades e intuir, tras ardua investigación que puede durar años, el esplendor que emana del orden y la harmonía de las leyes del universo, contempladas desde cierta
59
altura. Pero estas etapas son subjetivas. Pasa por ellas cada estudioso de la naturaleza, como la humanidad entera en el curso de su historia. Independientemente de que existan, o no, seres que piensan e indagan, la naturaleza discurre tan ordenada o desordenada, como ella misma es. No necesita para nada de nuestro orden. Dejemos a un lado la retórica y sus metáforas y usemos del lenguaje con sobriedad. Los científicos descubren leyes físicas, no las imponen a la naturaleza. El orden sólo se hace en nuestra mente. Kant pretendió hallar una vía media entre el racionalismo extremo de Leibniz y el empirismo sensista de Hume. Conservó, exacerbándolo, el apriorismo de Leibniz, que nunca fue sintético sino analítico, pero haciéndole depender, para contentar a Hume, de algo tan frágil, circunstancial y anecdótico, como la naturaleza de la mente humana, con lo cual la objetividad de la ciencia queda muy mal parada. Es algo así como cercar el gallinero con alta y sólida valla, dejando al zorro del escepticismo encerrado con las aves del corral. Esta es la razón profunda por la que, apenas fallecido el filósofo de Königsberg, se desplegaran, unas tras otras, las más atrevidas especulaciones: las filosofías, subjetivas e idealistas, de Fichte, Schelling y Hegel, principalmente, que discurrieron con gran pompa a lo largo del siglo XIX, para terminar en nada, como pompas de jabón. El mismo sistema kantiano, como acontece con toda especulación humana, se ha venido abajo como un castillo de naipes, a pesar de su mayor solidez. Representaba un corset mental demasiado rígido, tallado, según la intención de Kant, a la medida justa de la física clásica. Era natural que se resquebrajara con el nacimiento de la física moderna. El reconocimiento de las otras geometrías no-euclidianas, así como la aparición de la teoría de la relatividad con su nueva conceptualización relativista del espacio-tiempo, terminaron por desacreditar totalmente el sistema kantiano. Para colmo de males, con el sistema kantiano en ruinas, surgió la nueva mentalidad impuesta por la teoría cuántica, posiblemente, la teoría física más revolucionaria hasta la fecha. No menos importante ha sido la contribución de la lógica moderna en el esclarecimiento y análisis de las llamadas verdades necesarias y eternas −que resultaron ser simples juicios hipotéticos bajo la apariencia de categóricos− y que de una forma, más o menos larvada, aún lastraba la filosofía desde los tiempos del idealismo platónico, del Medioevo y del Renacimiento, filosofías más o menos aristotélicas unas, más o menos platónicopitagóricas otras, y a través de las ideas claras y distintas de Descartes y del ultraracionalismo de Leibniz, hasta llegar al apriorismo kantiano casi sin solución de continuidad, ya que éste podría equipararse al Olimpo platónico de las Ideas Inmutables y Eternas, previamente interiorizado, esto es, subjetivado, en la estructura misma de nuestra mente, no faltando en dicho sistema fuertes reminiscencias aristotélicas en cuanto a las formas. A Bertrand Russell, y a su colega G. E. Moore, les cupo el honor de combatir y extirpar los últimos vestigios de las filosofías, ya agonizantes, de Kant y Hegel en su país, lo que tuvo lugar con el cambio del siglo XIX al XX. William James y Henri Bergson contribuyeron a su demolición en sus respectivos países. En Henri Poincaré y Max Planck se advierten, al mismo tiempo, leves vestigios de su formación kantiana y las primeras fisuras graves del sistema al criticar ambos científicos las formas de intuición kantianas de espacio y tiempo. En cuanto a Einstein, disponemos de algunos testimonios. El siguiente está tomado de una carta a su amigo Max Born: Leyendo estoy aquí, entre otras cosas, los Prolegómenos de Kant, y comienzo a comprender el enorme poder de sugestión que siempre ha emanado, y sigue emanando,
60
de este “muchacho”. Si le concedo la existencia de los juicios sintéticos “a priori”, se encuentra uno atrapado. El calificativo a priori he de rebajarlo a “convencional” para no caer en contradicciones, pero tampoco entonces resulta adecuado para casos particulares. En efecto, la arquitectura kantiana de los juicios sintéticos a prior es como un subsistema dentro del gran sistema de la filosofía kantiana, algo así como la piedra sillar de toda su filosofía. Por ello, nuestro filósofo catalán, el Dr. D. Jaime Balmes, fallecido en la primera mitad del siglo XIX, dio prueba de gran sagacidad al someter, en su Filosofía Fundamental, a un duro y riguroso análisis crítico la teoría kantiana de dichos juicios, entendiendo que bastaba demolerlos para que el edificio entero se derrumbara por sí mismo, mientras que otros filósofos españoles, que gozan hoy de un mayor predicamento, en sus exposiciones, en las que no escasean frases laudatorias al sistema kantiano y afines, cuidan más de lucir su buen decir que de hacer un riguroso análisis crítico. ALBERT EINSTEIN ANTE EL PRINCIPIO DE CAUSALIDAD. DE NUEVO EL DETERMINISMO MORFOLÓGICO. Más razonables me parecen las observaciones de Einstein acerca del viejo principio de causalidad que las ofrecidas por Bertrand Russell. En cierta ocasión James Murphy preguntó a Einstein: ¿En qué sentido aplica Vd. el determinismo a la naturaleza? ¿En el sentido de que todo suceso en la naturaleza procede de otro suceso que llamamos causa? A lo que Albert Einstein contestó: Yo no lo expresaría de este modo. En primer lugar, pienso que gran parte del malentendido que envuelve la cuestión de la causalidad se debe, más bien, a la formulación rudimentaria del principio de causalidad, que ha estado en vigor hasta ahora. Cuando Aristóteles y los escolásticos definieron lo que entendían por causa, todavía no había aparecido en la ciencia el concepto de un experimento objetivo en sentido científico. En consecuencia, se limitaron a definir el concepto metafísico de causa. Y lo mismo ocurre con Kant. Parece que el mismo Newton se dio cuenta de que esta formulación pre-cientifica del concepto de causalidad resultaría insuficiente para la física moderna. Newton se contentó con describir el orden regular en que los eventos acontecen en la naturaleza, y en construir su síntesis sobre la base de leyes matemáticas. Pienso que los sucesos de la naturaleza están controlados por una ley que los liga de un modo más estrecho y estricto de lo que suponemos hasta hoy, cuando hablamos de que un suceso es la causa del otro. Nuestro concepto habitual se refiere al suceso dentro de una sección del tiempo. Está como seccionado del proceso total. Este método rudo de aplicar el principio de causalidad es completamente superficial. Nos comportamos como el niño que juzga de un poema por la rima e ignora la configuración poética, o como el principiante de piano que sólo relaciona una nota con la que precede o sigue. Hasta cierto punto le puede ir bien cuando se trate de composiciones muy simples y primitivas; pero este método no funciona en la interpretación de una fuga de Bach. La física cuántica nos presenta procesos muy complejos para cuyo tratamiento precisamos ampliar y refinar el concepto de causalidad.
61
Traducido de la obra: Where is Science Going? LA POSICIÓN MODERADA DE MAX PLANCK ANTE EL PRINCIPIO DE CAUSALIDAD. Concluyo el presente capítulo con unos textos de Max Planck, con los que se identifica, sólo en parte, el autor de este ensayo: Podemos pensar en la parte y en el todo al que pertenece, pero no podemos pensar que la parte sea mayor que el todo. Esta clase de imposibilidad es algo inherente a la naturaleza misma del entendimiento humano, mientras que la idea de un suceso al margen de la ley de causalidad es un pensamiento lógico coherente, esto es, no entraña contradicción. Así, pues, desde el inicio hemos de tener muy claro un hecho de la mayor transcendencia, esto es, que la validez de la ley de causalidad para el mundo real es una cuestión que no puede resolverse en los dominios del pensamiento abstracto. Traducido de la obra: Where is Science Going? En otro lugar de la misma obra nos dice: Por supuesto, se puede afirmar que la ley de causalidad es, después de todo, una hipótesis. Si es una hipótesis, no es una hipótesis como las demás, sino que es una hipótesis fundamental porque es el postulado necesario para conferir sentido y significado en la aplicación de cualquier hipótesis en la investigación científica. Esto es así porque toda hipótesis que expresa una regla definida presupone la validez del principio de causalidad. De un modo muy similar se expresa en diferentes conferencias científicas, como puede verse en el bello resumen final de la conferencia pronunciada ante la Physical Society of London en 1932, que lleva el título Die Kausalität in der Natur: Resumiendo, podemos decir que no es posible demostrar apodícticamente la ley de causalidad, del mismo modo que no se la puede refutar, es decir, que dicha ley no es ni verdadera ni falsa; es más bien un principio heurístico, una guía, en mi opinión, la más válida que tenemos para orientarnos en medio de la abigarrada confusión de los sucesos, y que nos muestra la dirección por donde ha de avanzar la investigación científica si queremos conseguir resultados fructíferos. La ley de causalidad se apodera del niño tan pronto como despierta su mente y le pone en los labios la eterna pregunta: “¿por qué?”. Acompaña, así mismo, inseparablemente al investigador durante toda su vida y no cesa de plantearle nuevas interrogantes, porque la ciencia no es sinónimo de reposo contemplativo en el gozo de los conocimientos adquiridos una vez para siempre, sino, al contrario, una obra inacabada, sin reposo y en perpetuo progreso hacia una meta ideal que podemos vislumbrar poéticamente pero jamás aprehender intelectualmente en su totalidad. Es muy discutible que el principio de causalidad no pueda demostrarse apodícticamente. Entiendo por demostración apodíctica aquella que de un modo directo o indirecto descansa exclusivamente en el principio de contradicción. Dos filósofos tan destacados como Aristóteles y Leibniz lo consideraron como una extensión del citado principio. Argumentaron que nada que tenga un origen, ya sea substancia o accidente −actualmente diríamos un proceso o un suceso− puede tener en sí mismo su razón de ser.
62
De no ser así, la aparición de un suceso nuevo, dependería de sí mismo, esto es, de nada, lo que es contrario al principio de contradicción; nos recordaría la hazaña del barón de Münchhausen que, tirándose de su propia cabellera, consiguió sacar su caballo, sobre el que cabalgaba, de la ciénaga donde ambos se hundían. Contra este argumento sólo valdría el postulado de un ser eterno, que jamás hubiera tenido un principio, pero sería la eternidad de un ser absolutamente inmutable; a cualquier novedad, real o aparente, inherente o exterior a él, se le aplicaría el argumento anterior. Finalmente, Max Planck expresa su preferencia a favor de la hipótesis determinista: Y aquí debo expresar firmemente mi propia creencia de que es preferible la hipótesis de una rigurosa causalidad dinámica, simplemente porque la idea de un universo gobernado por la ley de la causalidad es de una más amplia y profunda aplicación que la hipótesis meramente estadística, que empieza restringiendo el campo de la investigación, ya que en la física estadística sólo se dan leyes que se refieren a grupos de sucesos. Los sucesos individuales, como tales, se consideran que existen y se les reconoce expresamente; pero la cuestión de su secuencia causal se declara a priori no tener sentido. Este modo de proceder me resulta altamente insatisfactorio. No he podido encontrar, hasta el presente, la más leve razón que nos obligue a abandonar la hipótesis de un universo regido por la ley de la causalidad, ya se trate de investigar la naturaleza de las fuerzas naturales o espirituales que nos rodean. Textos traducidos de la obra mencionada.