El Seminario de Filosofía y Matemáticas de l’Ecole Nórmale Supérieure de París, que viene celebrándose desde hace años bajo la dirección de tres científicos franceses, J. Dieudonné, M. Loi y R. Thom, dedica sus esfuerzos a suscitar y fomentar el debate de ideas que el impetuoso desarrollo de las matemáticas ha provocado en el mundo entero. Matemáticos, lógicos, filósofos, físicos, lingüistas, especialistas en informática, confrontan durante estos seminarios su propia relación de producción, de utilización, de reflexión o de difusión con las matemáticas. Asi pues, pese a que, al hojear este libro, el lector no especialista encuentre fórmulas y gráficos aparentemente incomprensibles, no debería asustarse porque, de hecho, de lo que aquí se habla ya forma parte integrante, quiéralo o no, de nuestra cultura y de su propia vida cotidiana. Esta antología de textos, provenientes de las conferencias dictadas y debatidas durante este Seminario, se centra particularmente en la relación crucial de las matemáticas con el lenguaje por una parte y, por otra, con la realidad. Así es cómo estudios filosóficos y análisis históricos van trazando las grandes corrientes del pensamiento matemático. De los doce autores que participan aquí en este debate, todos grandes especialistas en sus propias áreas de estudio e investigación, destacamos en especial a tres, más conocidos internacionalmente, no sólo entre científicos, sino también en el ámbito más amplio de la cultura humanista: B. Mandelbrot, director de Investigación en el Thomas J. Watson Research Center de IBM, en White Plains, Estado de Nueva York, y fundador de la teoría de los fractales, ejerce una gran influencia en materias que van desde la geografía hasta la biología; J.-M. Lévy-Leblond, profesor en la Universidad de Niza y un gran divulgador de las matemáticas en un contexto cultural mucho más amplio que el estrictamente especializado; y, finalmente, R. Thom, miembro del Instituto, profesor en el Institut des Hautes Etudes Scientifiques de Bures-sur-Yvette, París, experto conocido internacionalmente en topología algebraica, Medalla Fields 1958 (equivalente al Premio Nobel en el campo de la matemática) y autor de un libro importante titulado Stabilité structurelle et morphogenése (1972). El artículo de J.-M. Lévy-Leblond, «Física y matemática», es una adaptación de su contribución, con el mismo título, a la Encyclopaedia Universalis, que autorizó su reproducción en esta antología. El artículo de R. Thom, «Matemática y teorización científica», fue publicado anteriormente en el n.º especial («La cultura científica en el mundo contemporáneo», 1979) de la revista «Scientia», que autorizó su www.lectulandia.com - Página 2
reproducción en esta antología.
www.lectulandia.com - Página 3
AA. VV.
Pensar la matemática Metatemas - 004 ePub r1.0 koothrapali 02.02.15
www.lectulandia.com - Página 4
Título original: Penser les mahtémathiques AA. VV., 1982 Traducción: Carlos Bidón-Chanal Diseño de cubierta: Cygnus Editor digital: koothrapali Escaneado: Basabel Retoque de imágenes: mi gatita preferida y Piolin ePub base r1.2
www.lectulandia.com - Página 5
Prólogo Maurice Loi
Creado en 1972 en la Escuela Normal Superior de la Rué d’Ulm, con el estímulo de la sección de filosofía y a fin de permitir la confrontación de ideas vivas sobre las relaciones entre filosofía y matemáticas, el Seminario de Filosofía y Matemáticas ha experimentado un importante desarrollo. La presente colección de textos propone a la consideración del lector una selección de las conferencias allí pronunciadas durante los últimos años. Esta selección ofrece una imagen adecuada de las actividades del seminario, pese a no contener determinadas conferencias de valor, sea porque no existe texto escrito de las mismas, sea porque su carácter técnico ha impedido su inclusión en un libro destinado a un público lo más amplio posible. Cada año se celebran más de veinte sesiones, a menudo con un centenar de participantes: matemáticos, filósofos, físicos, lógicos, lingüistas, biólogos, cibernéticos, informáticos, profesores y estudiantes de las universidades de París y de provincias, alumnos de las Escuelas normales superiores, etc. Este público eminentemente pluridisciplinario es una de las características principales del seminario, debido probablemente al hecho de que la filosofía está aquí en el núcleo del proyecto. No se trata de una simple yuxtaposición de disciplinas inconexas, ni de un imperialismo matemático que desemboca en la matematización de algún enunciado filosófico o literario, cuyo interés sería a menudo discutible; por el contrario, se trata más bien de tentativas de descubrir la historia oculta en las teorías que empiezan a esbozarse, sin por ello desdeñar los resultados definitivamente alcanzados en las matemáticas del pasado. En un momento en que asistimos a conmociones cada vez más frecuentes, reflexionar sobre las formas del saber y sobre los mecanismos de su producción es una tarea necesaria, y apasionante. De hecho, Wittgenstein se equivocó al pretender que matemáticas y filosofía no tienen ya, en rigor, nada que decirse. Esta posición extrema resulta de combinar un formalismo mezquino con un constructivismo empedernido. Es cierto que la filosofía parece haberse despegado más y más de la ciencia y que ahora, ignorando la antigua tradición de Tales y de Platón, no aprecia en el espíritu de ésta el valor que le corresponde. A finales del siglo XIX, esta tradición conservaba todavía su vigor en Francia, como lo atestigua el primer número de la «Revue de métaphysique et de morale», publicado en 1883; Xavier Léon subrayaba allí la predilección de los filósofos por las ciencias matemáticas, ese gran arte de recursos inagotables, surgido de la inteligencia humana siguiendo el ejemplo de la filosofía.
www.lectulandia.com - Página 6
Hoy, sin embargo, esta savia nutricia de la especulación filosófica permanece ignorada por la mayoría de los filósofos, que se han vuelto casi mudos por lo que a ella respecta. Por su parte, los matemáticos se encastillan a menudo en los aspectos técnicos de su arte y desprecian lo que les parece vana palabrería, sin apercibirse de que, cuanto más progresa una ciencia, tanto más necesitada está, para permanecer auténtica, de un campo reflexivo, de una conciencia en el sentido de Husserl. Porque la ciencia no constituye un mundo aparte, como pretenden algunos positivistas contemporáneos; sus raíces se hunden en la cultura de un pueblo a la que nutre en reciprocidad. Aislar una teoría de aquel movimiento de ideas que la ha introducido y de las intenciones que la han acompañado, considerarla únicamente como un cuerpo de teoremas que hay que demostrar, equivale a sustituir un pensamiento vivo y significativo por un pensamiento muerto, ignorando el estremecimiento de la mente que lo concibe. Así, la demostración matemática, ese útil insustituible del pensamiento, corrió pareja con el espíritu lógico de los griegos, con su retórica y su arte. No es extraño, pues, que su pensamiento matemático poseyera un estilo, al igual que la escultura; ni lo es que las estatuas del Partenón daten de un siglo en el que las matemáticas experimentaron un avance sin precedentes. Y ellas, a su vez, contribuyeron al desarrollo de la razón. Quien vive en un mundo pobre en matemáticas no posee la razón formada como la del que vive en contacto con el rigor y la elegancia de los modos de razonamiento matemático. En época más reciente, Albert Lautman pensaba que el amor, la poesía, la contemplación de las obras de arte, las matemáticas, son todas una misma cosa, más real que lo que se cree que es real; no solamente creía en la unidad de las propias matemáticas a través de toda su diversidad, sino también en la unidad de la inteligencia y de la cultura; y esta fe era marca innegable de una vocación filosófica ejemplar. El éxito de nuestro seminario es tanto más interesante cuanto que se sitúa en contra de ideas recientemente difundidas sobre la inutilidad de la filosofía, cuyo papel en los programas y horarios de la enseñanza es cada vez menor. Sin embargo, la historia de las ciencias nos enseña que la filosofía es a menudo el resorte necesario para descubrimientos científicos fundamentales, que se halla en el origen de una nueva teoría, de un nuevo punto de vista o de una revolución del pensamiento. Así, por ejemplo, el descubrimiento de cosas tan «simples» y «fáciles» como las leyes fundamentales del movimiento, que hoy se enseñan a los niños, requirió un esfuerzo considerable, y a menudo infructuoso, por parte de algunas de las inteligencias más profundas y poderosas de la humanidad. A éstas, no solamente les correspondió descubrir y establecer dichas leyes, sino que tuvieron primeramente de crear y construir el ambiente mismo que hiciera posible tal descubrimiento. Para empezar, fue necesario producir toda una serie de nuevos conceptos y elaborar una idea nueva de la naturaleza, una nueva concepción de la ciencia, o lo que es igual,
www.lectulandia.com - Página 7
una nueva filosofía. Hoy nos resulta casi imposible apreciar en su justo valor los obstáculos que hubieron de superarse para establecer esas leyes, así como las dificultades que las mismas implican y contienen: conocemos demasiado bien los conceptos y principios que constituyen la base de la ciencia moderna; o, dicho más precisamente, estamos demasiado acostumbrados a ellos. Era preciso romper primeramente con la física de Aristóteles, fundamentada en la percepción sensible y resueltamente antimatemática. Esta física se negaba a substituir los hechos de la experiencia y el sentido común por una abstracción geométrica y rechazaba la posibilidad misma de una física matemática al subrayar la incapacidad de las matemáticas para explicar la cualidad y dar cuenta del movimiento. De acuerdo con la física aristotélica, no era posible concebir ni cualidad ni movimiento en términos de esos entes abstractos que son las figuras y los números. Como Alexandre Koyré subrayó con claridad, para avanzar se hacía preciso cambiar de filosofía y desarrollar una concepción matematizable del movimiento en el marco de un nuevo sistema. Seguramente es por ello por lo que Galileo empezó por discutir largo y tendido las objeciones tradicionales de los aristotélicos en su Diálogo sobre los dos máximos sistemas del mundo, persuadido de que era inútil presentar de buenas a primeras pruebas a inteligencias incapaces de captar el alcance de las mismas. Había que comenzar por reeducar a esas inteligencias. Pero Galileo se enfrentaba con adversarios potentes, paladines de la tradición y, sobre todo, defensores del sentido común, el sentido de quienes no están habituados a pensar matemáticamente. Ahora bien: la interpretación matemática de la experiencia constituye el fundamento de la nueva ciencia. Para Galileo, en efecto, el mundo no podía comprenderse más que matemáticamente; y arrebatado por los éxitos primeros de este método —y quizás, también por un afán de provocación— pudo llegar a dar la impresión de que la experimentación no desempeñaba más que un papel secundario, a lo sumo destinada a ilustrar una teoría que era autosuficiente. Esta concepción, de naturaleza esencialmente filosófica, excedía las capacidades científicas de su época (hubo que esperar a Newton para que, con el cálculo infinitesimal, la teoría hiciera su aparición); pero, con todo, señaló el advenimiento de un nuevo espíritu científico. Dicho espíritu puso de nuevo de actualidad a la filosofía platónica (la del Timeo) con objeto de combatir mejor el aristotelismo que animaba a las concepciones de la ciencia por entonces en boga. Según los aristotélicos, las matemáticas constituyen una ciencia auxiliar que se ocupa de abstracciones y que, por lo mismo, posee menos valor que las ciencias que tratan de las cosas reales. Por el contrario, los platónicos conceden un valor supremo a las matemáticas y les otorgan una posición clave en el estudio de la naturaleza. No fue otra la concepción de Einstein: «El principio verdaderamente creador está en las matemáticas. Por consiguiente, en cierto sentido considero como verdadero que el pensamiento puro puede captar la realidad, como soñaron los antiguos».[1] La audacia de sus posiciones filosóficas desempeñó sin duda un papel nada despreciable www.lectulandia.com - Página 8
en la obra de Einstein como físico, y uno no puede menos que contraponer sus éxitos a las dificultades con que tropezó Henri Poincaré en ese campo. Este último se encontró en desventaja a causa de los aspectos empíricos y kantianos de su pensamiento, aunque dispuso mucho mejor que Einstein del utillaje matemático necesario para la elaboración de las nuevas teorías físicas. Si Einstein admite comparación con Galileo es por haber conjugado una gran libertad de pensamiento, emancipado de la servidumbre a la tradición, con una confianza absoluta en el sometimiento de la naturaleza a leyes matemáticas. No obstante, la filosofía que había guiado a Einstein en sus fructuosas investigaciones sobre las teorías de la relatividad se volvió contra él con ocasión del desarrollo de la teoría cuántica: Einstein poseía la visión de un mundo determinista y rechazaba, para repetir su expresión, «la idea de un Dios que juega a los dados», es decir, la idea de leyes físicas formuladas en términos de probabilidades. Así pues, no todas las filosofías ayudan al sabio, y hay una labor que es indispensable: la de descubrir aquéllas que, en unas determinadas circunstancias, desempeñan un papel positivo. Tal papel pudieron desempeñarlo en el pasado ideas que ya no comprendemos o que juzgamos erróneas. El sectarismo y el dogmatismo son siempre los principales peligros. Por ello nuestro seminario no es el de una filosofía matemática determinada: en él se presentan y discuten ideas diferentes, incluso opuestas. De alguna manera, nuestra divisa es la de Saint-Exupéry: «Quien difiere de mí me enriquece». Ello nos obliga a permanecer a la escucha de la ciencia en marcha, a mostrarnos preocupados por extraer las ideas puestas en práctica en las teorías, a la manera como lo hicieron Gonseth y Lautman. No ha lugar a una filosofía temerosa ante las matemáticas y ampulosa en sus presupuestos, cuya principal preocupación fuera la de hallar su justificación a posteriori en los fantasmas de una ciencia obsoleta. Desgraciadamente, la solución de continuidad aparecida desde principios de siglo entre filosofía y matemáticas constituye un terreno propicio para ciertas ideas desfavorables a la filosofía. ¿Cuáles son, en 1981, los filósofos que se ocupan siquiera un poco de matemáticas vivas? Es cierto que, inversamente, son numerosos los matemáticos que se niegan a discutir de su especialidad y se encastillan en cuestiones puramente técnicas, ignorantes de todo aquello que amenace con alejarlos de ellas; incluso, so pretexto de subjetividad, dejan de lado en sus enunciados todo lo que no haya recibido la consagración de una formulación axiomática. Cuando esta actitud afilosófica no es fruto de los constreñimientos que conlleva la producción matemática, un examen atento pone a menudo de manifiesto en ella una gran indiferencia, cuando no un singular desprecio, por la filosofía del prójimo, más que por la filosofía en tanto que tal. Porque, a título individual, la mayoría de estos matemáticos posee opiniones más o menos claras y coherentes sobre la naturaleza de los entes matemáticos, sobre la importancia de tal o cual concepto, e incluso sobre las relaciones entre las matemáticas y las disciplinas afines, cosas todas ellas
www.lectulandia.com - Página 9
constitutivas de una posición filosófica. Desde el punto de vista de la práctica matemática, una tal actitud quizás no tenga, a corto plazo, consecuencias lamentables; pero, en el caso de que llegara a generalizarse, cabría preguntarse por el devenir de las matemáticas. Pues si desde los griegos las matemáticas han dado el ejemplo de una unidad perfecta, ello ha sido porque, generación tras generación, algunos matemáticos se han preguntado sobre la naturaleza profunda de las matemáticas, sobre sus líneas directrices y fecundantes; y porque han sabido extraer de su reflexión los elementos unificadores. Este trabajo de unificación siempre se ha llevado a término en el sentido de una generalización creciente, aportando sin cesar al matemático nuevos objetos de estudio y, por ello mismo, regenerando el Cuerpo de las matemáticas. Inversamente, las filosofías de las ciencias que han dado pruebas de una mejor adecuación han sido siempre las que se han enfrentado con los trabajos científicos de su época. Ello no significa que la filosofía de las ciencias haya de desdeñar la posibilidad de volver su mirada a las producciones de los siglos pasados. Al interesarse por la génesis de los conceptos matemáticos de hoy día, el filósofo le proporciona al matemático la ilustración histórica indispensable para una buena comprensión de las grandes corrientes del pensamiento matemático contemporáneo. Éstas son las ideas que han servido de guía a los autores y realizadores — científicos y filósofos— de este libro. En él se encuentran tres tipos de textos: unos que se interesan por mostrar cómo han surgido conceptos matemáticos tan importantes como el de continuo, la noción de función, o el de infinito; otros donde se discuten los métodos y las ideas subyacentes en las teorías contemporáneas; otros, por fin, consagrados a mostrar la diversidad de interacciones existentes, a la vez, en el seno de las matemáticas y con las otras disciplinas. Esperamos convencer así a nuestros lectores de que las matemáticas sin filosofía son ciegas, mientras que la filosofía de la matemática sin matemáticas vivas es vacía.
www.lectulandia.com - Página 10
Primera parte
De las matemáticas a la realidad
www.lectulandia.com - Página 11
Algunas observaciones sobre el trato que recibe el continuo en los Elementos de Euclides y en la Física de Aristóteles Maurice Caveing
En la historia del pensamiento científico, la noción de continuo ha hecho su aparición y experimentado transformaciones ya sea en el dominio de las matemáticas, ya sea en el de la física, y a veces de un modo solidario. Sobre este extremo, los antiguos griegos habían alcanzado una concepción que se mantuvo como clásica durante largo tiempo, y que constituye el objeto de las observaciones que siguen. En la actualidad, el matemático dispone de teorías y de métodos que le permiten utilizar dicha noción con seguridad, pero existen ciertos problemas de orden epistemológico, y en particular el siguiente: ¿constituye el continuo un dato primitivo e intuitivo al que los conceptos matemáticos no tendrían sino que determinar progresivamente, de manera cada vez más completa y precisa? Además, las doctrinas filosóficas no son unánimes en cuanto a la naturaleza del pensamiento intuitivo: unas ven en él una evidencia cuya garantía de verdad sería la propia razón; mientras que otras lo consideran la captación inmediata, por medio de los sentidos, de un dato presente en el objeto «real», es decir, en el objeto inductor de la percepción. En el transcurso de esos debates, se ha requerido a la historia de las matemáticas. En especial, se ha afirmado a menudo que la geometría de los griegos era «más cercana a la intuición» que las matemáticas de la época moderna. De acuerdo con este punto de vista, la intuición del continuo sería, por tanto, un dato de base, del cual hubieron de partir los geómetras en los comienzos de la ciencia. ¿Resiste esta tesis un examen histórico preciso? Éste es el punto que quisiéramos discutir, consultando para ello el texto de los Elementos de Euclides. En efecto, puesto que presentan el primer conjunto teórico bien constituido que haya llegado hasta nosotros, parece que ha de resultar instructivo buscar en ellos cuál era el tratamiento que se le daba al continuo en el siglo III antes de nuestra era, para tratar luego de precisar la índole de esta noción en el pensamiento griego.
1. Un certificado de ausencia La primera constatación resulta negativa: si se busca en Euclides el enunciado explícito de un principio de continuidad, no encontramos nada. Por supuesto, nadie
www.lectulandia.com - Página 12
espera encontrar enunciados del mismo tipo que el de aquéllos que nosotros, los modernos, debemos a Dedekind o a Cantor y que, al dar una definición de los números reales, hacen explícita su estructura de conjunto perfecto y conexo, es decir, de conjunto continuo.[2] En Euclides, la atmósfera es muy distinta; el lenguaje que se habla es el de las «magnitudes», y de lo que se trata es de medirlas sin emplear los números reales, sino tan sólo razones enteras. Uno podría sin embargo figurarse que, a propósito de las magnitudes, o por lo menos de las longitudes, se menciona en algún lugar del tratado un principio análogo al nuestro, que afirme la existencia, en determinadas condiciones, de tal o tal punto de la recta. Por ejemplo, sería de esperar que así sucediera al tratar de la inconmensurabilidad de dos segmentos rectilíneos. En realidad, no hay nada de eso. La ausencia de un tal principio hace culpables de insuficiencia a varias demostraciones del libro I de los Elementos. Es sabido que las demostraciones de existencia de figuras que presentan tal o tal propiedad se suministran mediante construcciones efectivas, por combinación de rectas y de círculos obtenidos merced a los postulados 1, 2 y 3. Pero nada se afirma que concierna a la existencia de los puntos de intersección, a excepción del punto cuya existencia se afirma en el postulado 5 (punto donde se cortan las rectas que forman, con una misma secante y del mismo lado de ésta, ángulos interiores cuya suma es inferior a dos rectos). Las demostraciones deficientes son las de las proposiciones 1 y 22 (intersecciones de dos círculos), y 12 (intersecciones de un círculo y una recta); igual laguna se constata en el libro III. Si se introduce la siguiente proposición: «Si todos los puntos de una línea recta pueden repartirse en dos clases tales que cada punto de la primera clase esté “a la izquierda” de cada punto de la segunda clase, entonces existe un punto y uno sólo que produce esta partición de todos los puntos en dos clases o división de la línea recta en dos partes», proposición que constituye el postulado o axioma de Dedekind[3] para los puntos de la recta, en ese caso es posible demostrar que, por una parte, si una línea recta tiene uno de sus puntos en el interior de un círculo y otro en el exterior, entonces tiene dos puntos en común con él; y, por otra parte, el teorema equivalente para el caso de dos círculos resulta también demostrable. De esta manera, las demostraciones deficientes pueden completarse convenientemente. Por lo común, estos hechos se interpretan diciendo que Euclides se contentó con captar intuitivamente la continuidad y no enunció el principio de continuidad. Sin investigar más a fondo, se admite que el matemático griego confía en la información que le proporcionan las figuras geométricas. Así pues, lo que, bajo el nombre de intuición, le serviría de guía al pensamiento matemático sería, de hecho, una sugerencia de la representación empírica, un elemento exterior. Pero ¿quién nos asegura que una tal representación habría de sugerir necesariamente la continuidad? Una línea trazada en la arena ¿es o no es continua? Y la arena ¿difiere o no fundamentalmente de la arcilla, la pizarra o el mármol? En realidad, hay aquí un nudo
www.lectulandia.com - Página 13
entero de hipótesis, que gravitan sobre una interpretación vulgarizada de la matemática griega y que requieren una comprobación cuidadosa. En consecuencia, es preciso considerar las cosas más de cerca.
2. Los postulados explícitos En efecto, si bien el principio de continuidad no está enunciado en los Elementos, el término «continuo» aparece en cambio mencionado, aunque, salvo error, ello sucede una sola vez y en una expresión con valor adverbial. Con todo, como esta mención se produce en una de las proposiciones preliminares, a saber en el postulado 2 mismo, vale la pena detenerse en ello. Recordemos que el postulado 1 requiere que sea posible trazar una «línea recta»[4] desde un punto cualquiera a cualquier otro punto. Aunque a veces se haya creído posible defender que la división de las proposiciones preliminares en definiciones, axiomas y postulados no era de Euclides, subsiste el hecho de que la estructura lingüística de esos enunciados está diferenciada: los postulados vienen precedidos por la fórmula «postúlese que…». Según la teoría desarrollada por Aristóteles, los postulados son hipótesis de un tipo particular, hipótesis controvertibles, es decir, contrarias llegado el caso a la opinión ajena, y en particular a la de quien empieza a estudiar matemáticas. En el presente caso, la controversia sólo puede suscitarla un principiante impregnado de prejuicios empiristas, que pondría en tela de juicio la posibilidad de que existiera alguna otra «recta» además de la trazada materialmente; la cual, naturalmente, no es recta, ni tampoco es, por lo demás, una línea, puesto que ésta, de acuerdo con la definición 2, ha de ser una longitud sin anchura. Parece ser que los sofistas opusieron este tipo de objeciones a los matemáticos. Nótese además que, de acuerdo con la definición 1, un punto es aquello de lo que no existen partes; lo cual, y puesto que la noción de «parte» figura en los axiomas y en el libro V como esencial para la noción de «medida», significa que un punto es un objeto de medida nula según todas las dimensiones. Por consiguiente, el postulado 1 requiere que, de un objeto de medida nula a otro, se pueda trazar una «longitud sin anchura» que, además, sea «recta». No hay que decir que el objeto «recta» es un objeto ideal, cuya existencia no puede ser admitida por el empirista radical. No obstante, si quiere hacer matemáticas, se le pedirá precisamente que la admita en calidad de hipótesis. Determinado por las definiciones 1, 2, 3 y 4, el objeto ve postulada su existencia en el postulado 1: ello está completamente de acuerdo con la doctrina de Aristóteles, que exige que la existencia de los objetos primitivos de la ciencia matemática se afirme en hipótesis preliminares; las definiciones, en efecto, no dicen nada acerca de la existencia del objeto definido. Los resultados precedentes son completamente válidos para el postulado 3, que www.lectulandia.com - Página 14
requiere que, a partir de cualquier centro y a una distancia cualquiera, pueda describirse un círculo, definido en la definición 15, cuya circunferencia sea, también, una línea ideal: se trata por consiguiente de la operación de un compás ideal de la misma manera en que el postulado 1 suponía una regla ideal, cosa que muchos olvidan al hablar de «geometría de la regla y el compás». Entre ambos postulados se inserta el postulado 2, que requiere que una recta finita pueda prolongarse en línea recta continuamente, en sentido literal: «según lo continuo» (ϰατά το συνεχής). ¿Cuál es el sentido de este postulado? Los comentaristas insisten por lo general en la idea de que la recta ha de prolongarse de una única manera; es decir que, en cada sentido, la prolongación debe ser única. La unicidad de la prolongación «en línea recta» equivale, pues, a enunciar que dos rectas distintas no pueden tener un segmento común. Este comentario se remonta a Proclo de Licia. En cambio, la expresión «según lo continuo» apenas se comenta. Ahora bien, dicha expresión significa que el extremo del segmento prolongado —cuyo extremo, de acuerdo con la definición 3, es un punto— situado en el lado por el cual se prolonga, es también el extremo del segmento que constituye la prolongación. En Aristóteles, que precede a Euclides aproximadamente en medio siglo, se lee en efecto: «Digo que hay continuidad cuando uno y otro de los extremos por los que dos cosas se tocan no son sino una única y misma cosa y, como el nombre indica, están unidos» (Física, V, 3, 227 a 10-12). El adjetivo neutro del griego corresponde efectivamente al verbo que significa «mantenerse juntos» o «estar unidos con», es decir, «el uno con el otro»; la formación de dicho verbo se encuentra como calcada en el latín contenere, base de continuum, de donde proviene el término castellano. Así pues, la metáfora que sustenta a la semántica del término es la misma. Constatamos así que Euclides emplea la expresión en cuestión sin definirla previamente, como si fuera conocida por otro lado, pero aceptada en matemáticas. Aristóteles había proporcionado efectivamente una definición de la misma; desde luego, dicha definición estaba situada en el nivel de lo físico, pero recordemos que, merced a la teoría de la abstracción,[5] las nociones físicas pueden, de acuerdo con Aristóteles, penetrar con forma abstracta en el dominio de la matemática. Precisamente de ello se ocupa el postulado 2; por medio de él, un objeto al que se considera como exterior a las matemáticas queda establecido como paradigma de una operación de geometría: la prolongación de un segmento de recta debe hacerse según lo continuo. Por esta razón el término no se vuelve a mencionar en el resto del tratado: de lo que éste habrá de ocuparse es del objeto «recta» obtenido según este esquema. El postulado 2 se refiere así, en realidad, a tres cosas: la unicidad de la prolongación; la «continuidad» según la cual debe hacerse dicha prolongación; es decir, la conexión de la recta resultante de ella;
www.lectulandia.com - Página 15
la naturaleza ilimitada de la recta, obtenida por iteración indefinida de la prolongación, que debe en consecuencia interpretarse no como un infinito actual, sino como un infinito potencial,[6] conforme, otra vez, a la doctrina aristotélica. Tomados conjuntamente, los postulados 1 y 2 requieren que se admita en geometría la existencia del objeto «recta ideal potencialmente ilimitada» determinada por todo par de puntos. Dentro del marco limitado de las presentes «Observaciones», es difícil entrar en el detalle de los efectos que estos postulados tienen en el resto del tratado de Euclides. Contentémonos con indicar los dos resultados principales que permiten alcanzar: se trata de la demostración de la existencia de la n-ésima parte y de la magnitud llamada «cuarta proporcional», para los segmentos de recta y las magnitudes que de allí se derivan, a saber las áreas poligonales y los volúmenes paralelepipédicos. Para el resto de las figuras y las magnitudes en general, dichas existencias habrían de postularse explícitamente y añadir los postulados resultantes. La existencia de la n-ésima parte establece la propiedad de divisibilidad simple de una magnitud por un entero. En cuanto a la «cuarta proporcional», recordemos que consiste en lo siguiente: dadas tres magnitudes A, B, C (siendo A y B de la misma especie), se afirma que existe una magnitud X (de igual especie que C) que es a C como B es a A; es decir, que se enuncia la equivalencia entre la razón C/X y la razón A/B, incluso en el caso de que dichas razones no posean expresión numérica (en números enteros para A, B, C). Es fácil darse cuenta de que la afirmación de la existencia de esta magnitud en general constituye un sustituto débil del axioma de continuidad de Dedekind, antes citado. En particular, permite asimismo definir una suma entre las razones de magnitudes.
3. Las postulaciones implícitas El uso de proposiciones no explícitas se descubre principalmente en el funcionamiento del método llamado de «exhaución». Es sabido que se trata de un método para realizar mediciones finas, cuyo principio Euclides se procura en la proposición 1 del libro X y que se utiliza sobre todo en el libro XII, a propósito del área del círculo y de los volúmenes de la pirámide, el cono, el cilindro y la esfera. La existencia de la n-ésima parte y de la «cuarta proporcional» se admiten entonces implícitamente. Además, hay que hacer notar el uso implícito de las dos proposiciones siguientes:
www.lectulandia.com - Página 16
Para dos magnitudes de la misma especie A, B, se da siempre una de las tres situaciones siguientes: A = B, A < B, A > B. Para dos magnitudes de la misma especie A, B, existe un n ∈ ℕ y n magnitudes Bi (i = 1, 2, 3, …, n), cada una de ellas igual a B, tales que: B1 + B2 + B3 + … + Bn > A
El primer enunciado es el del orden total, que, para nosotros, está relacionado con la idea de compleción desde el punto de vista de la continuidad. Esta propiedad, que Euclides no explicita, está mencionada por Platón (Parménides, 161 D 5-9) y por Aristóteles (Metafísica, X, 5, 1056 a 12, 1056 a 20): ¿constituye ello un indicio de que el principio se consideraba, más bien, como lógico-metafísico? El segundo, es un lema fundamental que más tarde fue enunciado por Arquímedes, quien lo presentó como un postulado utilizado por Eudoxo, uno de los predecesores de Euclides. Por otra parte, parece que Aristóteles, quien conoció a Eudoxo, alude a dicho lema en la Física (VIII, 10, 266 b 1-4). Combinando el lema con la propiedad simple, se demuestra la divisibilidad indefinida o ilimitada de las magnitudes, resultado éste de suma importancia que constituye precisamente el principio del «método de exhaución». Desde el punto de vista moderno, el «axioma de Arquímedes» o «de la medida» puede deducirse del axioma de continuidad de Dedekind. Puesto que Euclides está situado cronológicamente entre Eudoxo y Arquímedes, sería de esperar que encontráramos en su obra el lema debido al primero y que recibe el nombre del segundo. Y, en efecto, se encuentra; pero disimulado, por decirlo así, en la definición de la razón de dos magnitudes, es decir, la definición 4 del libro V: «Entre dos magnitudes A, B (A > B) existe una razón de la una con la otra si y sólo si existen enteros mi, ni, tales que: … > m2A > n2B > m1A > n1B > A». Más adelante, con referencia sin duda a esta definición, se enuncia el lema como cayendo de su peso en el transcurso de la demostración de la proposición X, 1, donde resulta indispensable para establecer la divisibilidad ilimitada que constituye el objeto del teorema. De esta propiedad resulta que una sucesión decreciente de magnitudes de la misma especie, como por ejemplo, longitudes, no posee mínimo. En particular, ese mínimo no puede serlo el punto, puesto que éste no es una magnitud: ello queda reflejado por la definición I, 1, que enuncia que el punto no posee «parte» alguna, es decir, que no puede ser «medido» por nada. Además, está claro que no existe medida
www.lectulandia.com - Página 17
común a todas las magnitudes de una misma especie, puesto que tal medida común constituiría un mínimo. De esta manera, uno se ve llevado a la idea de inconmensurabilidad. La proposición X, 2, que se deriva de la anterior, proporciona por lo demás inmediatamente un criterio de inconmensurabilidad para dos segmentos rectilíneos: es necesario y suficiente un algoritmo que, en cada uno de los segmentos, permita descender por debajo de cualquier magnitud prefijada, tan pequeña como se quiera. Este algoritmo es el «algoritmo de Euclides», bien conocido para el caso de los números enteros (proposición VII, 1) y aplicado aquí a las magnitudes. Si la menor de las magnitudes se resta de la mayor tantas veces como sea posible; y si a continuación se hace lo propio con el resto de esta operación y con la menor de las dos magnitudes, y así sucesivamente, cada vez se le resta, a cada magnitud, más de su mitad: si el proceso es ilimitado, nos encontramos en el caso de la proposición X, 1, que utilizaba la mera dicotomía para la división, y resulta posible descender por debajo de cualquier magnitud finita dada de antemano, de donde se sigue la ausencia de medida común. Para que el proceso sea ilimitado, basta con que sea periódico, es decir, que pueda demostrarse que dos restos sucesivos son proporcionales a los segmentos que se comparan: la proporción se reproducirá de nuevo y, en consecuencia, indefinidamente. Ello puede ocurrir si se da una relación entre los segmentos que se comparan; por ejemplo, entre los cuadrados construidos sobre ellos. Los cocientes sucesivos que se obtienen son periódicos y nos encontramos con la fracción continua ilimitada que desarrolla a la raíz cuadrada. El libro II de los Elementos basta para el cálculo de estos cocientes. Por ejemplo, en el caso de la diagonal D de un cuadrado de lado A, las reducidas de la fracción continua, por defecto y por exceso alternativamente, conducen a las siguientes desigualdades: 1D > 1A 3A > 2D 5D > 7A 17A > 12D 29D > 41A Los enteros p, q que intervienen en esas desigualdades son raíces de la ecuación: p2= 2q2 ± 1, p > q, y las fórmulas de recurrencia que permiten formarlas son bien conocidas. Está claro que, buscando los mínimos comunes múltiplos de esos números, puede formarse una sucesión única de desigualdades:
www.lectulandia.com - Página 18
… > 7395 D > 10455 A > 7380 D > 10332 A > 6888 D > …, que define sin ambigüedad la razón D/A; los números obtenidos no son sino los enteros mi, ni, que requiere la definición 4 del libro V citada anteriormente. Se ve de este modo que dicha definición, así como la siguiente, que define la proporcionalidad por la identidad de dos sucesiones de ese tipo para dos pares de magnitudes, constituyen generalizaciones geniales de esos resultados, merced a la introducción de equimúltiplos cualesquiera para las correspondientes magnitudes de ambos pares. Al mismo tiempo, se comprende de qué manera pudo derivarse el lema de Eudoxo a partir de la base operatoria técnica que constituía el algoritmo de las sustracciones alternadas, proseguidas indefinidamente y con carácter periódico, que sirvió en un principio para hallar aproximaciones de la raíz cuadrada. Y se comprende también cómo se constituye la teoría según una vía regresiva a partir del proceso operatorio, remontándose hacia sus presupuestos; y cómo el enunciado con carácter axiomático, una vez extraído y situado como lógicamente anterior, sirve para justificar la sucesión de enunciados integrada por: def. V, 4, def. V, 5, prop. X, 1, prop. X, 2, y, por fin, el uso del propio algoritmo.
4. Inconmensurabilidad y continuidad Es muy necesario tener presentes las características del resultado obtenido. El razonamiento que lleva a la prueba de la inconmensurabilidad de dos segmentos sólo se basa en los puntos racionales de cada uno de dichos segmentos, puesto que se apoya en la dicotomía reiterada. Pero la parte que se resta en cada etapa es siempre superior a la mitad y, por ello, puesto que los dos segmentos intervienen juntos en un proceso de comparación, el razonamiento concierne a los puntos irracionales. El resultado se basa en los puntos racionales de cada uno de dichos segmentos, no existe un punto racional que corresponda al extremo del menor, supuestos confundidos los otros dos extremos y que el menor se aplica sobre el mayor. No se afirma que exista un punto irracional. Ello es lo que expresa el término, de formación privativa: inconmensurabilidad. Por esto no es necesario un axioma de continuidad del tipo del de Dedekind. Basta con el «axioma de Arquímedes» y el orden denso de los puntos racionales. En otras palabras, la continuidad no es inaccesible; pero sólo se alcanza a través de la divisibilidad indefinida, es decir, potencialmente. Importa subrayar, por fin, que la inconmensurabilidad de dos segmentos determinados de una figura debe demostrarse en cada caso que se presente, puesto que aquello de lo que se admite la existencia son las figuras construidas mediante los postulados 1, 2 y 3. Cuando se dan dos segmentos inconmensurables, es ciertamente posible demostrar mediante el libro
www.lectulandia.com - Página 19
V (teoría de las proporciones) que su razón representa una «cortadura de Dedekind» sobre el conjunto de las razones numéricas cuyas propiedades se establecen en los libros aritméticos; pero la recíproca queda fuera de alcance: constituiría, en efecto, una afirmación de existencia equivalente al principio de continuidad, es decir, a la admisión del infinito actual.[7] El trato que Euclides da al continuo y que, sin duda, le dieron antes que él los matemáticos que, desde el siglo V, hicieron progresar la teoría de la inconmensurabilidad, trae consigo una consecuencia fundamental para el pensamiento griego. Se trata, como fácilmente se comprende, de una cierta dificultad para distinguir con claridad entre el continuo y el infinito, el cual, por supuesto, corresponde a lo numerable sin más. Cabe preguntarse si la teoría del infinito potencial elaborada por Aristóteles corresponde a una expresión de la concepción de los matemáticos en el nivel de una física racional; o si hay que pensar, por el contrario, que fue la concepción aristotélica la que influyó sobre los redactores de los Elementos que precedieron a Euclides, o incluso solamente sobre este último en particular. En las condiciones que impone la documentación disponible, ésta es una de las cuestiones más difíciles de zanjar. De todos modos, se impone una primera conclusión: Euclides hace objeto al continuo de un tratamiento muy complejo que, si bien no posee la simplicidad abstracta de nuestra construcción axiomática del conjunto de los números reales, exige con todo que, bien por parte del matemático, bien en el campo lógicofilosófico, se formulen varios principios (orden denso de los puntos de la recta, orden total entre las magnitudes de la misma especie, existencia de la cuarta proporcional, axioma de la medida); lejos de venir dados de entrada en una intuición única y primitiva, dichos principios se manifiestan por el contrario, uno a uno, a través del análisis regresivo de los requisitos de diversos procedimientos operatorios. Incluso la posibilidad de prolongar un segmento rectilíneo viene requerida por un postulado. Así pues, se reconocerá sin duda que la intuición empírica no tiene que ver con la cuestión. Sin embargo, se dirá, no sucede lo mismo con la intuición «racional», siquiera cuando se trata de la que sirve de base para la noción de recta como línea ideal. Nosotros creemos, por el contrario, que esta noción tan importante se adquirió en el transcurso de los progresos realizados en Grecia sobre una base operatoria. Antes del descubrimiento de la inconmensurabilidad, la recta es todavía un objeto que se confunde con sus modelos físicos: trazo gráfico, remate de un templo, etc. Si es esto lo que se entiende por «objeto de la intuición», se cae de nuevo en lo empírico y nada hay en ello que tenga la categoría de una noción matemática. La verdadera naturaleza del objeto «recta», su esencia ideal, se reveló en la operación de medida; más precisamente, en el proceso de medida de un segmento inconmensurable con la unidad de medida: el carácter ilimitado del proceso, que se ha tratado más arriba a propósito del uso del algoritmo de Euclides, revela la existencia, en el seno mismo de la finitud del segmento, de una infinitud que, aun concebida como potencial, no www.lectulandia.com - Página 20
puede pertenecer más que a un objeto ideal, que resulta definido en tanto que tal por ese propio proceso. (Para un objeto empírico, el umbral de percepción se alcanza en un número finito de etapas). Pero no existe ahí ninguna «intuición racional» que, en una evidencia originaria, ponga de antemano en posesión de las propiedades de un tal objeto: éstas han de descubrirse paso a paso, sin excluir que algunas de ellas puedan haberse puesto de manifiesto ya en el período histórico anterior, cuando la recta se confundía indebidamente con sus modelos empíricos, es decir, con su representación. En cualquier caso, los actos operatorios son los que revelan las propiedades objetivas al recorrer la concatenación de las mediaciones necesarias: no existe visión inmediata que las haga aparecer de golpe. Existe sin duda un esquema de orden práctico, el de la dirección, que guía oscura e implícitamente la sucesión de actos operatorios; pero esto nada tiene que ver ya con esa claridad de la mirada o esa luz de la conciencia que implica el término «intuición». Además, la existencia de dicho esquema no implica en absoluto que el espacio visual o el espacio físico hayan de ser euclidianos.
5. Aristóteles y el continuo físico El estudio precedente pone de manifiesto que el continuo se encuentra más bien en el horizonte de trabajo del matemático griego que en el propio campo matemático. Por lo demás, la noción aparece por vez primera en la obra de Parménides como una determinación puramente lógica del Ser, en un sentido antiguo: el Ser es «de una sola pieza». En el plano físico, no existe ninguna evidencia apremiante: los filósofos griegos se hallan divididos; los atomistas son discontinuistas y admiten el vacío, mientras que Aristóteles lo rechaza: para él, el continuo geométrico, «materia inteligible» de las figuras, se obtiene por abstracción a partir del continuo físico. Pero el análisis de este último debe mucho a los resultados alcanzados por los matemáticos a propósito del primero. Así, Aristóteles, ya al principio de la Física, afirma la solidaridad entre las nociones de continuidad y de divisibilidad hasta el infinito: ya hemos visto las razones matemáticas de ello. «El continuo, dice, es divisible hasta el infinito» (Física, I, 2, 185b 10), o también: «En el continuo, el infinito aparece en primer lugar; por ello las definiciones que se dan del continuo resulta que a menudo utilizan la noción de infinito, por cuanto que el continuo es divisible hasta el infinito» (ibid., III, 1, 200b 18-20). Esta tesis se repite constantemente, y las citas podrían multiplicarse; por ejemplo: «Llamo continuo a lo que es divisible en partes siempre divisibles» (ibid., VI, 232b 24-25). En estos textos constatamos el defecto señalado más arriba: la ausencia de una distinción clara entre el continuo y el infinito numerable. En algunos pasajes, la alusión matemática es transparente: en el libro III, 6, 206b 5-12, Aristóteles indica que, si de una magnitud se resta una parte y al resto, luego, se
www.lectulandia.com - Página 21
le resta la misma parte de dicho resto, y así sucesivamente, nunca se agotará la magnitud en un número finito de sustracciones, sino que la suma de las partes sustraídas converge hacia la magnitud finita de partida; por el contrario, si se sustrae cada vez la misma parte del total, lo que equivale a tomar cada vez una parte mayor del resto, la magnitud se agotará en un número finito de sustracciones. Se ve claramente que, de cualquier manera, la base del análisis la constituye la infinidad numerable de los puntos racionales. De acuerdo con este texto, resulta verosímil que existiera ya entre los matemáticos contemporáneos de Aristóteles una proposición análoga a la de Euclides (proposición X, 1). Vemos también hasta qué punto resulta poco afortunada la expresión «método de exhaución» inventada en el Renacimiento, puesto que, precisamente, desde el punto de vista griego, la magnitud a la que el método se aplica no se «agota» en absoluto, ya que el paso al límite no se realiza. Por lo demás, es por ello, explica Aristóteles, por lo que el infinito sólo existe «en potencia», puesto que lo es en el sentido de que lo que se sustrae es siempre nuevo; es decir, limitado sin duda, pero distinto cada vez (206a 27-29), a saber la misma parte del resto, que cada vez es una parte del total menor que la precedente (1/2n), de manera que siempre hay algo que queda fuera de la suma de las partes sustraídas, que es por esto ilimitada (206b 33-34). Puesto que el universo físico de Aristóteles está cerrado por la esfera de las estrellas fijas, no existe infinito en acto, sino solamente ese infinito potencial que se pone de manifiesto en la división indefinida de las magnitudes, tanto físicas como geométricas: «El infinito siempre está envuelto en lo finito» (ibid., III, 6, 207a 25); «en el sentido de la disminución se excede cualquier magnitud» (ibid., III, 7, 207b 45). Aristóteles se esfuerza, en fin, en señalar que la doctrina del infinito en potencia no incomoda en absoluto a los matemáticos: «No afecta a la teoría matemática, puesto que los matemáticos no necesitan del infinito ni hacen uso de él, sino tan sólo de magnitudes tan grandes como se quiera, pero finitas; y la división que se realice sobre una magnitud muy grande puede aplicarse en igual razón a otra magnitud cualquiera, de manera que ello no supone diferencia alguna para la demostración» (ibid., III, 7, 207b 27-34). Es éste un texto notable que concentra, en un penetrante resumen, las ideas matemáticas que aparecen en el postulado 2 de Euclides, en el lema de Eudoxo, en el principio de divisibilidad simple (existencia de la n-ésima parte) y en el de la existencia de la «cuarta proporcional»; es decir, todo lo que se necesita para demostrar la divisibilidad ilimitada en Euclides, Elementos, proposición X, 1. Pero, al elaborar una teoría de la «física», es decir, de la naturaleza, Aristóteles está obligado a llegar más lejos que el matemático: este último aferra sus demostraciones en definiciones e hipótesis que, como tales, bastan para su ciencia, ya que ésta se refiere a entes abstractos. Ahora bien, según Aristóteles, la hipótesis fundamental del físico es la existencia real de la naturaleza; y la teoría de la naturaleza queda, por consiguiente, obligada a dar cuenta de la constitución real del www.lectulandia.com - Página 22
continuo, y no solamente de las operaciones que es posible realizar sobre él. Por esta razón, Aristóteles tratará de elucidar lógicamente la estructura misma del continuo.
6. La estructura del continuo El problema que se plantea entonces es el de la relación entre un continuo y sus partes, pues «no existe ningún continuo sin partes» (ibid., VI, 2, 233b 31); y, por otro lado, entre un continuo de dimensión n y los elementos de dimensión n − 1, o sea, en la práctica, entre una recta y sus puntos. A título de observaciones preliminares, cabe recordar las páginas en que Aristóteles, al tratar del tiempo, que es él mismo continuo, enuncia algunas proposiciones relativas al instante que valen también para el caso del punto situado sobre la línea: «El tiempo es continuo por el instante y divisible según él» (ibid., IV, 11, 220a 4-5); «en cierto modo, esto es consecuencia de lo que sucede para el punto, que hace continua a la longitud y también la limita; pues es, en efecto, el comienzo de una parte y el final de otra» (ibid., 220a 9-11). La idea se repite luego con otra forma: «En cuanto a la definición, el mismo punto no es siempre uno, pues es otro cuando se divide la línea [Aristóteles quiere decir que un punto de división es un punto doble, extremo de uno y otro de los dos segmentos determinados sobre la línea], pero en cuanto se toma como uno, es el mismo en cualquier concepto [es decir, en sí mismo y por su definición] (…): limita y unifica las dos partes» (ibid., IV, 12, 222a 16-19). Euclides expresará esta idea diciendo que los extremos de una línea son puntos (libro I, definición 3), enunciado que explicita la relación entre el punto (definición 1) y la línea (definición 2). La idea tiene como corolario que el punto no es una «parte» de la línea. Con lo que nos encontramos ante la tesis fundamental: «El instante no es parte del tiempo, como tampoco los puntos lo son de la línea; las partes de la línea son líneas» (ibid., IV, 11, 220a 19-21). El camino a seguir para establecer esta tesis fundamental es bastante largo. En primer lugar, Aristóteles tiene que enunciar varias definiciones relativas a las nociones que intervienen en la definición de la continuidad. Lo hace en el libro V de la Física (§ 3, 226b 18-227b 2); en la Metafísica (K, 12, 1068b 26-1069a 14) figura un resumen de dichas definiciones. Éstas hacen referencia, por supuesto, a seres físicos. La continuidad es una especie de contigüidad en la que los extremos de las cosas contiguas constituyen una misma y única cosa y se «mantienen unidos». A su vez, la contigüidad se define mediante la conjunción: la de consecutividad y la de contacto. El contacto queda definido por el hecho de que los extremos están juntos, es decir, no están separados; o también, que coexisten simultáneamente en un mismo lugar. En cuanto a la consecutividad, se dice de las cosas entre las que no se encuentra ningún intermediario del mismo género; es comparable a nuestra noción de sucesor inmediato. Queda por definir la noción de intermediario: para una cosa que
www.lectulandia.com - Página 23
cambia o que se mueve de manera continua, es el término que precede al término extremo. Vemos así que esta sucesión de definiciones es circular y que, coherentemente con la doctrina de Aristóteles, el recurso último lo constituye la noción física central: la noción de movimiento. En un sistema que ignora la relatividad y en el que el movimiento se opone al reposo en términos absolutos, aquél puede en efecto constituir un término de referencia para la continuidad, mientras que el reposo representa la discontinuidad, la interrupción del movimiento. Por otra parte, en la medida en que está relacionada con un sentido de recorrido de la trayectoria, la idea de movimiento proporciona una noción de orden para los distintos puntos de esta trayectoria. Enunciadas esas definiciones, está claro que todo lo que es continuo está en contacto, y que la recíproca es falsa: ello depende de la distinción entre la idea de que los extremos «están juntos» y la idea de que son «una misma y única cosa y se mantienen unidos». Por otra parte, todo lo que está en contacto es consecutivo, pues no existe ningún intermediario del mismo género entre dos cosas en contacto; y la recíproca es falsa, puesto que existen cosas consecutivas separadas por un intermediario de un género distinto y que, por tanto, no están en contacto. Incluso existen cosas consecutivas que no están separadas por ningún intermediario y no por eso están menos separadas, luego no están en contacto: éste es el caso, por ejemplo, de las unidades que constituyen a los números enteros, de acuerdo con la definición de los antiguos (el número de una colección es una pluralidad de unidades). Evidentemente, este tipo de orden de los enteros es el que guía implícitamente la definición de la noción de consecutividad. [8] Provisto de estas nociones, Aristóteles va a establecer la tesis fundamental en el libro VI de la Física, § 1, 231a 17b 18: Tesis: Es imposible la existencia de un continuo a partir de indivisibles. Ejemplo: Si la línea es un continuo y el punto, un indivisible (= un objeto sin partes, cf. Euclides, Elementos, I, definición 1), es imposible que una línea esté «compuesta» por puntos. Demostración: 1.º (de orden «métrico»): Si la línea estuviera compuesta por puntos, el continuo sería divisible en indivisibles, si lo compuesto se divide en aquello de lo que está compuesto; pero ningún continuo es divisible en elementos sin partes. En efecto, los elementos sin partes son de medida nula (Euclides enuncia que una magnitud es parte de otra cuando la mide exactamente, libro V, definición 1; un objeto sin partes no podría medirse, por lo tanto, de ninguna manera); así pues, no pueden formar magnitud alguna componiéndose aditivamente; ahora bien, todo continuo posee una determinada magnitud, y «toda magnitud es continua» (ibid., IV,
www.lectulandia.com - Página 24
219 a 11). 2.º (de orden «topológico»): No puede afirmarse que los extremos de los puntos sean una misma y única cosa, ni aun que estén juntos (porque lo indivisible no posee extremos, ya que éstos implican la existencia de partes). Aristóteles reelabora y detalla inmediatamente esta demostración de la manera siguiente: el continuo implica contacto y el contacto, consecutividad, como hemos visto antes; ahora bien, ni el uno ni la otra son posibles entre los puntos del continuo: A) el contacto es imposible, puesto que a) si tiene lugar entre la parte y la parte, es imposible porque lo indivisible no posee partes; b) si tiene lugar entre el todo y el todo, los puntos en contacto no formarán un continuo (es decir: estarán confundidos), pues el continuo posee partes ajenas las unas a las otras y puede dividirse en partes de manera que algunas de entre ellas estén mutuamente separadas; B) la consecutividad es imposible, ya que, si dos puntos son distintos, tienen a la línea como intermediario (un intervalo); pero, sin embargo, no es posible que exista entre puntos un intermediario de un género diferente; en efecto, si existe un intermediario, será a) o indivisible, b) o divisible, y si es así, entonces será divisible i) o en indivisibles, ii) o en partes que seguirán siendo divisibles; pero, si se da a) o b) i), el intermediario no será de un género distinto sino del mismo género y, por consiguiente, de acuerdo con la definición, no habrá consecutividad; por otra parte, en la situación b) i) no se puede tener el continuo como intermediario, puesto que el continuo implica contacto, hipótesis rechazada en A) para los indivisibles; por fin, si se da b) ii), el intermediario será el continuo: por consiguiente, entre dos puntos existirá otro, por lo menos, y así sucesivamente, con lo que potencialmente se tiene una infinidad de puntos y ninguna consecutividad. Así pues, si no hay ni contacto ni consecutividad posibles entre los puntos del continuo, ello significa que no está «compuesto» de tales elementos indivisibles, QED. Las partes constitutivas del continuo son segmentos del continuo, consecutivos y en contacto, y por consiguiente contiguos, y con los extremos confundidos. Cabe notar que la parte B) de la demostración equivale a mostrar que el tipo de orden de los www.lectulandia.com - Página 25
enteros no es adecuado para los puntos de la línea. El propio Aristóteles extrae, de algún modo, esta conclusión: «No existe una primera parte en un tiempo, ni en la magnitud, ni en ningún continuo en general, pues todo continuo es divisible hasta el infinito» (ibid., VI, 2, 232a 23-25). Los indivisibles, los puntos, no poseen más que una existencia potencial en el continuo, la cual no se actualiza más que en los extremos de un segmento, o cuando se escoge uno de ellos designándolo distintamente. Los indivisibles son los límites del continuo, pero no sus elementos constituyentes. Por lo demás, desde el punto de vista físico, ¿qué significado podría tener la existencia en acto de un indivisible inextenso en la naturaleza?
7. Física, matemática y filosofía Así queda, pues, justificada física y lógicamente la divisibilidad de las magnitudes hasta el infinito que los matemáticos deducen de sus postulados. Aristóteles sólo puede alcanzar el resultado aferrando, él también, la sucesión de sus definiciones —pues hay que detenerse en algún punto— a una hipótesis inicial, pero que es de orden físico: se trata de la continuidad del movimiento. Por lo demás, cita otros ejemplos de continuidad: el injerto, la sínfisis, en el caso de una unidad orgánica, e incluso da ejemplos de orden técnico como la encoladura. El concepto del continuo elaborado por Aristóteles proporciona una base adecuada para aquello de lo que el matemático afirma la existencia potencial: el sistema de los puntos racionales de la recta. Hemos visto que eso es todo lo que precisa la demostración de inconmensurabilidad, la cual no exige más que la prosecución indefinida de un proceso de división sobre cada uno de los dos segmentos que se comparan, y que no afirma en absoluto la existencia de puntos irracionales. La diferencia entre la concepción antigua y la moderna no reside solamente en la distancia que media entre infinito potencial e infinito actual, sino también en el hecho de que el continuo contiene elementos otros que los que aparecen por el análisis de Aristóteles, limitado a la existencia potencial de un sistema numerable. Los referentes físicos de Aristóteles le imponían, por una parte, una noción de orden que, en su época, poco más podía que venir especificada por el orden de los enteros; y, por otra parte, le imponían la exigencia de la conexión de las partes. Es preciso que los elementos de un continuo se sucedan y se fusionen, a la vez, progresivamente. Una vez demostrado que el tipo de orden de los enteros no es el adecuado para los puntos de la línea, y no pudiendo disponer de otro tipo de orden, Aristóteles se hallaba obligado a negar la existencia actual de dichos puntos, salvo en calidad de límites del segmento. En éste, las partes y los otros puntos sólo tienen una existencia potencial: si se distinguen n puntos distintos entre los extremos, (n + 1) partes distintas y consecutivas alcanzan igualmente la existencia actual, y sus
www.lectulandia.com - Página 26
extremos en contacto se fusionan en un solo punto (n veces). El continuo resulta estar representado como una colección bien eslabonada de partes virtualmente separadas por puntos límites; mientras que el punto de vista dual, para el que el continuo sería el conjunto de esos puntos límites virtuales, les estaba reservado a los modernos. Mediante la teoría del infinito potencial, Aristóteles eludía la dificultad de concebir que todo punto de un continuo, aunque posea sucesores, no tiene sin embargo un sucesor inmediato. Sean cuales fueren los argumentos a favor de la existencia del continuo físico que Aristóteles podía extraer de la observación de la naturaleza, es imposible pasar por alto que la demostración rigurosa de la divisibilidad indefinida de las magnitudes sólo se hizo necesaria con objeto de demostrar la inconmensurabilidad, aunque hubiera sido utilizada mucho antes, por ejemplo por Zenón de Elea. Fue la necesidad de acabar lógicamente con la aporía de lo inconmensurable lo que llevó a los matemáticos a precisar sus hipótesis, a perfeccionar sus razonamientos y a elaborar una teoría satisfactoria. Es por tanto más que verosímil que este descubrimiento, sus etapas, sus vicisitudes, sus repercusiones, tengan algo que ver con la convicción expresada por varios filósofos, Aristóteles entre ellos, de que las magnitudes físicas son continuas y sólo en potencia divisibles hasta el infinito. Solamente a costa de ello podían las matemáticas aplicarse a la realidad. Por otra parte, la insistencia con que Aristóteles defiende que el continuo no está compuesto por indivisibles está, quizás, relacionada con la existencia de una tesis de ese tipo en el transcurso de la historia del pensamiento griego. En realidad, pensar conjuntamente el continuo y la divisibilidad era una empresa audaz. Así, en Parménides el continuo aparece por razones exclusivamente de orden lógico-ontológico: la discontinuidad implica la existencia del no-ser, y esta existencia, en sí misma contradictoria, acarrea una serie de contradicciones y, en consecuencia, la imposibilidad de cualquier teoría verdadera. De lo que resulta que el Ser no es susceptible de dividirse, pues ello implicaría que el no-ser pudiera insertarse en él: por lo que, hablando real y verdaderamente, es indivisible. Ante una tal doctrina, se concibe que la divisibilidad de las magnitudes, afirmada por los matemáticos y luego llevada hasta el infinito por la necesidad de concebir la inconmensurabilidad, haya constituido un grave problema. O bien hay que considerar ilusoria a la geometría y rechazarla al mundo de la apariencia, donde todo es sólo opinión, lo que la destruye como verdad científica. O bien hay que establecer una distinción entre una realidad continua indivisible y el universo de los entes matemáticos, lo que equivale a quebrar la univocidad del Ser de Parménides y a internarse en las dificultades de una teoría de las relaciones entre la física y la matemática. Por otra parte, si la tesis de que las magnitudes están constituidas por indivisibles había sido defendida por alguien, por ejemplo por algunos pitagóricos, dicha tesis se hacía insostenible; ya que, según el testimonio de Aristóteles, la doctrina de esa escuela era una ontologia física y, en consecuencia, los
www.lectulandia.com - Página 27
indivisibles debían ser «entes», seres reales. También en este caso se revelaba como indispensable la disociación de los sincretismos arcaicos entre la realidad física, la magnitud geométrica y el número entero. Así pues, las matemáticas impusieron a los estudiosos la autonomía de sus campos operatorios y teóricos a causa de las propias exigencias aparecidas en el curso de su progresión. Pero, para los filósofos, subsistía el problema de salvaguardar su aplicabilidad al conocimiento de lo real, de la naturaleza, del cosmos. No es ahora ocasión para entrar en el análisis de las soluciones que, a este respecto, presenta la historia de la filosofía griega y emprender, en particular, el estudio del papel desempeñado por la doctrina platónica de las Ideas con relación a los problemas que el eleatismo o el pitagorismo habían dejado abiertos. Por lo que hace a Aristóteles, puede decirse que tomó en cuenta la exigencia de Parménides al afirmar, tanto en el plano físico como geométrico, solamente una divisibilidad ilimitada potencial, un infinito en potencia; ello le permitió mantener, a la vez, la concepción de los objetos matemáticos como abstraídos de las realidades físicas y, por consiguiente, ideales pero aplicables a lo real, y la de un universo realmente continuo, que no admitía ni vacío ni átomos, y que era finito. Esta breve incursión en problemáticas que se sitúan más allá del dominio matemático nos parece que desemboca de nuevo en la conclusión ya formulada: en esta historia compleja, no se ve en ninguna parte que el continuo haya sido un dato inmediato, una determinación intuitiva simple. Es un producto elaborado de la meditación ontológica y de la conceptualización matemática.
www.lectulandia.com - Página 28
Matemáticas y realidad física en el siglo XVII (de la velocidad de Galileo a las fluxiones de Newton) François de Gandt
Derivada y velocidad El siglo XVII vio nacer a la vez, poco más o menos entre 1610 y 1690, el cálculo infinitesimal y la ciencia del movimiento. Ambas direcciones de investigación son inseparables; forman parte de un único esfuerzo global por elucidar los fenómenos del movimiento. A menudo, fueron unos mismos personajes quienes enriquecieron, a la vez, la reflexión filosófica, los procedimientos matemáticos y la aprehensión física de la naturaleza. Quisiera mostrar esta imbricación en detalle y recusar un modo demasiado ingenuo de ver las cosas, como sería el siguiente: el físico, que se ocupa de los fenómenos naturales de movimiento, tenía muchas dificultades para estudiar y calcular las velocidades instantáneas; mas, hete aquí que, un buen día, un especialista de otra disciplina, un matemático le suministró los útiles infinitesimales, principalmente, la noción de derivada. De hecho, esta noción nació en el contexto del estudio del movimiento; incluso, en diversos autores la derivada no es sino la propia velocidad. Casi sin exageración, podría decirse que no fue la derivada la que hizo posible definir la velocidad, sino al contrario. En un gran número de textos, la velocidad instantánea es una noción que se da por admitida y que sirve de base para los razonamientos infinitesimales. El ejemplo de Newton es muy claro: su cálculo de «fluxiones» es una comparación entre velocidades de variación. Mi intención aquí es la de seguir ese hilo continuo que va desde la velocidad «física» estudiada por Galileo hasta las fluxiones «matemáticas» de Newton. Elegiré algunas etapas decisivas en el progresivo refinamiento de la noción de velocidad que son asimismo, como es natural, etapas decisivas en el nacimiento del cálculo infinitesimal. Los hombres del siglo XVII manipularon movimientos acelerados y velocidades instantáneas durante bastante tiempo antes de poder precisar qué entendían por ello (cierto que nuestros «pedagogos» de hoy, sobre todo en el campo de las matemáticas, están convencidos de que hay que definir antes que manipular…). No todos los creadores del análisis infinitesimal pueden vincularse a esa corriente, a esa inspiración cinemática. Ni Fermat ni Leibniz, por ejemplo, razonaron de esa manera; por eso no mencionaremos aquí sus contribuciones.
www.lectulandia.com - Página 29
Además, algunos autores rechazaron esta matemática ligada al movimiento. De entre ellos, Descartes es el más importante: su Géométrie representa la reacción de una matemática sumamente estricta, demasiado estrecha en realidad para abarcar el desarrollo de las nociones y problemas de la época, pero que fue fecunda a causa, precisamente, de las limitaciones que impuso. La idea preconcebida que mi presentación ha tenido como guía, y que requeriría que se la precisara y verificara, podría formularse así: en la vida cultural del siglo XVII, la cuestión del movimiento desempeñó un papel primordial, especialmente como introducción natural e intuitiva a los problemas y descubrimientos del cálculo infinitesimal; por supuesto, era también necesario resolver las dificultades lógicas del infinitamente pequeño, de los indivisibles, etc. Pero las especulaciones lógicas no fueron el motor de esta historia: el estudio de los movimientos y de las velocidades constituía un motivo mucho más poderoso, brindándole al razonamiento un soporte físico e imaginativo.
1. La velocidad en los «Discorsi» de Galileo Una noción intuitiva de la velocidad Las investigaciones de Galileo sobre la caída de los cuerpos nos proporcionarán el punto de partida para nuestras indagaciones. En su última obra, los Discursos sobre dos nuevas ciencias (1638, citados abreviadamente como Discorsi), Galileo da la ley del movimiento uniformemente acelerado (el espacio recorrido es proporcional al cuadrado del tiempo y demuestra que los proyectiles han de tener una trayectoria parabólica. Sin embargo, la idea que se forma Galileo de la velocidad es aún bastante vaga e intuitiva. En ninguna parte explica, de un modo preciso, a qué llama velocitas: no aparece ninguna definición de la velocidad instantánea, ni aun de la velocidad uniforme o media. La noción de velocidad interviene de repente en el desarrollo relativamente riguroso de su razonamiento, sin preparación ni justificación, justo en medio de un axioma: «Axioma III: El espacio recorrido en un tiempo dado a mayor velocidad, es mayor que el espacio recorrido, en el mismo tiempo, a menor velocidad» (Discorsi, trad. cast. J. Sádaba, pág. 268). La velocidad es simplemente una cierta cualidad de los cuerpos, susceptible de aumentar y de disminuir eventualmente, cabrá intentar poner en relación velocidades diferentes. En cualquier caso, no es una cantidad propiamente dicha. Así, para afirmar que la velocidad crece proporcionalmente al tiempo, Galileo utiliza una fórmula que marca la diferencia de condición entre la velocidad y el tiempo: «La intensificación de la velocidad se produce de acuerdo con la extensión del tiempo» («intensionem
www.lectulandia.com - Página 30
velocitatis fieri juxta temporis extensionem», Discorsi, trad. cast. retocada, pág. 278). Mientras que el tiempo o la longitud son «extensiones», magnitudes aditivas, la velocidad es una magnitud de otro tipo; es lo que se llama una magnitud «intensiva»: es imposible medirla directamente, como se mediría una longitud, y no se la puede calcular sumando «partes de velocidad». Por lo demás, Galileo no habla de «cantidad de velocidad», sino tan sólo de «grados de velocidad». De hecho, habrá que esperar bastante tiempo para encontrar una definición propiamente dicha, en términos modernos: quizás la primera se encuentre en las comunicaciones de Varignon a la Academia de ciencias francesa en 1700. Incluso Newton se contenta con la siguiente «definición», incluida en un manuscrito de juventud: «La velocidad es la intensidad [¿o la intensificación?] del movimiento» («velocitas est motus intensión», Unpublished scientific papers, pág. 115). Es de suponer, además, que los hombres de esa época no sentían la necesidad de definir semejante noción. ¿Cómo comparar velocidades? Para hacer comprender lo que es un grado de velocidad instantánea, definida en cada instante, Galileo acude a la distancia que recorrería el móvil en un tiempo determinado si su velocidad ya no variase, si el grado de velocidad adquirido en un momento dado permaneciese igual (pág. 279). Esta distancia recorrida con un movimiento uniforme proporciona una evaluación, un criterio de comparación; y, sobre todo, permite concebir o representar la noción de que se trata. Pero, desde luego, nunca puede constatarse directamente. Galileo utiliza otro medio para apreciar la velocidad, con objeto de contestar a un reparo que se le hace. Veamos cómo se coordinan las ideas (págs. 279-281): admitamos, por una parte, que la velocidad en cada instante se mide por la distancia que recorrería el móvil si su movimiento fuera uniforme; por otra parte, Galileo afirma que el cuerpo que cae pasa por todos los grados de velocidad, cada vez más lentos si nos remontamos hasta muy cerca del principio de la caída; ello significa, entonces, que el móvil, en las proximidades del principio de su caída, posee una velocidad con la que no conseguiría, en mil años, recorrer ni un palmo, o incluso menos todavía. ¿Cómo imaginar algo semejante? Galileo contesta proponiendo otra manera de medir la velocidad, más directa y sensible: si se considera que una maza actúa con tanta mayor fuerza sobre una estaca cuanto mayor es la velocidad de la maza, hay que admitir que la misma maza puede tener un efecto y, en consecuencia, una velocidad tan pequeños como se quiera, a condición de dejarla caer desde una altura muy pequeña. La lentitud de su movimiento se comprobará por el hundimiento casi nulo de la estaca. De esta manera, Galileo hace concebible la idea de una velocidad muy débil, y consigue que se admita su tesis de que el móvil pasa por todos los grados de velocidad. En este caso, la velocidad se mide por el efecto producido:
www.lectulandia.com - Página 31
«Podremos conjeturar sin error cuánta es la velocidad de un grave que cae, por la cualidad y la cantidad del golpe» (pág. 280, trad. cast. retocada; texto: «Quanta sia la velocità d’un grave cadente, lo potremo noi senza errore conietturare dalla qualità e quantità della percossa»). Para alcanzar una realidad tan huidiza como la velocidad, varios caminos valen más que uno. El teorema del grado medio En todo su estudio sobre la caída de los cuerpos, Galileo no manipula directamente velocidades variables; utiliza un artificio para reducir los movimientos uniformemente acelerados a movimientos uniformes. Este artificio es el teorema del grado medio, descubierto en el siglo XIV (por los filósofos del Merton College de Oxford y por Nicolás de Oresme en París); una magnitud intensiva uniformemente variada entre dos grados extremos, produce el mismo «resultado» global que una magnitud intensiva uniforme cuyo grado constante fuera igual al grado medio de la precedente. Los medievales concebían esta equivalencia para todo tipo de variaciones: una llama cuya intensidad variase uniformemente entre dos extremos produciría, en un tiempo dado, los mismos efectos que una llama de intensidad media constante. Nicolás de Oresme representa gráficamente este resultado mediante la igualdad de dos superficies (véase fig. 1).
Figura 1: «Teorema» del grado medio
Las aplicaciones de este teorema eran muy diversas, rayando a veces con el absurdo. Por su parte, Galileo se limita al movimiento acelerado: un móvil que parte del reposo y acelera uniformemente, recorrerá el mismo espacio, en un tiempo dado, que otro móvil en movimiento uniforme y de velocidad igual a la mitad de la velocidad final del móvil acelerado. La demostración de Galileo es bastante escabrosa: considera «todas» las velocidades por las que pasa el móvil sucesivamente, representadas por los segmentos crecientes hk «contenidos» en la superficie (págs. 292-293). Gracias a éste teorema, el estudio de un movimiento acelerado se reduce a un caso más simple, el de un movimiento uniforme (véase fig. 2).
www.lectulandia.com - Página 32
Figura 2: El segmento AB representa el transcurso del tiempo de A hacia B; el segmento BE es el mayor (y último) grado de velocidad adquirido en el instante B; la superficie triangular AEB «contiene» todos los grados de velocidad creciente uniformemente desde el instante A (en que la velocidad es nula) hasta el instante B (en que la velocidad es máxima). Ahora bien, si se representa un movimiento uniforme que recorre el mismo intervalo de tiempo AB con una velocidad constante igual a BF, todos los grados de velocidad (constantes) de este movimiento estarán «contenidos» en el rectángulo AGBF. Así pues, existe una cierta equivalencia entre esos dos movimientos. Galileo extrae de ello la conclusión de que el espacio recorrido es el mismo, sin ser perfectamente consciente, en mi opinión, de que el área medida bajo la curva de las velocidades «representa» la distancia.
Una confusión de Galileo Con todo, hay un pasaje en el que Galileo razona directamente sobre velocidades que varían en cada instante, y se enreda horriblemente al aplicarle a la velocidad instantánea lo que sólo vale para la velocidad uniforme. Trata de demostrar que la velocidad no puede ser proporcional al espacio recorrido, como él mismo había creído en otro tiempo que lo era (pág. 285). El razonamiento me parece ser el siguiente: si las velocidades son tanto mayores cuanto más largo es el trayecto, entonces los trayectos se efectuarán todos en el mismo tiempo (pero ello no es cierto más que para velocidades uniformes, cada una sobre un segmento distinto); ahora bien, en este caso las velocidades serían tanto mayores cuanto más lejos se estuviera del punto de partida (esta vez, se trata de velocidades instantáneas,
www.lectulandia.com - Página 33
en diferentes puntos de una misma recta); así pues, los diferentes puntos del recorrido se alcanzarían todos a la vez, lo cual es imposible. La pretendida refutación de Galileo reposa en una confusión entre velocidad uniforme y velocidad instantánea. Algunos historiadores han tomado el partido de Galileo: Fermat contra Gassendi, Peirce contra Mach, y Bernard Cohen hace veinte años. Para quienes lo consideran aceptable, el razonamiento de Galileo equivaldría a decir que la ecuación no tiene solución no nula si se ha hecho s = 0 para t = 0. Una cosa es cierta, y es que Galileo escribe fórmulas imposibles de admitir desde nuestra perspectiva actual: habla de «la velocidad con que un móvil ha atravesado una distancia de cuatro codos», como si pudiera hablarse de la velocidad sobre una porción finita del recorrido, luego de haber afirmado que la velocidad varía en cada punto. Quizás creyó poder aplicar su teorema del grado medio en el caso en que la velocidad varía en función del espacio.
2. Las curvas mecánicas La herencia de la antigüedad Nuestro universo técnico nos ha acostumbrado a razonar constantemente en términos de velocidad instantánea; por esto nos sorprendemos al constatar que Galileo es tan torpe. En el siglo XVII, se trata verdaderamente de objetos nuevos que los «filósofos de la naturaleza» han de aprender a manejar, y podría considerarse que el intervalo de tiempo que media entre Galileo y Newton corresponde aproximadamente a este aprendizaje. La herencia científica de la antigüedad no incluía nada parecido, salvo una excepción. La matemática griega sólo se ocupaba de objetos inmóviles, contemplados en una especie de universo de las ideas. En Euclides no hay movimiento, aparte de la operación ritual, completamente ficticia, consistente en hacer coincidir dos figuras. Incluso, nunca se dice: «Construyamos tal cosa…», sino: «Sea tal cosa construida…». De un modo general, la ciencia antigua no es una ciencia del movimiento. Para Platón y Aristóteles no puede existir una auténtica ciencia que se refiera a los objetos cambiantes de este mundo. Con todo, la tradición matemática clásica, o al menos una corriente particular y marginal de esta tradición, le proporcionó a Galileo con qué alimentar sus métodos de razonamiento. Él mismo lo explica al principio de su exposición sobre el movimiento
www.lectulandia.com - Página 34
acelerado, en términos bastante claros, aunque poco comprensibles para un lector actual: «Y en primer lugar, conviene encontrar y explicar una definición que sea exactamente conforme al movimiento acelerado que utiliza la naturaleza. En efecto, nada se opondría a inventar arbitrariamente un cierto tipo de movimiento [latio = transporte], y a que, a continuación, se estudiaran las propiedades que derivan de un tal movimiento (así, los que han imaginado las hélices o las concoides como líneas engendradas por ciertos movimientos, aunque la naturaleza no haga uso de ellos, han hecho maravillas al demostrar las características de esas líneas a partir de su definición enunciada inicialmente); no obstante, y ya que la naturaleza se sirve de un determinado tipo de aceleración para el descenso de los cuerpos pesados, hemos decidido estudiar las propiedades de esos cuerpos […]» (Discorsi, pág. 275, trad. cast. modificada). Precisemos primero que, en esa época, la palabra latina hélix designa la espiral, incluso digamos la espiral de Arquímedes, la única conocida. ¿Qué relación puede existir entre el estudio de la caída y el de las espirales y las concoides? Galileo parece decir: de entre todas las composiciones de movimientos que pueden imaginar los matemáticos, restringiré mi interés a la que es adecuada para describir la caída de los cuerpos (o más exactamente: a la que realmente utiliza la naturaleza para hacer caer los cuerpos). Uno se pregunta entonces: ¿dónde demonios ve Galileo una composición de movimientos en el descenso de un cuerpo pesado? Es difícil contestar a esa pregunta; pero podemos sustituirla por esta otra: ¿por qué sitúa de nuevo Galileo sus investigaciones en el contexto de las composiciones de movimientos y de las curvas mecánicas? La espiral de Arquímedes Para comprender las referencias que invoca Galileo, bueno será conocer la definición que dio de la espiral su creador, Arquímedes. La curva está engendrada por un doble movimiento: la rotación de una semirrecta en torno a su origen y la traslación de un punto sobre dicha semirrecta a partir del origen. La definición de las espirales presenta en Arquímedes varios aspectos originales: en primer lugar, el movimiento se trata en un texto matemático, lo cual es excepcional para la antigüedad clásica. No se considera que la curva exista desde siempre hasta ser descubierta por el ojo metal del matemático contemplativo; por el contrario, está engendrada por el punto que la describe al desplazarse. Arquímedes hace intervenir la velocidad del movimiento con el término «igualmente-rápido». El tratado De las espirales de Arquímedes constituye así uno de los raros puntos de anclaje de la cinemática de la época moderna. Al principio de la tercera jomada de los Discorsi (págs. 268-269), Galileo repite casi textualmente la primera proposición de las Espirales, con su correspondiente demostración (que utiliza las proporciones), como base de su estudio del movimiento uniforme.
www.lectulandia.com - Página 35
Otras curvas mecánicas Esta forma de engendrar líneas por composición de movimientos no es exclusiva de las espirales. Los antiguos conocían líneas análogas, utilizadas para resolver determinados problemas sin esperanzas de solución (cuadratura del círculo, duplicación del cubo, trisección del ángulo); se las llamaba «curvas mecánicas». Los problemas resueltos mediante dichas curvas sólo lo eran de un modo aproximado e imperfecto. En resumidas cuentas, no se trataba de una verdadera solución, como la que se hubiera deseado obtener con la regla y el compás (problemas planos) o, como máximo, utilizando cónicas (problemas sólidos). La más famosa de esas curvas mecánicas es la cuadratriz, destinada a cuadrar el círculo y que permite también dividir un ángulo en tantas partes como se quiera. Otra curva mecánica, la concoide, servía para estudiar el problema de la trisección del ángulo. El siglo XVII había de interesarse con pasión por esas curvas, el interés por las cuales se despertó ya con Vieta (véanse las proposiciones sobre la cuadratriz, ed. 1646, págs. 365-367). Las existencias en curvas mecánicas se enriquecieron incluso considerablemente: Galileo y luego Mersenne inventaron la cicloide (que se llama también ruleta o trocoide). Incluso las cónicas se estudian por medio de los movimientos que pueden engendrarlas. Los trabajos más completos sobre ese tema son los de los holandeses Van Schooten (1646) y de Witt (1661, que dan al procedimiento el nombre de «descripción orgánica de las curvas». El movimiento de los proyectiles Esta manera de razonar queda ilustrada a las mil maravillas por la demostración de Galileo sobre la trayectoria parabólica de los proyectiles (Discorsi, cuarta jornada, págs. 384 y sigs.): supongamos que un cuerpo pesado abandone su soporte con un movimiento horizontal; entonces, estará sometido a la gravedad y, en consecuencia, animado de un segundo movimiento, esta vez vertical y acelerado. Mientras el móvil se mueve uniformemente hacia la derecha y recorre una longitud horizontal proporcional al tiempo, recorre hacia abajo una distancia proporcional al cuadrado del tiempo (teorema del movimiento acelerado). La parábola es el lugar de los puntos (x, y) que satisfacen simultáneamente a las dos ecuaciones: x = k · t e y = K · t2; está definida en función del tiempo, tomado éste como parámetro común (por supuesto que esta jerga y estas ecuaciones están ausentes del texto de Galileo) (véase fig. 3). La tesis así «demostrada» no es una proposición de física experimental: no se trata de constatar mediante medidas y aproximaciones que la trayectoria de los proyectiles tiene tal aspecto o tal otro. Por lo demás, después de Galileo siguieron durante bastante tiempo las discusiones para saber en qué medida se desvían los www.lectulandia.com - Página 36
proyectiles físicos de esta trayectoria.
Figura 3: Trayectoria parabólica de un proyectil
Galileo compone dos movimientos abstractos, perfectamente definidos y determinados, y muestra que el resultado verifica las propiedades matemáticas de la parábola. Sin embargo, tampoco se trata de pura matemática: la demostración de Galileo se basa en determinadas tesis físicas, por ejemplo en la idea de que es posible componer movimientos diferentes en un mismo móvil, sin que éstos se destruyan o se estorben el uno al otro (este principio puede considerarse como un corolario del principio de inercia). La cinemática de Torricelli Esta geometría del movimiento ocupa la divisoria entre la vertiente matemática y la vertiente física. Galileo tomó los teoremas sobre la parábola de las matemáticas de los antiguos, para aplicarlos a los movimientos de los proyectiles. Este proceso de fecundación recíproca se prosiguió con los discípulos de Galileo. Torricelli imaginó nuevos proyectiles, desconocidos e imposibles, simplemente para dar una descripción cinemática de curvas más complejas. Esta vez, el intercambio tuvo lugar en el sentido contrario: no de la geometría a la física, sino al revés. Torricelli creó nuevos entes matemáticos generalizando simplemente los resultados de Galileo sobre los proyectiles. La consideración del movimiento no constituye en absoluto un mero auxilio de la imaginación, un tinglado que pronto resulta inútil: al suponer que un proyectil físico describe realmente su curva, Torricelli halla un método elegante y rápido para determinar las tangentes. He aquí cómo procede en el caso de la cúbica (o «parábola cúbica») (véase fig. 4).
www.lectulandia.com - Página 37
Figura 4: Cúbica y método de Torricelli para construir la tangente.
«Tómese ED igual a la longitud DA multiplicada por el exponente de la parábola, es decir, en el presente caso, tres veces DA, y la línea que une EB será la tangente. En efecto, el punto móvil B que describe la parábola posee dos ímpetus cuando se halla en la posición B: un ímpetus horizontal dirigido según la tangente AF, un ímpetus perpendicular según el diámetro AD. La relación entre esos dos ímpetus se busca de la siguiente manera: durante el tiempo de caída, el ímpetus horizontal ha recorrido el espacio DB; por su parte, como ha quedado dicho, mientras duraba la caída el ímpetus perpendicular recorría, si se conservaba siempre igual, un espacio igual al triple de la caída AD; por consiguiente, el movimiento o la dirección del punto B, que está compuesto por dos velocidades que son la una a la otra como BD es a BE, tendrá lugar a lo largo de la línea BE» (Opere, I, II, p. 331). Al exponer su procedimiento para trazar las tangentes, Torricelli da por admitidas ciertas propiedades físicas del movimiento: hay que sobrentender que la tangente es la dirección instantánea del movimiento del punto móvil, y que esta dirección puede determinarse construyendo el paralelogramo de velocidades. Roberval y las tangentes
www.lectulandia.com - Página 38
Hacia la misma época, durante los años 1640, el francés Roberval enseñó un método idéntico para trazar las tangentes. El trabajo, impreso en las «Mémoires de l’Académie des sciences», lleva el título: Observations sur la composition des mouvements et le moyen de trouver les touchantes aux lignes courbes. La exposición es más metódica y detallada que la de Torricelli; contiene justificaciones explícitas: «Axioma o principio de invención: La dirección del movimiento de un punto que describe una línea curva es la tocante de la línea curva en cada posición de dicho punto» (pág. 24). «Regla general: Examinar, a partir de las propiedades específicas de la curva (que habrán de ser dadas), los diversos movimientos que posee el punto que la describe en el lugar por el que quiere trazarse la tocante: componiendo todos esos movimientos en uno, trazar la línea del movimiento compuesto y se tendrá la tocante de la línea curva» (pág. 25). Roberval aplica este método a trece curvas distintas (cónicas, varios tipos de concoides, caracol, espiral, cuadratriz, cisoide, ruleta, compañera de la ruleta).
3. La pureza cartesiana Una curva mecánica en Descartes La Géométrie de Descartes constituye una ruptura total con la corriente que acabo de mencionar. En nombre de una concepción rigurosa de las matemáticas, Descartes rechaza las curvas mecánicas y toda la geometría puramente cinemática. Hay que reconocer, ante todo, que Descartes sabía servirse de esas curvas si era preciso, y que lo hacía con mucha destreza, como lo demuestra la solución dada por él al problema planteado por Florimond de Beaune (carta del 20 de febrero de 1639). Se trata de determinar una curva si se conocen ciertas condiciones que debe de satisfacer la tangente (en términos actuales, la ecuación es
;
históricamente, se trata del primer estudio de una ecuación diferencial). ¿Qué tipos de movimientos se admiten en la «Geometría» Al principio del libro II de la Géométrie, Descartes excluye de la geometría (es decir, de las matemáticas propiamente dichas) a «la espiral, la cuadratriz y otras semejantes, que en verdad no pertenecen sino a las Mecánicas» (ed. 1637, pág. 317). Sin embargo, no excluye al movimiento mismo. Al igual que una curva «mecánica», una curva «geométrica» puede venir descrita por una combinación de movimientos. La única diferencia radica en que, en este último caso, los movimientos
www.lectulandia.com - Página 39
están en relación directa unos con otros, se determinan mutuamente, y ello permite una «medida». Por el contrario, los movimientos que engendran a una curva «mecánica» son «inconmensurables» entre ellos: no vienen determinados los unos por los otros; es imposible medir la posición de un punto móvil mediante su relación con el desplazamiento de otro punto. Para describir una cuadratriz, por ejemplo, se utilizan dos movimientos completamente independientes; las líneas móviles sólo están sometidas a una condición común: recorrer una determinada distancia en el mismo intervalo de tiempo. En términos modernos, es imposible eliminar el parámetro común a los dos desplazamientos para tratar de obtener una ecuación algebraica. El tiempo es, de este modo, el único vínculo entre los dos movimientos. El proyecto cartesiano de clasificación de los problemas El interés de esta distinción se hace aún más patente si nos referimos al proyecto global de Descartes. Lo que él ambiciona no es enriquecer las matemáticas con curvas o teoremas nuevos (por lo demás, también lo hace, pero de pasada). Ante todo, lo que desea es resolver metódicamente los problemas, todos los problemas que puede plantear la ciencia; y ello exige, en primer lugar, una clasificación, una ordenación, una jerarquización de los propios problemas. El texto más claro al respecto se remonta a la juventud de Descartes. Es una carta a Beeckmann del 26 de marzo de 1619: «En realidad, para descubrirte claramente el propósito que abrigo, lo que yo deseo aportar no es la Ars brevis de Llull, sino una ciencia completamente nueva, merced a la cual puedan resolverse en general todas las cuestiones que puedan presentarse en términos de cualquier tipo de cantidad, tanto continua como discreta. Pero cada una de acuerdo con su propia naturaleza: en efecto, así como algunos problemas de Aritmética se resuelven mediante números racionales, otros por medio de números irracionales, y otros, por fin, sólo pueden imaginarse y rehuyen toda solución; así también, como espero demostrar, en el dominio de la cantidad continua determinados problemas pueden resolverse únicamente con líneas rectas y círculos [= mediante regla y compás]; y también otros únicamente pueden resolverse con la ayuda de otras líneas curvas engendradas por un movimiento único y descritas con compases de un nuevo tipo, tan determinados y tan geométricos como los compases ordinarios con los que se trazan los círculos; por fin, otros problemas solamente pueden resolverse si se utilizan curvas engendradas por dos movimientos diferentes no subordinados el uno al otro, y tales curvas son puramente imaginarias, como la línea cuadratriz, de uso suficientemente generalizado. Y estimo que nada puede imaginarse que no sea resoluble mediante las líneas de que hablo; pero espero llegar a demostrar qué tipos de www.lectulandia.com - Página 40
cuestiones pueden resolverse de tal o tal manera y no de tal otra: de tal manera que no quede entonces casi nada más que descubrir en geometría». Para hacer que los conocimientos humanos adelanten, es fundamental distinguir bien entre los distintos órdenes de problemas, clasificados «de acuerdo con su naturaleza». Esta distinción se realiza de manera bastante fácil y natural para todo aquello que es competencia del número (los problemas son, o bien racionales, o bien irracionales, o bien imposibles). Por el contrario, los problemas que tratan de realidades continuas no se han jerarquizado todavía con tanta claridad. Descartes se propone llevar a cabo esta jerarquización. Una vez conseguida, las soluciones aparecerán casi por sí mismas, cada una de acuerdo con su naturaleza; siempre y cuando, desde luego, dichas soluciones existan. Pero, precisamente, la clasificación que Descartes proyecta evitará toda ilusión acerca de pretendidas soluciones correspondientes a problemas imposibles. Así, la cuadratriz ofrece una apariencia de solución para una cuestión insoluble, y quienes se ocupan de tales cosas caen en el engaño. ¿Qué es una curva para Descartes? En matemáticas, este proyecto metódico trae como consecuencia la prioridad concedida al tratamiento algebraico. Descartes no estudia las curvas por sí mismas, como realidades espaciales. Para él, una curva es un «lugar» geométrico, el conjunto de las soluciones de una ecuación. Esto se hace patente en la composición del libro primero de la Géométrie: se empieza por las soluciones de las ecuaciones con una incógnita, de primer grado y después de segundo grado, y cada vez se indica cómo construir geométricamente las soluciones (los segmentos que representan a las soluciones). A continuación se pasa a las ecuaciones con dos incógnitas, y las soluciones ya no son entonces segmentos aislados, sino pares de valores, la totalidad de los cuales constituye una línea: «[…] a causa de que existe siempre una infinidad de puntos distintos que pueden satisfacer lo que aquí se requiere, es también necesario conocer y trazar la línea sobre la que deben encontrarse todos ellos […]» (pág. 307). Por consiguiente, el principal objeto de esta geometría es la representación de las soluciones de problemas algebraicos. A tal tipo de ecuación le corresponde tal tipo de construcción. Por otra parte, el abanico de expresiones algebraicas autorizadas ha quedado de antemano definido desde las primeras líneas de la Géométrie: Descartes sólo admite las cuatro operaciones de la aritmética usual; a ellas, añade la extracción de la raíz, que es «una especie de división» (pág. 297); ni hablar de paso al seno, o al logaritmo. De esta manera, la correspondencia entre álgebra y geometría queda fundamentada de una manera estricta. Este punto de vista tan constrictivo es también sumamente fecundo; en él puede percibirse el comienzo de la actual geometría algebraica, según www.lectulandia.com - Página 41
la cual una curva es el lugar de los ceros de un polinomio con varias variables.
4. Las fluxiones newtonianas y el lugar del tiempo La definición de los logaritmos por la velocidad La Géométrie de Descartes delimita estrictamente el dominio de las matemáticas. Ahí radica su fecundidad y también su punto flaco. Descartes se erigió en legislador, en censor; pero sus pretensiones quedaron pronto desbordadas por el desarrollo de los problemas y de los procedimientos. A este respecto, el ejemplo de los logaritmos es muy instructivo. Constituyen exactamente el tipo de entes matemáticos que la Géométrie arroja a las tinieblas exteriores. Su existencia data de Napier (1614) y de Kepler (1624); sin embargo, Descartes no los menciona jamás. A decir verdad, tanto para él como para todos sus contemporáneos los logaritmos son números tabulares, es decir, números aproximados que se calculan mediante procedimientos muy laboriosos y cuyo interés se reduce a la utilidad práctica: los astrónomos los necesitan en sus cálculos, para sustituir por sumas multiplicaciones demasiado engorrosas. Por consiguiente, nada tienen que ver con la matemática noble. Pero, en el transcurso del siglo, los logaritmos adquieren su carta de hidalguía. El momento decisivo se sitúa un poco antes de 1650, cuando Grégoire de Saint-Vincent y su discípulo Sarasa descubren que el logaritmo mide la superficie delimitada por una curva algebraica bien conocida: la hipérbola. El propio Descartes había reconocido implícitamente la importancia de los logaritmos al proponer su solución al problema propuesto por de Beaune (cf. más arriba): el procedimiento utilizado es, efectivamente, muy similar al que Napier usó para inventar y definir sus logaritmos: es probable que Descartes se haya inspirado en él. La creación de los logaritmos tuvo lugar en el mismo contexto en que se desarrollaron los trabajos de Galileo o de Roberval: se trata de nuevo de una matemática del movimiento. El problema que hay que resolver es el siguiente: se quiere hacer corresponder una progresión geométrica (por ejemplo, de base 10, lo cual no es el caso de Napier) y una progresión aritmética: 1/100
1/10
1
10
100
1000
−2
−1
0
1
2
3
El interés práctico proviene de que la progresión de arriba se establece por multiplicación, mientras que la de abajo se constituye por adición. Pero el objetivo
www.lectulandia.com - Página 42
sólo se alcanza si ambas progresiones pueden considerarse como realidades continuas, que siguen teniendo sentido para los valores situados entre los números que se han escrito. Hay que poder encontrar por interpolación qué valor de la sucesión aritmética corresponde a un valor cualquiera de la otra sucesión (que 3 sea el logaritmo de 1000 no es muy interesante; por el contrario, uno quisiera saber a qué número de abajo le corresponde el 687 de arriba). En este extremo, parece que la representación del movimiento le fue útil a Napier. Imagina desplazamientos continuos sobre dos rectas paralelas, según un movimiento uniforme sobre la primera línea y con una velocidad decreciente sobre la segunda. La velocidad variable es proporcional a la distancia que queda por recorrer (nótese que ésta es casi la ley del movimiento que Galileo declarará imposible quince años más tarde). De esta forma, el espacio recorrido sobre la primera línea será el logaritmo del recorrido sobre la otra (movimiento retardado). El procedimiento de Napier, así como los razonamientos con que lo acompaña, presenta diversas originalidades. Para empezar, la manipulación de las velocidades instantáneas está hecha con soltura (por supuesto, sin ninguna definición). Por otra parte, Napier utiliza movimientos con velocidades variables, pero sin poner en contacto los movimientos, sin hacerles describir una curva común. Lo común a ambos es tan sólo su contemporaneidad, la cual permite calcular la relación entre los desplazamientos en un instante dado. En este aspecto, la concepción de Napier prefigura la de Newton en el cálculo de fluxiones. El movimiento que desplaza a las líneas Newton, en sus primeros trabajos, utiliza efectivamente el mismo esquema que Napier. Imagina dos desplazamientos sobre dos líneas horizontales paralelas y trata de expresar la relación entre las velocidades, a partir del conocimiento de los desplazamientos realizados en un tiempo igual; o inversamente, la que existe entre los espacios recorridos, conocidas las velocidades. Si la relación entre los espacios viene dada por una ecuación, se trata de encontrar la ecuación que expresa la relación entre las velocidades, y a la inversa (cf. Mathematical Papers, I, págs. 343 y sigs., págs. 385-386; Méthode des fluxions, pág. 45 de la trad. Buffon). Las curvas y superficies se conciben de la misma manera: el lugar de movimientos con diferentes velocidades. Una figura del Método de las fluxiones es una realidad que se pone en movimiento y que se anima. Hay que llegar a «ver» cómo se engendran las líneas y las superficies por el desplazamiento de puntos y segmentos. Newton lo declara explícitamente: «Considero las cantidades como engendradas por un aumento continuo, al modo del espacio que describe un móvil en su recorrido» (Fluxions, trad. pág. 21; texto en latín en Mathematical Papers, III, pág. 72). Una figura geométrica es una especie de mecanismo donde el movimiento se
www.lectulandia.com - Página 43
transmite de acuerdo con las articulaciones de la figura. Las líneas y las superficies vienen engendradas, en sentido propio, por desplazamientos. El esquema más general y más simple es éste (véase fig. 5): un punto móvil se desplaza sobre una línea horizontal a partir del extremo izquierdo A, arrastrando en su movimiento a un segmento vertical BD de longitud variable; el extremo D de este último engendra la curva, y el barrido del segmento crea la superficie (Newton llama a AB la «base» y a BD, la «ordenada» o «aplicada»).
Figura 5: Engendramiento de las curvas según Newton
Existen combinaciones más refinadas. Así, la espiral (véase fig. 6) viene engendrada por un círculo de centro en A que se hincha continuamente y un punto que se desplaza sobre la circunferencia de dicho círculo. El crecimiento del círculo viene medido por el desplazamiento del punto B sobre la base, igual que en el caso anterior por consiguiente, pero esta vez el movimiento sobre la base engendra la expansión de un círculo.
Figura 6: Espiral descrita en función del crecimiento del radio AB
La cicloide (véase fig. 7) está engendrada por un mecanismo complejo, donde el desplazamiento fundamental lo constituye un barrido de abajo hacia arriba. Así pues, esta vez la base es vertical. Cuando el punto B asciende, arrastra en su movimiento a la recta BLD, y por consiguiente también al segmento DG. Las superficies ABD, ADG y ABL (superficie del círculo generador) crecen en función de los barridos www.lectulandia.com - Página 44
respectivos de los segmentos. Newton demuestra que el crecimiento de la superficie ABL es igual en todo momento al crecimiento de la superficie ADG. Así pues, la superficie total de la cicloide es igual al rectángulo completo, de lados 2R y 2πR del que se resta la superficie igual a la del círculo generador; es decir, en total 4πR2 − πR2 = 3πR2 (véase trad. pág. 91; Papers, pág. 204).
Figura 7: Cicloide y superficies asociadas descritas mediante el vertical de BLD
De entre los movimientos de los diversos elementos de la figura, Newton escoge un movimiento de referencia, por regla general el desplazamiento del punto B sobre la «base». Los otros se calculan en función de aquél. La dependencia de los movimientos está inscrita en la figura: el impulso se transmite progresivamente de acuerdo con las articulaciones particulares del mecanismo elegido. En determinados casos, la dependencia podrá expresarse mediante una relación algebraica, y entonces reaparecen las curvas «geométricas» de Descartes como casos particulares. El cálculo se resume en dos operaciones fundamentales: conociendo la proporción entre los desplazamientos, encontrar la proporción entre las velocidades; y, a la inversa, pasar de las velocidades a los desplazamientos. Newton habla con más facilidad de «fluxión» y de «fluente», pero no de un modo exclusivo. Incluso, a veces escribe «fluxio sive velocitas», «la fluxión o, si se quiere, la velocidad»; también habla de la «tasa de flujo» («fluendi ratio») de una cantidad. Cada fluente (la línea x, la superficie y) posee así su fluxión (notada como x, y en los últimos textos de Newton). El lugar fundamental del tiempo En varias ocasiones, Newton recurre a un infinitesimal, notado o (una o minúscula inclinada, que no debe confundirse con el cero), que es el elemento
www.lectulandia.com - Página 45
fundamental de todo crecimiento. En cierto modo, se trata de una partícula atómica de tiempo. El flujo mínimo de toda magnitud se calcula entonces multiplicando la velocidad de esta magnitud por el elemento o: x · o, y · o serán los incrementos infinitamente pequeños de x y de y. Así pues, la o minúscula es la que proporciona todo el impulso. Basta con introducirla en una figura o en una relación algebraica para ponerlas en movimiento, y determinar así los «incrementos contemporáneos» de las cantidades que intervienen. Así pues, el papel principal le corresponde al tiempo: todas las magnitudes son función del tiempo. En este sentido, la relación entre la fluxión de una cantidad y la fluxión de la base no puede identificarse exactamente con una mera derivada: el propio desplazamiento del punto móvil sobre la base es función del tiempo; con relación al tiempo, posee también su fluxión. La cantidad x no es una variable independiente; es una fluente de igual categoría que las demás, cuya fluxión será x y su incremento mínimo x · o. Por consiguiente, lo que Newton calcula no son exactamente derivadas, sino más bien razones entre velocidades: y/x. Por lo demás, resulta a veces útil considerar que el desplazamiento del punto sobre la base es, a su vez, función de otro desplazamiento sobre otra base: Newton se vale de esta transformación cinemática para calcular determinadas integrales delicadas (que, para nosotros, desembocarían en logaritmos) reduciéndolas a integrales más simples que les sirven de unidad. Aunque sobre la figura no esté inscrita ninguna variable independiente, en la práctica Newton se aproxima a nuestra manera de concebir las cosas: la mayoría de las veces, hace que la fluxión de la base sea 1. El movimiento del punto B sobre AB se considera uniforme, y los demás movimientos se determinan en función de él. En notación newtoniana: x = 1 y por consiguiente, en resumidas cuentas, x · o = o; es decir, que el infinitésimo se convierte en el incremento mínimo de x. Considerada desde el punto de vista del formalismo matemático, esta convención viene así a ser lo mismo que hacer de x la variable independiente. Pero la elección de un movimiento de referencia posee justificaciones muy profundas que es importante captar: «Puesto que no poseemos estimación ninguna del tiempo sino en tanto que representado y medido a través de un movimiento local uniforme, y puesto que, por otra parte, no puede existir razón entre cantidades más que si son del mismo género y si la velocidad de su incremento o decremento es también del mismo género, por esta razón, en lo que sigue, no tendré en absoluto en cuenta al tiempo considerado formalmente sino que, entre las cantidades propuestas que son del mismo género, supondré que una se incrementa conforme a una fluxión uniforme, y referiré a ella todas las demás cantidades como si aquélla fuese el propio tiempo, de suerte que, con razón, el nombre de tiempo puede atribuírsele por analogía» (Papers, pág. 72; Buffon, pág. 21, www.lectulandia.com - Página 46
muy mala traducción). Puesto que el tiempo no puede representarse directamente, una de las variaciones ha de ocupar el lugar del tiempo. El matemático queda satisfecho: en lo sucesivo, el parámetro tiempo puede desaparecer de los cálculos; basta con escoger una variable que lo represente. Entonces, incluso puede considerarse que la razón entre y y x es verdaderamente una derivada en nuestro sentido: la variación de x ya no es función del tiempo, y x se convierte en la variable de base de la cual dependen las demás. Pero la explicación de Newton no se da solamente para facilitar las operaciones formales. Newton no olvida que está hablando del tiempo y del movimiento; mantiene una preocupación ontológica o metafísica: el tiempo no es una magnitud que pueda colocarse al mismo nivel que las demás. De él no poseemos más que medidas siempre aproximadas. Si los referimos al tiempo absoluto, todos nuestros relojes son falsos; y, sin embargo, es necesario practicar medidas. Esto es lo que sucede tanto en el cálculo de fluxiones como en astronomía: por no poder aprehender el tiempo mismo, escogemos una fluente que servirá de referencia, a falta de nada mejor. Efectivamente, el tiempo no está presente entre las cosas de la naturaleza o en las figuras de los geómetras. Por su propia esencia, nunca podrá aparecer «en persona». Solamente podemos hacernos una idea muy aproximada de él merced a los relojes físicos y, también, gracias a esos relojes geométricos que son el «flujo» del punto sobre la «base», o el barrido regular de una superficie (cf. Principia, libro I, teorema I). ¿Habrá que ir más lejos y relacionar esta concepción del tiempo y del movimiento con el conjunto de las convicciones de Newton? El tiempo sólo está presente por analogías y, sin embargo, su poder se extiende sobre todas las cosas; construye y deshace cualquier realidad: en este sentido, es semejante al propio Dios, es un aspecto de la divinidad. Podría entonces considerarse a las formas físicas o geométricas como las trazas pasajeras de una actividad más profunda, omnipotente pero que se mantiene en segundo término. Se guardaría así fidelidad a la inspiración a la que Newton apelaba, la del hermetismo y de la alquimia, y que se hace notar principalmente en sus investigaciones inéditas sobre la atracción (es en efecto sabido que la gravitación universal se le presentó, al menos en determinados períodos de su vida, como una manifestación física de la omnipresencia divina). Pero esas investigaciones y esas especulaciones sobre el tiempo y la divinidad entrañarían el peligro de desbordar mi propósito y están, sin duda, demasiado particularmente relacionadas con la personalidad y las convicciones de una persona y, por lo tanto, no tienen verdaderamente alcance por lo que se refiere al conjunto de la actividad intelectual del siglo XVII.
www.lectulandia.com - Página 47
Conclusión He destacado un aspecto de las matemáticas que se pone de relieve en demasiado pocas ocasiones: la conexión estrecha, vital y nutricia con las preguntas y sugerencias procedentes del mundo físico. Pero me abstendré de extraer de ello, demasiado apresuradamente, una tesis general acerca de la naturaleza de las matemáticas. Me doy cuenta de hasta qué punto son las matemáticas una realidad cultural extraña y compleja, y también, cuán vagos y variables son sus límites según las épocas. En primer lugar, hay que tener presente la advertencia que se dio al empezar: solamente he enfocado aquí las cosas desde una perspectiva, y la vida de las matemáticas en el siglo XVII, con el desarrollo del cálculo infinitesimal, desborda con mucho el marco que aquí se ha adoptado. Por otra parte, sería absurdo transportar a nuestra época lo que es válido para el siglo XVII. Quizás se trate de las mismas matemáticas, pero ya no se hacen de la misma manera, como lo atestigua el nuevo rango social de la disciplina: poco más o menos hasta Cauchy, todos los matemáticos eran también físicos, e incluso, la mayoría de ellos eran en primer lugar físicos (si es que tenía sentido la distinción); hoy en día, por el contrario, vemos cómo prolifera la raza de los matemáticos profesionales, de los que Weierstrass debe de haber sido uno de los primeros representantes. Desde nuestro punto de vista, el siglo XVII es un objeto de estudio casi demasiado privilegiado: se podría decir que es la edad de oro de la geometría del movimiento. En ese contexto se desarrollaron el estudio de las funciones y el cálculo infinitesimal. Pero los siglos siguientes se esforzaron, precisamente, por despojar poco a poco a la noción de función de toda imaginería cinemática o incluso geométrica, y por proporcionarle el análisis otros cimientos distintos de la intuición del movimiento.[9] Digamos, finalmente, que una confrontación con las matemáticas griegas pone en evidencia adquisiciones inmensas, pero también la existencia de lagunas: si bien las matemáticas se enriquecieron considerablemente desde Galileo a Newton, esta fecundidad está vinculada a un debilitamiento de las exigencias euclidianas. El geómetra del siglo XVII se considera un obrero en el gran reino de las curvas, pero raramente se preocupa de delimitar estrictamente las hipótesis de partida y las construcciones admitidas. Las razones de esta desherencia son múltiples: en primer lugar, los geómetras pusieron a punto procedimientos que «funcionan», pero que no tienen justificación en términos euclidianos; por otra parte, y de un modo aún más generalizado, los hombres de esa época estaban persuadidos de que el recurso a las luces naturales hacía superflua toda discusión acerca de los principios. Uno sabe qué son el número, el espacio, etc., y eso basta. Habida cuenta de todas esas restricciones, es con todo posible extraer una lección del desarrollo de las matemáticas en el siglo XVII: la tensión que opone a Descartes y Roberval (o a Huygens y Newton) no es sólo una cuestión de temperamentos o un
www.lectulandia.com - Página 48
accidente histórico; me parece que va unida a la propia naturaleza de las matemáticas, constituida por dos movimientos contrarios e indisociables. Por un lado el rigor, la preocupación por la economía en las hipótesis, una cierta exigencia estética; y, por el otro, una especie de habilidad conquistadora, un sano apetito por captar los problemas que se presentan y abrir nuevas vías. Vistas bajo este ángulo, las matemáticas no son ya solamente un ceremonial bien reglamentado; son también un utensilio para dominar las formas y las cosas.
Bibliografía Relativa a Galileo: Los Discorsi han sido traducidos recientemente al francés: Galilée, Discours et démonstrations concernant deux sciences nouvelles, traducidos por M. Clavelin, París, Armand Colín, 1970 [trad. cast. citada en el texto: Galileo Galilei, Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias, edición preparada por C. Solís y J. Sádaba, Madrid, Editora Nacional, 1976]. El texto original puede encontrarse (en italiano, con extensos pasajes en latín) en la Edizione Nazionale, o en Discorsi intorno a due nove scienze, ed. por A. Carugo y L. Geymonat, Turín, 1958. Los dos estudios principales en francés son: A. Koyré, Études galiléennes, París, Hermann, 1966 (o 1939) [trad. cast. Madrid, Siglo XXI de España Editores, 1980]. M. Clavelin, La philosophie naturelle de Galilée, París, Armand Colin, 1968. Hay que señalar dos trabajos extranjeros importantes y muy recientes: W. Wisan, «The new Science of motion. A study of Galileo’s De motu locali», Archive for History of Exact Sciences, noviembre de 1974. P. Galluzzi, Momento. Studi galileani, Roma, Ed. dell’Ateneo e Bizzarri, 1979. Relativa a las magnitudes intensivas: Los estudios más importantes son los de A. Maier sobre la escolástica del siglo XIV: cinco libros publicados en Roma, en alemán, de 1949 a 1958 (Edizioni di Storia e di Letteratura), y un artículo en francés sobre Nicolás de Oresme, en la «Revue des Sciences Philosophiques et Théologiques», 1948. Puede encontrarse un resumen en
www.lectulandia.com - Página 49
inglés en E. J. Dijksterhuis, The Mechanization of the World-Picture, Oxford University Press, 1961, págs. 186-200 (§ 117-133). La discusión medieval sobre las magnitudes intensivas tomó pie en un pasaje de un manual de teología, el Libro de las sentencias de Pedro Lombardo (I, distinctio 17: «De missione spiritus sancti», n.º 7; edición Migne, «Patrologie latine», columnas 56-57). El comentario de esta distinción 17 fue hinchándose progresivamente hasta el siglo XVII (véase un ejemplo en el artículo de A. Combes, «L’intensité des formes d’après Jean de Ripa», Archives d’histoire doctrinale et littéraire du Moyen Age, 1971). Para una discusión más reciente, véase Claude Debru, «Nature et mathématisation des grandeurs intensives» (sobre todo, en J.-H. Lambert y E. Kant), Colloque J.-H. Lambert (Mulhouse, sept. 1977),Paris, Ophrys, 1979, págs. 187-196. Relativa a Torricelli y Roberval: Torricelli, Opere, 3 volúmenes en 4 tomos, Faënza, 1919. — Opere scelte, Turin, UTET, 1975. Roberval, Divers ouvrages, en las «Mémoires de l’Académie royale des sciences», ed. 1693, rééd. 1730. Existe una tesis inédita de Kokiti Hara sobre el método de Roberval para las tangentes (biblioteca de la Sorbona). Relativa a las matemáticas de Descartes: La Géométrie está editada a continuación del Discours de la méthode en el volumen VI de la edición Adam-Tannery. Existe una edición muy cómoda, hecha en Estados Unidos, que contiene un facsímil del original francés (1637) junto con una traducción inglesa anotada: The Geometry of René Descartes, traducido por M. Latham y D. Smith, Nueva York, Dover Books. Hay dos estudios en francés: J. Vuillemin, Mathématiques et métaphysique chez Descartes, París, PUF, 1960. Milhaud, Descartes savant, París, Félix Alean, 1921. Relativa a Newton: La edición magna de los escritos matemáticos de Newton está concluida: The mathematical Papers of Isaac Newton, ed. por Derek T. Whiteside, Cambridge University Press, 8 vols. En las páginas que preceden, he utilizado el volumen I, que www.lectulandia.com - Página 50
contiene los manuscritos de juventud, y el volumen III, donde se halla el texto original (en latín, acompañado de la traducción inglesa) del Method of Fluxions and infinite Series. Actualmente se dispone de la antigua traducción hedía de esta obra por Buffon en el siglo XVIII (reed. Albert Blanchard, París). Unpublished scientific papers of Isaac Newton, ed. por A. R. Hall y M. B. Hall, Cambridge University Press, 1962. Relativa a las curvas mecánicas (de la antigüedad al siglo XVIII): T. L. Heath, Greek Mathematics, Nueva York, Dover Books, 1963, 2.ª ed. — History of Greek Mathematics, Oxford University Press, 1921, 2 vols. R. Taton (dir. de publ.), Histoire générale des sciences, t. 1, La science antique et médiévale (des origines à 1450), 1966, 2.ª ed.; t. 2, La science moderne (de 1450 à 1800) 1969, 2.ª éd., Paris, PUF [hay trad, cast., Barcelona, Destino, 1971]. General: El mejor estudio de conjunto sobre el cálculo infinitesimal sigue siendo el de Carl Boyer, The History of the Calculus and its conceptual Development, reed. Dover Books (1.ª ed. 1949). La colección de textos de D. J. Struik, A Source Book in Mathematics (12001800), Harvard University Press, recoje extractos traducidos al inglés. Los Elements d’histoire des mathématiques de Bourbaki [trad. cast. Madrid, Alianza Universidad, 1976] contienen algunas páginas sobre nuestro tema bajo el título «La cinématique», en la parte consagrada al cálculo infinitesimal. D. T. Whiteside, editor de los escritos matemáticos de Newton, publicó hace unos años su tesis sobre el conjunto de las matemáticas de ese período (en términos generales, de Descartes a Newton): «Patterns of mathematical thought in the later 17th century», Archive for History of Exact Sciences, vol. I, 1961, pág. 179-388.
www.lectulandia.com - Página 51
Física y matemáticas Jean-Marc Lévy-Leblond
La existencia de una relación particular entre la física y las matemáticas goza de un reconocimiento universal. A través de la historia de la física abundan los testimonios explícitos en ese sentido, empezando por la célebre afirmación de Galileo: «La filosofía está escrita en ese inmenso libro siempre abierto ante nuestros ojos (quiero decir: el Universo), pero no se la puede comprender si no le aprende primeramente a conocer la lengua y los caracteres en que está escrito. Está escrito en lengua matemática y sus caracteres son triángulos, círculos y otras figuras geométricas sin cuya mediación es humanamente imposible comprender ni una palabra». Tres siglos después, el astrofísico Jeans escribió: «El Gran Arquitecto parece ser matemático». Podría recopilarse una verdadera antología de citas de este estilo. Y cualquier capítulo de la física parece bueno como ejemplo para tales afirmaciones. Así pues, parece estar claro que la física utiliza con éxito las matemáticas. Veremos no obstante que este enunciado, lejos de ser como aparenta una estricta constatación, está cargado de presupuestos, aunque resuma una visión inmediata de la situación. Pero lleva directamente a preguntarse por las causas de ese éxito. ¿Cómo puede ser que las matemáticas, reputadas en general como estudio de abstracciones puras, «funcionen» en física, considerada como la ciencia de lo concreto por excelencia? Los propios físicos dan fe a menudo, con una sorpresa ingenua o en términos de una confesión incómoda, de que esta adecuación plantea un problema: «Sin embargo, es […] notable que ninguna de las construcciones abstractas que la matemática realiza, teniendo exclusivamente como guía su necesidad de perfección lógica y de generalidad creciente, parezca que haya de permanecer sin utilidad para el físico. Por una singular armonía, las necesidades del pensamiento, preocupado por construir una representación adecuada de la realidad, parecen haber sido previstas y anticipadas por el análisis lógico y la estética abstracta del matemático» (P. Langevin). «La idea de que las matemáticas podían adaptarse, de algún modo, a los objetos de nuestra experiencia me parecía extraordinaria y apasionante» (W. Heisenberg).
1. Las matemáticas: ¿lenguaje de la física?
www.lectulandia.com - Página 52
Las soluciones que se han alegado para el problema de las relaciones entre la física y las matemáticas son varias; pero, tanto si provienen de científicos como de filósofos, en su aplastante mayoría están basadas, sobre todo en la actualidad, en la idea de que las matemáticas constituyen el lenguaje de la física. Al texto de Galileo antes citado, se le pueden añadir dos citas: «Todas las leyes se extraen de la experiencia, pero, para enunciarlas, se precisa de una lengua especial; el lenguaje ordinario es demasiado pobre, y es además demasiado vago, para expresar relaciones tan delicadas, tan ricas y tan precisas. Ésta es, por consiguiente, una primera razón por la que el físico no puede prescindir de las matemáticas; éstas le proporcionan la única lengua en la que puede hablar» (H. Poincaré). «Las matemáticas constituyen por decirlo así el lenguaje por medio del cual puede plantearse y resolverse una pregunta» (W. Heisenberg). Esta concepción de las matemáticas como lenguaje de la física puede, no obstante, interpretarse de varias maneras, según que dicho lenguaje se piense como el de la naturaleza, y que el individuo que la estudia deberá esforzarse por asimilar; o bien que se le conciba, a la inversa, como el lenguaje del individuo, al cual habrán de traducirse los hechos de la naturaleza para que resulten comprensibles. La primera posición parece ser la de Galileo, aunque resulte imprudente acudir demasiado al pasaje citado; también es la de Einstein: «De acuerdo con nuestra experiencia hasta el momento, tenemos derecho a estar convencidos de que la naturaleza es la realización del ideal de la simplicidad matemática. Estoy convencido de que la construcción puramente matemática nos permite encontrar esos conceptos, y los principios que los relacionan, que nos dan la clave para comprender los fenómenos naturales». El segundo punto de vista es el de Heisenberg: «Las fórmulas matemáticas ya no representan la naturaleza, sino el conocimiento que de ella poseemos». Sin embargo, es esencial subrayar que ambas actitudes, lejos de oponerse, no son sino los puntos extremos de un espectro continuo. En efecto, de lo que se trata es de encontrar un punto de equilibrio en el interior de una estructura que se apoya sobre los pares de nociones opuestas naturaleza-hombre, experiencia-teoría, concreto-tracto, hechos (científicos)-leyes (científicas). Según el peto que se asigne a uno u otro de los polos de dichos países se obtiene una infinidad de posiciones vinculadas a filosofías de tipo positivistas nominalista, convencionalista, pragmática, etc., pertenecientes todas ellas al espectro filosófico delimitado por el par empirismo-formalismo. Ahora bien, todas las respuestas que se basan en esta concepción —las matemáticas como lenguaje— yerran al tiro porque diparan por encima del blanco. La solución que proponen para el problema planteado inicialmente: «¿Por qué se aplican en física las matemáticas?», es una solución demasiado vaga, que explica de un modo excesivamente general la educación de las matemáticas al conocimiento científico y al estudio de la naturaleza en su conjunto. Aquí se percibe bien el enorme parecido de todas las posiciones filosóficas mencionadas. Todas ellas tienen en común una concepción general de «la» ciencia, de acuerdo con la cual ésta habría de
www.lectulandia.com - Página 53
hallar en las matemáticas un método universal de representación, apoyándose por lo demás en un método experimental igualmente universal (aunque no sea éste aquí el objeto de nuestras consideraciones). Por querer demostrar demasiado, no se explica nada. En consecuencia, más vale intentar comentar de nuevo cambiando la pregunta clásica; en lugar de preguntar «¿Por qué…?», primero nos preguntaremos: «¿Cómo se aplican las matemáticas a la física?», o mejor: «¿Cuál es la naturaleza de la relación entre las matemáticas y la física?».
2. La naturaleza de la relación entre las matemáticas y la física Empecemos por la observación de que una fórmula tal como «las matemáticas se aplican a las demás ciencias» viene a ser lo mismo que tomar posición acerca del fondo de la cuestión, en cuanto que presenta la relación de las matemáticas a dichas ciencias como una relación de aplicación. De acuerdo con esto, se trataría de una relación instrumental, en la que las matemáticas intervendrían como un instrumento meramente técnico, en situación de exterioridad respecto al lugar de su intervención. Tal descripción parece justificada en el caso de la química, de la biología, de las ciencias de la Tierra, etc.; es decir, en general, de las «ciencias exactas» distintas de la física. En efecto, el papel de las matemáticas se reduce esencialmente al cálculo numérico, es decir, a la manipulación de lo cuantitativo. Puede tratarse de aplicaciones elementales, como en el caso del balance en reacciones químicas, o también, siguiendo con la química, el cálculo de valencias; o pueden ser aplicaciones más complejas, como la utilización de métodos estadísticos en genética. Pero, en cada caso, puede afirmarse que existe una separación suficientemente definida entre el arsenal conceptual propio de uno de esos dominios científicos y las técnicas matemáticas en él utilizadas. De modo más preciso, y limitándonos a tomar algunos ejemplos más o menos arbitrarios, conceptos fundamentales tales como los de cuerpo puro o cuerpo simple, de enlace químico, de estructura primaria, secundaria y terciaria de las proteínas, de actividad enzimática, de código genético en biología molecular, de sedimentación, de facies, de geosinclinal en geología, no tienen nada de matemático, ni en su definición ni en el modo como se los emplea. En física, las cosas suceden de manera muy distinta; ahí, las matemáticas desempeñan un papel más profundo. Resultaría en efecto difícil encontrar un concepto físico que no esté indisolublemente asociado a uno o a varios conceptos matemáticos. ¿Cómo pensar, por ejemplo, de una manera eficaz el concepto de velocidad sin hacer intervenir el de derivada? ¿Cómo pensar «campo electromagnético» sin pensar «campo de vectores»? ¿Cómo pensar «principio de relatividad» sin pensar «teoría de grupos»? Así pues, la física interioriza las matemáticas. Diremos que éstas guardan con aquélla una relación de constitución. www.lectulandia.com - Página 54
Bachelard expresó ya una idea próxima a ésta: «Las hipótesis de la física se formulan matemáticamente. En adelante, las hipótesis científicas resultan inseparables de su forma matemática: son, realmente, pensamientos matemáticos […]. Hay que romper con ese tópico tan del gusto de los filósofos escépticos, que sólo quieren considerar a las matemáticas como un lenguaje. Por el contrario, la matemática es un pensamiento, un pensamiento seguro de su lenguaje. El físico piensa la experiencia con este pensamiento matemático […]». Y, en otro lugar: «El matematismo tampoco es descriptivo, sino formador». Sin embargo, la discriminación pensamiento-lenguaje no está perfectamente clara; por otra parte, Bachelard habla de la «matematización progresiva, dinámica dominante de la historia de las ciencias» en general, entendiendo por tal, más allá de la física, una característica que más adelante mostraremos que es, por el contrario, específica de esta última. Pero precisemos primeramente qué se designa aquí por «relación de constitución». Por supuesto, un concepto físico no es lo mismo que los conceptos matemáticos que pone en juego, no se identifica con ellos ni se reduce a ellos; la física no se limita a la física matemática. Es importante que la distinción entre un concepto físico y su matematización no se conciba como una simple diferencia estática. Un concepto físico no es un concepto matemático más «otra cosa». El concepto matemático no es ni un esqueleto al que la física le presta la carne, ni una forma abstracta que la física se encargue de llenar de un contenido concreto: es esencial que la relación entre las matemáticas y la física se piense en términos dinámicos. Más que como relación de constitución, debería de pensársela como relación constituyente. Por lo demás, una contraprueba convincente la proporcionan las múltiples tentativas, abortadas pero siempre repetidas, para «desmatematizar» la física. Cada vez que se atraviesa un nuevo umbral, hay nostálgicos que se alzan reclamando una física «más intuitiva», «menos matemática». Antes de que fueran dirigidas contra la mecánica cuántica y la relatividad, esas mismas críticas se habían dirigido ya, en su tiempo, contra la teoría electromagnética de Maxwell y contra la teoría de la gravitación de Newton (véase, por ejemplo, la teoría corpuscular de Lesage, que pretendía explicar la ley de Newton mediante un «mecanismo» simple). Según ellos, cada etapa de la física acentúa más y más el carácter matemático de sus leyes (como si una ecuación en derivadas parciales fuera más matemática que una ecuación diferencial, o como si un espacio de Hilbert lo fuera más que un espacio euclidiano de tres dimensiones…) y el carácter abstracto de sus conceptos. Los físicos ortodoxos aceptarán esta situación como una conquista extraordinaria o como un mal ineluctable: los heterodoxos, la rechazarán. Se plantea así la cuestión de saber qué es la física y, más precisamente, cómo se distingue de las demás ciencias. Más adelante veremos que la comprensión de la relación de estas últimas con las matemáticas permite, precisamente, responder a esta pregunta. Por el momento, hay que caracterizar todavía más finamente esta relación.
www.lectulandia.com - Página 55
3. El polimorfismo matemático de la física Conviene descartar explícitamente una interpretación más o menos platónica de la relación entre física y matemáticas que llevaría a concebir el trabajo del físico como un mero descifre que hiciera posible encontrar, bajo la complejidad de los fenómenos que constituyen los hechos físicos, «la armonía oculta de las cosas» (Poincaré), expresada por las relaciones matemáticas. De nuevo, hablar de relación de constitución no significa sobreentender que cada concepto físico posee una constitución matemática absoluta que sea su verdad profunda, su esencia definitiva. Para convencerse de ello y para llamar la atención sobre la naturaleza dinámica de esa relación, basta con darse cuenta de que las leyes y conceptos físicos poseen un carácter esencial que llamaremos su polimorfismo matemático. Designaremos de este modo la propiedad que tienen esas leyes y conceptos de poseer varias matematizaciones posibles. Así, el movimiento rectilíneo uniforme puede concebirse bien geométricamente: espacios iguales recorridos en tiempos iguales (Galileo), bien funcionalmente: dependencia lineal de la distancia cubierta con relación al tiempo, o bien, aun, analíticamente («diferencialmente», incluso): velocidad constante o aceleración nula. Un ejemplo menos burdo lo proporcionaría la dinámica del punto en un campo de fuerzas conservativo, que puede formularse mediante ecuaciones diferenciales (formulación newtoniana), o mediante ecuaciones en derivadas parciales (formulación hamiltoniana), o por medio de principios variacionales (formulación lagrangiana), etc. Naturalmente, las diversas formulaciones de una misma ley son rigurosamente equivalentes, en sentido matemático. No lo son en el sentido de la física, que establece distinciones claras entre ellas. Tales distinciones pueden estar basadas en la historia de un campo de estudio: la aparición de nuevas formulaciones corresponde, por lo general, a la necesidad de resolver nuevos problemas o a la evolución histórica de las propias matemáticas. La existencia de esas expresiones distintas de un «mismo» concepto o de una «misma» ley remite, así pues, muy directamente a su efectivo modo de producción. Su coexistencia en un momento dado traduce a veces la persistencia de vestigios arcaicos en un dominio en el que no se ha llevado a buen término una reestructuración epistemológica llegada a su madurez (éste es el caso, en la actualidad, de la mecánica cuántica). Más frecuentemente, dicha coexistencia corresponde a la existencia de situaciones diversas, tanto por su complejidad como por sus conexiones, en que una misma ley puede ponerse en juego de diferentes maneras que son más o menos eficaces según la formulación que se utilice. Por esto la física, a diferencia de las matemáticas (al menos, en su forma moderna), se presta difícilmente a la axiomatización. El físico vacilará siempre a la hora de establecer un orden jerárquico entre enunciados deducibles los unos de los otros. En física, los «principios» y las «leyes» disfrutan de una relativa movilidad, son intercambiables en un grado muy superior al de los axiomas y los teoremas de la
www.lectulandia.com - Página 56
matemática. La historia futura, más que la pasada, pone de manifiesto la importancia de estas observaciones. En general, quien opera la discriminación entre las diversas formulaciones equivalentes de una misma ley en una época determinada es la extensión de dicha ley a nuevos fenómenos, que limita unas formulaciones a un dominio en adelante circunscrito, mientras que abre a las otras un campo de acción más amplio. Así, volviendo al ejemplo antes citado, la mecánica relativista tolera mal la formulación newtoniana (basada esencialmente en la idea de acción instantánea a distancia), pero acepta una formulación lagrangiana todavía más «simple» que la teoría no relativista. Observemos, finalmente, que cada formulación acarrea con ella una ganga ideológica más o menos densa, la cual puede desempeñar un papel esencial en cuanto al crédito o descrédito del que dicha formulación pueda gozar entre los físicos, considerados colectiva o individualmente. Habría mucho que hablar, por ejemplo, sobre las implicaciones teleológicas que entrañan los principios variacionales, desde Maupertuis hasta el presente.
4. La plurivalencia de las matemáticas en física La ilusión de una armonía preestablecida entre conceptos físicos y conceptos matemáticos acaba por disiparse cuando se trata de la plurivalencia física de los objetos matemáticos, que hace juego con el polimorfismo matemático de las leyes [10] físicas. Así, por ejemplo, las ecuaciones diferenciales lineales (con coeficientes constantes) de segundo orden rigen las vibraciones mecánicas, las oscilaciones eléctricas y muchos otros fenómenos. Así, también, la ecuación en derivadas parciales de Poisson gobierna tanto la electrostática como la teoría (estática) de la gravitación, la difusión del calor y la de los neutrones (en régimen estacionario), el equilibrio de una membrana elástica deformada, el flujo laminar de un fluido con dos dimensiones, etc. Feynman da su merecido a toda interpretación idealista de esas identidades formales: «Una observación más a fondo de la física de esos numerosos temas pone, de hecho, de manifiesto que las ecuaciones no son verdaderamente idénticas. La ecuación que se ha encontrado para la difusión de los neutrones es solamente una aproximación, que nada más es válida para distancias grandes frente al recorrido libre medio, miráramos las cosas más de cerca, veríamos que los neutrones individuales se desplazan en diferentes direcciones. […] La ecuación diferencial es una aproximación, porque hemos admitido que los neutrones estaban equirrepartidos en el espacio. »¿Puede ser que aquí reside la clave del problema? ¿Que lo común a todos los fenómenos sea el espacio, el marco en que la física está situada? Mientras las cosas varíen en el espacio de manera razonablemente suave, lo importante serán las
www.lectulandia.com - Página 57
variaciones de las magnitudes con la posición en el espacio. Por ello obtenemos siempre una ecuación con un gradiente. Las derivadas deben aparecer en forma de un gradiente o de una divergencia: como las leyes de la física son independientes de la dirección, han de poderse expresar en forma vectorial. Las ecuaciones de la electrostática son las ecuaciones vectoriales más simples, que no contienen más que las derivadas de las magnitudes respecto a las coordenadas del espacio. Cualquier otro problema simple —o cualquier simplificación de un problema complicado— ha de parecerse a un problema de electrostática. Lo común a todos nuestros problemas es que hacen intervenir al espacio, y que hemos imitado lo que hace de él un fenómeno complicado mediante una ecuación diferencial sencilla». Evidentemente, estas observaciones poseen un carácter general y valen para todas las situaciones de plurivalencia. Así pues, es a través de un proceso general de aproximación y de abstracción como diversos fenómenos físicos llevan a matemáticas análogas. Nótese que tales convergencias llevan, por otra parte, a la construcción de nuevos conceptos físicos comunes a dominios muy diversos. Así, los conceptos de resonancia, de impedancia, etc., desempeñan un papel fundamental en todos los fenómenos oscilatorios (eléctricos, mecánicos, acústicos, etc.) puesto que éstos están regidos por ecuaciones diferenciales lineales con coeficientes constantes. Conforme a la tesis antes enunciada, lo que fundamenta y constituye a los conceptos físicos en cuestión es, en verdad, esta maternatización específica. Recíprocamente, este fenómeno de plurivalencia no deja tampoco de tener su efecto sobre las propias matemáticas. Por otra parte, la idea de una preexistencia de las estructuras matemáticas respecto de los conceptos físicos que permiten constituir, no sólo no está fundamentada ontológicamente, sino que tampoco tiene un fundamento histórico. Para darse cuenta de ello, no hay más que ver la emergencia simultánea y estrechamente interconectada del cálculo diferencial e integral.[11] Habría que abrir aquí todo el capítulo de la relación inversa de la física con las matemáticas. Se descubriría entonces un doble movimiento contradictorio en el interior de las matemáticas, tendentes por una parte a convertirse en totalmente autónomas mediante la instalación de mecanismos propios de desarrollo, y persistiendo por otro lado en encontrar motivaciones y apoyos en la física. Esta tendencia contradictoria —independencia-interdependencia— sería particularmente interesante de estudiar en casos actuales: relación entre la teoría matemática de las representaciones de los grupos localmente compactos y la utilización de los principios de simetría en física cuántica; relación entre la teoría de las álgebras estrelladas y la teoría cuántica «axiomática» de los campos.
5. La física matemática
www.lectulandia.com - Página 58
Intentaremos ahora precisar la naturaleza bastante particular de la «física matemática» como rama especializada de la física. Para empezar, distinguiremos entre la física teórica y la física matemática. La física teórica pone al descubierto leyes y las aplica; crea y pone en práctica conceptos físicos bajo el control de la física experimental y en interacción con ella. Consta de distintos niveles, que pueden ir desde la interpretación de un cierto resultado experimental especializado mediante leyes físicas conocidas, hasta la búsqueda de nuevas leyes fundamentales. Es matemática en la medida en que las matemáticas desempeñan el papel constitutivo antes indicado. En general, se designa por el nombre de física matemática una actividad mucho más especializada, que podría describirse como un trabajo de reestructuración y depuración de la física teórica. Las formulaciones de las teorías físicas, en el momento de su nacimiento, aparecen como edificios nuevos, ciertamente, pero recubiertos todavía de andamios y sembrados de ruinas procedentes de las antiguas construcciones a las que sustituyen. La labor de la física matemática podría describirse como la de retirar los andamios, recoger las ruinas y hacer patente a plena luz la estructura interna del edificio, la naturaleza y solidez de sus cimientos así como sus puntos débiles. Se trata, pues, de una actividad que tiene necesariamente como objeto teorías y conceptos ya creados y afianzados. Permite evaluar el grado exacto de correlación entre un cierto número de enunciados teóricos y estimar, en consecuencia, la rigidez o la flexibilidad relativas de un sistema teórico, frente a la necesidad o la eventualidad de una reestructuración. Daremos como ejemplo ciertos desarrollos de la teoría de la relatividad restringida. El núcleo de esta teoría, a saber la invariancia de las leyes físicas por el grupo de transformaciones de Lorentz, quedó establecido por Einstein a partir de la hipótesis de la constancia universal de la velocidad de la luz. No obstante, esta constancia es un resultado experimental susceptible siempre de ser de nuevo puesto en tela de juicio. ¿Echaría ello por tierra la propia teoría de la relatividad? Es labor del físico matemático establecer la naturaleza de la correlación entre dicha hipótesis y dicha teoría. Sabemos ahora que la teoría de la relatividad puede basarse en hipótesis mucho más generales, a partir de la existencia de un principio de relatividad abstracto y con la ayuda de la teoría de grupos. Hoy en día se considera, incluso, que la constancia de la velocidad de la luz es una consecuencia muy particular de la relatividad einsteniana, debida a la nulidad de masa del fotón. Nos encontramos aquí de nuevo con la imposibilidad de axiomatizar la física de una manera única —siquiera en un momento dado—. Resulta en efecto esencial saber que una ley o una teoría física puede deducirse de varios surtidos de principio, más o menos generales, más o menos plausibles. Si la práctica invalida a la propia teoría, se sacará la conclusión de que al menos una hipótesis de cada surtido no es válida. A la inversa, cuando quede contradicha una hipótesis hay que abstenerse de llegar a la conclusión de que la teoría ha fracasado en su conjunto.[12] Sin embargo, la física www.lectulandia.com - Página 59
matemática es una actividad de físico y no de matemático, puesto que la naturaleza de las teorías que somete a investigación y el tipo de hipótesis alternativas que se ve llevada a formular, responden al desarrollo general de la física y toman necesariamente en cuenta, de cerca o de lejos, su práctica experimental: los límites con los que topó un matemático tan brillante como Poincaré en su actividad de físico, a propósito de la relatividad restringida, ilustran claramente estas observaciones. Existen condiciones internas a la práctica científica, como la dificultad que entrañan ciertos problemas, además de condiciones externas, como la división social del trabajo científico, que pueden dar cuenta de la distinción entre «física teórica» y «física matemática». Esta última expresión, que se introdujo en el siglo pasado, en el apogeo de la física llamada clásica, cayó en desuso durante los años de desarrollo de la física llamada moderna; desde hace una treintena de años, ha adquirido una cierta extensión, debido tanto a las dificultades de crecimiento de determinadas ramas teóricas como al incremento de la especialización de los científicos.
6. Las matemáticas y la especificidad de la física La singularidad de la física en su relación con las matemáticas resulta, evidentemente, muy difícil de captar por parte de aquellas concepciones que hacen de las matemáticas un «lenguaje». En efecto, los defensores de estas concepciones se ven forzados a pensar este lenguaje como universal, es decir, como susceptible de aplicarse a todas las disciplinas científicas. Este punto de vista obliga, pues, a tratar a la física, donde, de manera empíricamente evidente, las matemáticas «funcionan mejor», como diferente de las otras ciencias sólo cuantitativamente. Esta diferencia puede pensarse históricamente, diciendo que la física está «más adelantada» que las demás ciencias y que ello explica su grado de matematización más avanzado.[13] Un mejor control de las condiciones de experimentación, por ejemplo, daría cuenta de la posibilidad de medir, cuantitativamente, toda magnitud física. A su vez, esta mensurabilidad general sería la que permitiría la intervención de las matemáticas, «ciencia del número» por excelencia. Este punto de vista no solamente no explica por qué habría de tener la física este privilegio histórico, sino que además es completamente erróneo. Reducir las matemáticas a la manipulación de lo cuantitativo constituye un error del mismo tipo que el de considerarlas como un simple lenguaje. Incluso en las ramas de las matemáticas que intervienen con ocasión de cálculos numéricos corrientes, existen conceptos fundamentales, como los de derivada, o de límite, que no son numéricos. Nótese a fortiori el papel que desempeña en física la teoría de grupos, cuya relación con el aspecto cuantitativo de las medidas físicas es, como mínimo, lejana.
www.lectulandia.com - Página 60
Podría sentirse entonces la tentación de localizar la singularidad de la física en el objeto de su práctica, más que en su situación histórica. Y es así como encontramos expresada la idea de que la física es «más fundamental» que las otras ciencias de la naturaleza. Puesto que acomete el estudio de las estructuras más profundas de la naturaleza, pondría de manifiesto sus leyes más generales, pensadas implícitamente como «más simples», en sentido ontologico, y por consiguiente más matematizables. En cualquier caso, llegamos a una estructura jerarquizada de las ciencias: ¿no se ha dicho que la física era la «reina de las ciencias»? La matematicidad adquiere entonces un carácter normativo y se convierte en criterio de cientificidad. Pero el propio desarrollo de las distintas disciplinas científicas contradice este punto de vista, tanto si se trata de la persistencia como disciplinas autónomas de ciencias tales como la química y la geología, como si se trata de la aparición de nuevas ciencias como la biología molecular. Estas ciencias disponen de sus propios conceptos, que no están matematizados, pero cuya coherencia mutua y la relación con las prácticas experimentales específicas de su dominio bastan para garantizar la cientificidad. De hecho, el conocimiento que la física proporciona de la estructura atómica y la posibilidad que aporta de edificar una teoría detallada de la valencia o de la reacción química, no convierten por ello a esos conceptos de la química en inútiles y caducos; muy a) contrario, permiten profundizar en ellos, al menos en la medida en que muestran sus límites, y merced precisamente a ello. En otras palabras, cuando los progresos de una disciplina científica le dan acceso a un dominio que, hasta entonces, le estaba reservado a otra, no se trata en general de un simple desplazamiento de frontera. Lo que sucede, más bien, es que se instaura un estatuto de doble nacionalidad, con todas las ventajas e inconvenientes que ello puede suponer. Aquí, el verdadero problema sería el de la naturaleza de la relación entre dos ciencias: aplicación o constitución. Los casos de la física y de la química, de la química y de la biología, merecerían que se les prestara una gran atención. Nos encontramos, en consecuencia, ante una doble dificultad: por una parte hay que explicar la singularidad de la física en su relación con las matemáticas; por otra parte, hay que especificar la distinción entre la física y las demás ciencias de la naturaleza. Ni los métodos experimentales de la física, ni su historia, ni su objeto permiten contestar a esas dos preguntas: toda «respuesta» a una de ellas refuerza el misterio de la otra. En oposición con las tentativas de solución arriba evocadas, la tesis que proponemos sublima simultáneamente ambas cuestiones: la determinación específica de la física la constituye su relación con las matemáticas. En otras palabras, si tal o tal cantón del continente de las ciencias de la naturaleza accede al reconocimiento que supone situarlo en el territorio de la física, ello es así merced a la naturaleza de su relación con las matemáticas, por el papel constitutivo que éstas desempeñan en él. Daremos primeros algunas pruebas históricas. Cuando se opera, con Galileo, la ruptura epistemológica que funda a la física como ciencia en sentido estricto,
www.lectulandia.com - Página 61
Descartes hace el siguiente comentario: «En general, encuentro que Galileo filosofa mucho mejor que lo que es común, en cuanto que abandona tanto como le es posible los errores de la Escuela, y trata de examinar los temas físicos mediante razones matemáticas. En esto estoy enteramente de acuerdo con él y mantengo que no existe en absoluto ningún otro medio para encontrar la verdad». Añadamos, por otra parte, que de lo que se trata en el comentario de Descartes es del libro de Galileo al que éste menciona, por lo general, en su correspondencia como Tratado del movimiento, pero que se publicó con el título, debido sin duda al editor que quería llamar la atención sobre su novedad, de Discurso y demostraciones matemáticas pertenecientes a dos ciencias nuevas. Siglo y medio más tarde, la electricidad y el magnetismo no ingresaron verdaderamente en la física más que con la ley de Coulomb, después de haber dependido previamente de concepciones esencialmente vitalistas que, no obstante, no impidieron importantes progresos experimentales (botella de Leyde, máquinas electrostáticas, pilas voltaicas). La novedad de este punto de vista la expresó Delambre en 1810 al declarar: «Todo lo que concierne a la luz, la gravedad, el movimiento y el choque de los cuerpos es, hoy, casi únicamente incumbencia de la geometría […]. Se ha intentado incluso someter al cálculo los fenómenos magnético y eléctrico». Añadamos un ejemplo más: la intervención de las matemáticas, subespecie de la teoría de grupos, que convirtió, a finales del siglo XIX, a la cristalografía en un dominio de la física. Si se adopta un punto de vista analítico más que histórico, se constata que las disciplinas frontera, como la química física, la geofísica, la biofísica, etc., no pueden definirse por sus objetos (que son, evidentemente, los mismos que los de la química, de la geología, de la biología, en la medida en que éstos estén definidos), ni por sus métodos experimentales, que, por otra parte, evolucionan constante y rápidamente; sólo las define el tipo de conceptualización, constituida matemáticamente, que utilizan. El caso de la astrofísica merece ser mencionado aquí; permite prevenir contra una interpretación formalista de la tesis que hemos expuesto, que pensaría la determinación específica de la física por su relación con las matemáticas como enfeudación de la una a las otras, instituyendo una relación a fin de cuentas jerárquica. Ello representaría «olvidar» la existencia de prácticas experimentales de un tipo muy particular que separan a las ciencias experimentales, incluida la física, de las matemáticas. Efectivamente, la astronomía, mucho más vieja que la física, se consideraba como una disciplina matemática y siguió siendo considerada como tal hasta mucho después del nacimiento de la física. La fundación de la astrofísica (que se puede hacer remontar al final del siglo pasado) y la progresiva extinción, en su provecho, de la astronomía, son precisamente resultado de la importación de esas prácticas experimentales a un dominio ya constituido matemáticamente, proporcionándole por otra parte una extensión considerable.[14] Este caso muestra que los desplazamientos de frontera no tienen necesariamente lugar en un sentido único a www.lectulandia.com - Página 62
lo largo de la clasificación positivista de las ciencias. Como hemos tratado de poner de manifiesto en el caso de las matemáticas y la física, la propia idea de clasificación universal, de jerarquía, no sirve por lo general más que para enmascarar la necesidad de comprender simultáneamente la especificidad de las ciencias y sus relaciones mutuas a través de las prácticas que les son propias.
Bibliografía N. Anathakrishnan, «The Role of Mathematics in the Development of Physics», Proceedings of the Conference on Mathematical Methods in Physics (Mysore, 1978), Madras, Institute of Mathematical Sciences, 1979, parte A, págs. 15-27. G. Bachelard, Le nouvel esprit scientifique, París, Alean, 1934. — La formation de Vesprit scientifique, Paris, Vrin, 1938.> — L’activité rationaliste de la physique contemporaine, Paris, PUF, 1951. M. Born, Expériences et théories de la physique (Experiment and Theory in Physics, 1944), trad, por J.-P. Mathieu, París, Gauthier-Villars, 1955. M. Bunge, Foundations of Physics, Heidelberg, Springer, 1967. R. Descartes, Lettres à Mersenne. P. Duhem, La théorie physique: son objet, sa structure, Paris, Rivière, 1914, 2.ª éd.; reimpr. Vrin, 1981. R. Feynman, Cours de physique, Paris, Interéditions, 1969. — La nature de la physique, Paris, Seuil, 1980, 2.ª ed. Galileo, Lessayeur (II saggiatore, 1623), trad, por Ch. Chauviré, Paris, Les Belles Lettres, «Annales littéraires de l’université de Besançon», vol. 234, 1980 [trad. cast. El ensayador, Madrid, Aguilar, 000]. — Dialogues et lettres choisies, trad, por P.-H. Michel, Paris, Hermann, 1966. — Discours et démonstrations mathématiques concernant deux sciences nouvelles (1638), trad, por M. Clavelin, Paris, Armand Colin, 1970 [ed. cast, de C. Solis y J. Sádaba, Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias, Madrid, Editora Nacional, 1976]. H. Poincaré, La valeur de la science, Paris, Flammarion, 1910 [trad, cast., El
www.lectulandia.com - Página 63
valor de la ciencia, Madrid, Espasa-Calpe, Col. Austral, n.º 628, 1946]. K. Popper, La logique de la découverte scientifique, Paris, Payot, 1973 [trad. cast, de V. Sánchez de Zavala, La lógica de la investigación científica, Madrid, Tecnos, 1962]. C. W. Tombaugh y P. Moore, Out of the Darkness. The Planet Pluto, Harrisburg (Pennsylvania), Stackpole Books, 1980. T. Vogel, Physique mathématique classique, Paris, Armand Colin, 1956.
www.lectulandia.com - Página 64
Pintura y geometría en el siglo XIX[15] Jean-Claude Pont
1. Postulado filosófico Quisiera hablarles a ustedes de una serie de consideraciones que me sugirió el estudio del desarrollo de la geometría en el siglo pasado y, más en particular, el de topología. Dichas consideraciones ¿son consecuencia de un postulado de naturaleza filosófica, o bien son su causa? Aquí reside ya una primera dificultad. Si dicho postulado se impusiera como una regla de la inteligencia que intenta prescribirles a los hechos su propia estructura, correríamos el peligro de que, inconscientemente, hubiera yo partido de una determinada conclusión para tratar de hacerla compartir con más o menos fortuna. Algo así es lo que, a veces, se le reprocha a la filosofía: se ha escogido una opción y hay que defenderla, en lugar de acercarse a la verdad por sucesivas aproximaciones ([4], pág. 303). No llegaré hasta el extremo de afirmar que, en esta eventualidad, los hechos de que voy a hablarles se crearon de pies a cabeza, para satisfacer las necesidades de la causa; diré más bien que alcanzan esta dignidad porque son portadores de una teoría. Lo que los fundamenta es el puesto de observación. Veamos cuáles son las características principales de ese postulado. La misma fuerza misteriosa desencadena y dirige la ideación y la evolución de conceptos en el cerebro del matemático, y la elaboración de criaturas en la mente del artista. Una y otra actividad revela las mismas agitaciones inconscientes, con diferentes modalidades de expresión. Esta fuerza posee componentes determinadas por el material genético de los individuos y por su experiencia, la cual debe mucho al estado sociocultural del mundo en que aquéllos se encuentran inmersos. Este postulado posee corolarios, el más importante de los cuales es el siguiente: la actividad humana es una, y las diversas manifestaciones que de ella percibimos no son sino el reflejo de una necesidad de comprender y de clasificar que experimenta el hombre, quien, con objeto de simplificar, esquematiza. Lo llamo el corolario más importante porque su negación me parece corresponder a una creencia tácita, generalizada y perjudicial, según la cual la acción humana estaría compartimentada, subdividida. La materia gris estaría constituida por recipientes estancos, y una mirada hábil podría, incluso, reconocer en ellos a la Ciencia, el Arte, o el Deporte. Hasta tal punto es así que, a veces, se atribuye más valor a la etiqueta que a la sustancia, se precian más los diplomas del genitor que el contenido propiamente dicho. Para
www.lectulandia.com - Página 65
algunos, dichos temas de ocupación no solamente estarían separados sino que serían incompatibles: buenos o malos, supremos o triviales. He dicho que se trata de un postulado filosófico; por lo tanto, es expresión de una cierta sabiduría, incapaz en consecuencia de atraer sobre sí consenso alguno. Más precisamente, se le reconoce como trivial o como absurdo con todos los matices intermedios según la propia «coordinación de valores». Aquí reside la segunda dificultad. Por esta razón temía yo que este enunciado venga a ser, a la vez, como inventar la pólvora y echar al mundo ideas cuya contradicción es manifiesta. La última dificultad es la siguiente: para presentar claramente estas consideraciones y, sobre todo, para apoyarlas, se hace precisa la intervención activa de elementos de la historia del arte. Y yo no soy un especialista en la materia. Así pues, me coloco en la penosa situación de «no saber exactamente de qué hablo ni si lo que digo es verdad». Me esforzaré, por eso, en no ocultar, como decía Jean Rostand, la inevitable ambigüedad de un pensamiento que sólo aspira a expresarse con total franqueza y libertad, sin hacer la más mínima concesión a la lógica partidista o siquiera a la coherencia doctrinal. Para atenuar el peligro inherente a esta última dificultad, he copiado sin más y a menudo los pasajes de obras célebres de historia de la pintura adecuados a mis propósitos. Cada uno de ellos va provisto de comentarios análogos pertenecientes a la historia de las matemáticas.
2. Siglos XV al XVII: pintura y geometría clásicas A grandes rasgos, la toma de Constantinopla por los turcos, en 1453, coincide con la aparición de una gran época artística. Era en vísperas de la reforma, «que con tanta fuerza había de conmover la evolución de las artes» ([6], pág. 190). Sin embargo, pese a tantos cambios importantes, no se dio entonces una verdadera ruptura en la tradición. No obstante las variaciones de la moda y la diversidad de las preocupaciones de los artistas, el objetivo perseguido por pintores y escultores seguía siendo, en esencia, el mismo. Cierta fidelidad al modelo era de recibo. «El arte del Renacimiento […] se había dedicado a encerrarlo [al hombre] en sus particularidades físicas más distintivas […] Este arte estaba dominado por la preocupación por la identidad» ([5], pág. 72). «En un principio, todo parecía ir a pedir de boca; la perspectiva científica, el color veneciano, el movimiento y la expresión se fueron incorporando uno tras otro al utillaje del artista, poniéndolo en condiciones cada vez mejores para representar bien lo que veía. Sin embargo, cada generación descubría zonas inesperadas de resistencia, la persistencia de convenciones inducía a los artistas a sustituir la espontaneidad de la visión por formas aprendidas […] Desde entonces, hemos comprendido mejor que es
www.lectulandia.com - Página 66
muy difícil separar exactamente lo que conocemos de lo que vemos» ([6], pág. 294). Incluso si, antes de 1850, el naturalismo, el realismo óptico fue «la excepción y no la regla» ([5], pág. 18) —los artistas siempre han deformado más o menos los datos del mundo exterior, más que reproducirlos con fidelidad—, fuerza es constatar que esas deformaciones son de poca importancia y su estudio no constituye nunca un fin en sí mismo. Este «realismo intelectual responde a la preocupación por representar las cosas tomando menos en cuenta los caracteres que nuestro ojo es capaz de descubrir en ellas, que las cualidades de las que nuestra mente las reviste» ([5], pág. 21). Pero resulta que esos aspectos coinciden lo bastante como para que las deformaciones empleadas no se aparten demasiado del realismo óptico. En la Inglaterra del siglo XVIII, el gusto estaba basado en la razón; y, para decirlo con una expresión de Gombrich, la razón era el ojo. Esta actitud tuvo pocas excepciones. Quizás la más importante fue cosa del pintor Blake. Éste «estaba tan absorto en sus visiones que se negaba a dibujar del natural y sólo se fiaba de su mirada interior. […] Al igual que los artistas de la Edad Media, se preocupaba poco por la representación exacta» ([6], pág. 209). A principios del siglo pasado, Goya utilizó también la deformación para «estigmatizar la pretensión de sus modelos» ([6], pág. 203). Se ha dicho que nadie se ha atrevido como él a «anonadar hasta ese punto a sus modelos» ([6], pág. 203). «Hacia finales del siglo XVIII, ese fondo común parece descomponerse poco a poco. Se llega entonces al umbral de los tiempos modernos en el verdadero sentido de la palabra, un tiempo cuyo inicio coincide con la Revolución de 1789, la cual había de poner fin a un gran número de creencias y certidumbres admitidas durante siglos» ([6], pág. 191). «Vemos así a la música agitada, al igual que las demás artes, por el mismo viento de libertad que, desde la Revolución francesa, ha transformado más o menos profundamente las condiciones sociales y políticas de Europa» (Robert Siohan, L’Education nationale, 15 de marzo de 1962, citado en [7], pág. 386). La geometría «realista», la de antes de la topología, confirma la idea que, en general, tenemos de las cosas. Está dominada por la igualdad y la semejanza. Es el reino de los desplazamientos. Esta geometría se había dedicado a encerrar la figura en sus particularidades físicas más distintivas.
3. Primera mitad del siglo XIX: romanticismo y realismo A principios del siglo XIX aparecen en el proscenio de la matemática dos ideas propiamente revolucionarias que inducen un cambio en la naturaleza del pensamiento matemático. Parafraseando lo que René Huyghe decía del arte, podría afirmarse que,
www.lectulandia.com - Página 67
hasta entonces, la ciencia del número y del espacio se situaba «a medio camino entre el hombre y el universo» ([7], pág. 336). Con la geometría no euclidiana y la teoría de los números complejos, desaparece una creencia que había acompañado a la matemática a lo largo de toda su historia, a saber: la creencia en la existencia de cosas exteriores al hombre y en que la ciencia se dedicaba solamente a describir el comportamiento de dichas cosas; o, para hablar como Piaget, la fusión de la norma y del hecho. Al desaparecer, libera a los temas tradicionales del sustrato que les había dado origen: el espacio físico de nuestras sensaciones y el número entero, el de Pitágoras, ese que, como dijera Kronecker, nos vino dado por el propio Dios. El primer movimiento artístico que encontramos en el siglo XIX, y que aparece hacia 1815, se conoce en la historia con el nombre de romanticismo. El individualismo, del cual se afirma como defensor, desemboca en la noción de expresión total del artista y en su liberación. El folklore, vinculado a la proclamación de esa libertad, abole la prohibición de los temas indignos y conduce, en última instancia, al deseo de expresar el tiempo y el espacio puros. Hacia 1850, ese movimiento conduce al realismo, con Millet y Courbet, quienes dieron un nuevo paso en dirección a una autonomía completa por lo que se refiere a la elección del tema: hay que pintar la vida del campesino tal y como es. «Las célebres Glamenses, por ejemplo, no incluyen ningún incidente dramático o anecdótico. Son, simplemente, tres mujeres trabajando duro en un campo. No son ni bellas ni graciosas. En el cuadro no hay nada idílico» ([6], pág. 227). Este realismo —la expresión es de Courbet (1885)— marcará un viraje decisivo en la evolución artística. Courbet no aspira a la elegancia sino a la verdad y, evidentemente, esta actitud corresponde a una extensión del conjunto de los temas accesibles a los pintores y, en consecuencia, a un aumento de su libertad. El paisaje adquiere derecho de ciudadanía. La libertad que aporta el romanticismo y que triunfa en el realismo se corresponde con la libertad del matemático frente a los entes que toma como objeto de estudio. En geometría, las figuras dignas de atención eran las figuras nobles, los sólidos platónicos. En la obra de Lhuilier aparecen ya cuerpos vulgares, pero es con Listing (1860), sobre todo, cuando el geómetra condesciende a examinar los complejos más generales. Sus complejos no son ni bellos, ni agraciados, ni están cargados de un lastre anecdótico como lo estaban los poliedros regulares. A lo largo del siglo XVIII, la pintura había dejado de ser una artesanía y se había convertido en materia de enseñanza académica, como la filosofía. El término de académico resume una actitud nueva. El nombre viene de la villa en que Platón reunía a sus discípulos. La doctrina académica enseñaba, en especial, que la pintura noble debía limitarse a la representación de héroes, de figuras mitológicas o bíblicas. Vinculada indirectamente con el nombre de Platón, se encuentra una doctrina que pretende, entre otras cosas, circunscribir los temas del pintor; los sólidos platónicos eran, quizás, la causa de la asombrosa limitación de las formas espaciales que he mencionado. Por lo demás, no hay que excluir que la propia limitación platónica sea www.lectulandia.com - Página 68
la expresión racional o metafísica de una prohibición que tenga su origen en determinadas prácticas rituales.
4. Segunda mitad del siglo XIX: impresionismo «Al sustituir la imagen objetiva de la realidad visible por la sensación momentánea que produce el objeto sobre la retina y al pasar de la representación de cosas conocidas a la fijación de aspectos inéditos, los impresionistas (cuyo gran período se sitúa entre 1863 y 1886) orientaron la pintura hacia la interpretación subjetiva del motivo y, en consecuencia, hacia la depreciación del tema […]. Desde luego, entre ellos la sensación sólo afectaba al ojo y se mantenía en estrecha relación con la naturaleza que la había suscitado. Pero en Van Gogh penetraba ya todo el ser… También en Gauguin, en Cézanne, en Seurat, el cuadro se presenta más como una creación de la mente que como la representación del mundo exterior. En adelante, al artista le preocupa menos lo que puede observar que lo que siente, concibe o imagina. Empieza por servirse con libertad de los dalos de la naturaleza; echa mano de las deformaciones, de las trasposiciones, y las lleva hasta el extremo en que los objetos se hacen irreconocibles. La imagen (naturalista) se desvaloriza cada vez más, en provecho de aquellas significaciones de las cuales la simple forma y el mero color pueden estar cargados» ([5], págs. 10-11). «En sus esfuerzos laboriosos por sugerir la profundidad sin sacrificar el brillo del color en todas sus luchas y su andar a tientas, sólo una cosa estaba [Cézanne] presto a sacrificar, si en ello veía la más mínima utilidad: era la “corrección” del contorno. No procuraba deformar, por principio, la naturaleza; pero si alguna deformación podía ayudarle a conseguir el objetivo de su búsqueda, recurría a ella sin vacilación […]. Se hallaba sin duda lejos de pensar que esta indiferencia por la corrección del dibujo, de la que daba ejemplo, iba a ser el origen de una verdadera conmoción en la evolución de las artes» ([6], pág. 274). Del mismo modo, «Van Gogh no se preocupaba esencialmente por una representación correcta de las cosas […]. Le preocupaba poco lo que él llamaba la “realidad estereoscópica” […]» ([6], pág. 280). Cézanne y Van Gogh «dieron el paso decisivo al renunciar deliberadamente a considerar la imitación de la naturaleza como la meta del arte de la pintura” ([6], pág. 280). Uno y otro llegaron a ese extremo sin ningún deseo premeditado de combatir las normas tradicionales del arte. No se erigían en revolucionarios; su intención no era la de estar en contra de nadie» ([6], pág. 280). «En un pintor como Braque, los objetos son todavía más ajenos a la visión común que de ellos se tiene En general, aparecen en un estado que habría de impedirles por
www.lectulandia.com - Página 69
completo desempeñar el papel utilitario que se les asigna en la vida» ([5], pág. 47). La deformación topológica tuvo su presentación en geometría con Möbius en 1861 y Neumann en 1864. Con ella, el matemático va a despreciar determinados aspectos inmediatos de las cosas para fijar su atención en otros aspectos inéditos. La esfera y todas las superficies que le son homeomorfas son equivalentes. En el fondo, se ha menospreciado al objeto para revelar mejor su naturaleza profunda. Luego, acaba tomando la forma de un objeto irreconocible, incapaz ya de prestar los servicios que se le acostumbran a requerir. Por otra parte, esos objetos ya no se encuentran en la naturaleza. Son creaciones de la inteligencia.[16] El instrumento del que el geómetra se sirve para descubrir aspectos inéditos en los entes que estudia es, lo he dicho ya, la deformación que los modifica en algunos extremos que, por un momento, se consideran como no esenciales. Lo que queda en el crisol, esa cosa a la que se llama un invariante, que pertenece tanto al modelo como a su representación, constituye la esencia del objeto desde el punto de vista particular de esa deformación. Examinemos un poco esas deformaciones. Todos los pintores las han utilizado más o menos, pero apartándose poco de la semejanza, al igual, en el fondo, que los geómetras. Luego, en el siglo XIX, de modo esporádico al principio, vemos aparecer transformaciones más deformadoras. Recordemos a Blake y a Goya. Si Goya estigmatizó la pretensión de sus modelos hasta el punto de anonadarlos, ¿qué decir de los topólogos? Han anonadado al poliedro y al continuo, hasta el extremo de extraer de ellos seres patológicos: del uno, lo sólidos no eulerianos y, del otro, funciones continuas que no son derivables en ningún punto y curvas que llenan toda la superficie de un cuadrado. Han demostrado que el continuo, bajo su apariencia bonachona, encubría los peores monstruos y no era digno de confianza. Si el primer mandamiento de la aritmética era «no dividirás por 0», el de la topología parece que es «desconfiarás del continuo». Hacia 1825, Gauss introdujo la deformación como medio de penetrar el secreto de las superficies. Pero su deformación se mantiene dentro de unos límites razonables: es isomètrica. Sin embargo, ya en ese caso es posible que el original y su imagen no sean parecidos a los ojos del sentido común. En plena época romántica, Gauss libera a la teoría de las superficies de las sujeciones que se le habían impuesto. El estudio serio de las transformaciones geométricas, la toma de conciencia de su exacto papel, el uso de las mismas en la edificación de la geometría o, mejor diríamos, en el estudio sistemático de los entes geométricos, hacen su aparición explícita en 1872 con el programa de Erlangen de F. Klein. Curiosa coincidencia: a partir de 1875 es cuando Cézanne, y luego Gauguin, van a hacer de la deformación un instrumento habitual del pintor. A las transformaciones retinianas les suceden transformaciones conceptuales, intelectuales, impuestas por el clima sociocultural y por los problemas internos de la ciencia pictórica. Escuchemos la magna voz de Nicolas Burbaki ([8], págs. 142-143) que nos habla de geometría clásica y pensemos sus palabras en términos de historia de la pintura: www.lectulandia.com - Página 70
«Nada permite sin duda, por la infinidad de “teoremas” que, de esta manera, pueden desplegarse a voluntad, prever a priori cuáles serán aquéllos cuyo enunciado poseerá, en un lenguaje geométrico apropiado, una simplicidad y una elegancia comparables a las de los resultados clásicos; queda ahí un dominio restringido en el que continúan ejercitándose con fortuna numerosos aficionados (geometría del triángulo, del tetraedro, de las curvas y superficies algebraicas de grado inferior, etc.). Pero, para el matemático profesional la mina está agotada, puesto que ya no existen en ese campo problemas de estructura capaces de tener repercusión sobre otras partes de las matemáticas […]. Por supuesto, esta ineluctable caducidad de la geometría (euclidiana o proyectiva), que a nosotros nos parece evidente, permaneció desapercibida durante mucho tiempo para sus contemporáneos y, hasta alrededor de 1900, dicha disciplina siguió siendo considerada como una rama importante de las matemáticas…». Hemos dicho que la imagen naturalista se desvaloriza en provecho de las significaciones. Es otra manera de hacer notar que se ha ignorado un determinado aspecto del tema, considerado como accidental. (¿Qué hace que un aspecto se tuviera por accidental? Quizás una determinada visión del mundo). Bajo el efecto de las transformaciones, los objetos matemáticos se descoloran; uno está tentado de decir que pierden lo que hasta el momento se había considerado como su sustancia misma. Así le ocurre al número con los trabajos de Hankel y de Dedekind, que significan poner en primer plano determinadas operaciones, es decir, aplicaciones particulares. Una situación análoga se produce para los objetos de la geometría, los cuales, a partir de los trabajos de Pasch (1882) y de Hilbert (1899), pierden su identidad para encontrar su esencia. Poco importa, dirá Hilbert, que por punto, recta o plano uno se represente un jarro de cerveza, una mesa y un sillón. El clamor de indignación levantado por la eclosión del impresionismo es cosa demasiado conocida para que se insista sobre ella. Basta con recordar la frase de un crítico célebre y respetado: «La calle Le Peletier no tiene suerte. Después del incendio de la Opera, otra calamidad se ha abatido sobre el barrio. En Durand-Ruel acaba de inaugurarse una exposición que supuestamente es de pintura. El inofensivo transeúnte entra allí, atraído por los anuncios, y ante sus ojos se ofrece un terrible espectáculo, etc». ¡Muy en el tono de esa querella entre pintor y crítico que había de durar una treintena de años! Releamos ahora la descripción de los primeros trabajos de Cantor y como Burbaki la ha descrito ([8], pág. 43), luego de haber precisado que las críticas de Schwarz y Kronecker son anteriores a las antinomias (1897): «Era imposible que se aceptaran sin resistencia concepciones tan atrevidas, que echaban por tierra una tradición dos veces mileniaria y conducían a resultados tan inesperados y de apariencia tan paradójica. De hecho, de entre los matemáticos por entonces influyentes en Alemania, Weierstrass fue el único que concedió un cierto favor a los trabajos de Cantor (su antiguo alumno); este último había de chocar, en cambio, con la oposición irreductible de Schwarz y, sobre todo, de Kronecker».
www.lectulandia.com - Página 71
Monet y sus amigos desvalorizan el tema para examinar las condiciones que nos lo revelan, es decir, la luz y el punto de vista. Por la misma época, los matemáticos empiezan a interesarse más por las relaciones entre los objetos que por los objetos mismos. Recuérdese la frase de Bachelard que mejor caracteriza a esta nueva matemática: «La esencia es contemporánea de la relación» ([9], pág. 22), y también: «Dime cómo te transforman y te diré quién eres» ([9], pág. 28).
5. El cubismo Pasemos al movimiento llamado cubismo. Insatisfechos por el impresionismo, Cézanne y muchos otros artistas jóvenes lo abandonan; se esfuerzan por reconducir la naturaleza a formas simples. «[…] cómo construir una figura, una cara o un objeto con unos cuantos elementos muy simples […]. En una carta dirigida a un joven pintor, Cézanne le había aconsejado que viera la naturaleza en términos cuasi geométricos: cubos, conos, cilindros. Con eso quería sin duda decir que, al componer su cuadro, el pintor nunca debe perder de vista dichos sólidos elementales […]. Picasso y sus amigos decidieron aplicar el consejo al pie de la letra» ([6], pág. 308). Gombrich pone en boca de Picasso las siguientes palabras: «Por qué no somos lógicos y admitimos que nuestro verdadero objetivo es el de construir, y no el de copiar alguna cosa» ([6], pág. 308). «Alrededor de 1910, los cubistas descomponen los objetos en tal multitud de facetas que los desmenuzan y los hacen desvanecerse en algunas de sus partes» ([5], pág. 102). Hasta tal punto habían agrandado la separación entre los objetos naturales y la representación que daban de los mismos «que sólo quedaba por dar un paso para que el artista decidiera no tomar ya más en cuenta a la naturaleza y se dejara llevar libremente por sus invenciones plásticas» ([7], pág. 375). Al precisar, en 1882, la clasificación de las superficies proporcionada ya por Möbius y Neumann, el objetivo que Klein se determina es ése precisamente: reconducir la naturaleza a formas simples. Por lo demás, son ésos los propios términos que Klein utiliza. En cuanto a la idea de construir todas las formas a partir de formas elementales, Dick la adopta como guía en sus trabajos (1882-1890). Lo que los cubistas hicieron hacia 1910, también lo hicieron los matemáticos. También ellos agrandaron hasta tal punto la separación entre los objetos naturales y sus representaciones que se estaba sólo a un paso de que el geómetra se decidiera a no tomar ya más en cuenta la naturaleza y se dejara llevar libremente por sus invenciones plásticas. ¿No es la matemática del siglo XX una larga y maravillosa sucesión de invenciones plásticas?
www.lectulandia.com - Página 72
6. El arte abstracto «Al considerar el arte moderno, lo primero que puede llamar la atención es la rapidez, por no decir la precipitación, con que ha evolucionado: en menos de cuarenta años, ha pasado de los impresionistas a los abstractos» ([5], pág. 9). La primera oposición entre la pintura contemporánea y la que había imperado en Occidente desde el siglo XV es que la una rechaza esa imitación de la realidad que la otra se había fijado como objetivo. No todos se expresan de la misma manera. «Sin embargo, a despecho de todo lo que pueda separarles, poseen en común rasgos que les prestan un parecido de familia a la que se les compara con un representante de la tradición realista. […] Todos rechazan la perspectiva “clásica” y su espacio mensurable a favor de la construcción de un espacio imaginado. […] [Su lenguaje] no tiene como fin revelar el objeto en sí mismo, sino el significado que toma ante una mirada singular». «El arte moderno pone en tela de juicio las ideas que acostumbramos a hacernos, las socava y nos invita a descubrir aspectos inéditos en los objetos. Se complace en desorientamos y nos lleva a enfrentarnos con lo desconocido precisamente allí donde el objeto real parecía distinguirse por su reconfortante trivialidad […]. El artista moderno no cuenta muchas cosas y, para él, la precisión del detalle cuenta menos que el lirismo del conjunto» ([5], págs. 44-46). ¿Cabría expresarse mejor si se quisieran caracterizar, de un modo un tanto lírico, las conquistas de la topología, de la geometría no euclidiana o de la lógica? «Mientras que el arte del Renacimiento, preocupado por definir al hombre por medio de todo lo que le separa de las otras criaturas, se había dedicado a encerrarlo en sus particularidades físicas más distintivas, el arte moderno, al deformarlo, lo hace salir de sus límites y le descubre afinidades con lo que existe fuera de él […]; al arte dominado por la preocupación por la identidad le sucede el arte que pone de relieve las analogías» ([5], pág. 72). No de otra forma caracterizaba Poincaré a la ciencia de la que era uno de los más grandes representantes, cuando escribía: la matemática es el arte de nombrar de la misma manera a cosas distintas. La teoría de Cantor, la axiomática de Hilbert no son sino la expresión misma de la libertad, que sus autores se tomaron con sus modelos. Por lo demás, ahí está la exclamación del propio Cantor: la esencia de la matemática reside en su libertad. A propósito de la teoría cantoriana, Hilbert dijo: nadie ha de podernos expulsar del paraíso que Cantor creó para nosotros. ¿No es eso lo que, hacia la misma época, debieron de pensar decenas de artistas, aunque por supuesto escogieran un portavoz distinto de Cantor? Llama la atención con qué rapidez se pasó de las tímidas tentativas de Listing y de los dificultosos, muy dificultosos, primeros pasos de la geometría no euclidiana a los espacios abstractos de Fréchet y Hausdorff (1906 y 1914). De Listing a Fréchet van cuarenta y cuatro años. De aquellos artistas se ha dicho: «Hombres que, debido propiamente a su
www.lectulandia.com - Página 73
integridad, se vieron llevados a desafiar las convenciones, no para ganarse la notoriedad, sino para conseguir nuevas posibilidades de expresión que las generaciones precedentes ni habían sospechado». Otro tanto puede decirse de Cantor, de Dedekind, de Hilbert y de tantos otros. De los cuadros de Gauguin se ha dicho: no nos causan ya una impresión tan brutal, pues nos hemos familiarizado con una «barbarie» artística mucho más violenta. La sorpresa, por no decir la estupefacción, que inspiró a Cantor la posibilidad de una biyección entre ℝ y ℝn, y el asombro, cuando no la aflicción, de Hermite ante las funciones continuas sin derivada, se han ido borrando lentamente; el asombro y la estupefacción ya no son de recibo ante esa «barbarie» mucho más violenta que los topólogos nos han revelado. «[…] la exigencia de reproducir la naturaleza es cosa de una tradición, no de una necesidad interna. La constancia de esta exigencia a través de la historia del arte, de Giotto a los impresionistas, no implica que, como a veces se cree, el imitar el mundo real forma parte de la “esencia” o del “deber” del arte» ([6], pág. 333). Comparemos esta frase con lo que escribe un especialista de la historia de las matemáticas ([10], pág. 1032): «La aparición y aceptación gradual de conceptos que no poseen correspondencia inmediata en el mundo real obligan a reconocer que la matemática es una creación humana y un tanto arbitraria, más que una idealización de realidades naturales, derivadas únicamente de la naturaleza […]. La matemática no es un cuerpo de verdad acerca de la naturaleza». Y más adelante (pág. 1035): «Hacia 1900, la matemática se aparta de la realidad para buscar las consecuencias necesarias de axiomas arbitrarios acerca de cosas sin significado alguno. La pérdida de la verdad y la arbitrariedad aparente, la naturaleza subjetiva de las ideas y los resultados matemáticos, perturbaron profundamente a muchas personas que consideraban aquello como un ultraje a la matemática».
7. Conclusión La difícil comparación que he aventurado es, después de todo, un aspecto del gran problema al que se enfrenta diariamente el historiador de las ciencias, cuando pasa del plano de los hechos al de las explicaciones. Pienso en esas prodigiosas coincidencias entre descubrimientos análogos hechos en lugares distintos, por personas cuyas preocupaciones, formaciones y trabajos eran diferentes. Eliminemos los casos sencillos en que dicha simultaneidad se explica simplemente por la madureza del fruto que hace ineluctable el descubrimiento: dicen que cuando nieva durante todo el invierno, la pata de una liebre basta para desencadenar el alud. Eliminemos además los casos que se explican, quizás, por una influencia indirecta,
www.lectulandia.com - Página 74
como sucedió con la banda de Möbius. Y también, aquéllos en que la coincidencia se debió al azar. Tengo la sensación de que el complementario de esa reunión no es vacío, y que, en la historia del pensamiento, se dan fenómenos misteriosos, si se me permite usar esa expresión de la que uno debe servirse discretamente a causa de la fuerza de su sentido y la facilidad con que se la emplea. Este curioso paralelismo entre la evolución de la pintura y la de las matemáticas, ¿puede explicarse? La pregunta es muy difícil, y mi respuesta es irrisoria. Un primer elemento podría ser el siguiente: si el arte moderno es, sin duda alguna, la consecuencia de una toma de conciencia de la libertad del artista frente a los modelos que escoge en el mundo exterior, asimismo la matemática moderna empieza cuando el geómetra se percata de su libertad respecto a los modelos que le sugiere el universo material que le rodea; en el momento en que los impresionistas se desembarazan de las tutelas académicas, Cantor escribe para sí: la esencia de la matemática reside en su libertad. La explicación que aparece en el siguiente texto de Paul Klee está, quizás, menos ligada a los acontecimientos: «La propia naturaleza es la que crea por mediación del artista; la misma fuerza misteriosa que modeló las formas mágicas de los animales prehistóricos y el maravilloso espectáculo de la fauna submarina, se manifiesta en la inspiración del artista y dirige la formación de sus criaturas» ([6], pág. 323). Quisiera también decir que el objetivo que aquí se ha perseguido se corresponde, en un plano más general, con aquél tras el que cada ciencia anda en la soledad de su provincia, a saber: la elaboración de una teoría unitaria; y que, al entregarme a las observaciones que lo hicieron nacer, he experimentado el goce de verlas parecerse a la verdad.
Bibliografía [1] Jean-Claude Pont, La topologie algébrique des origines à Poincaré, París, PUF, 1974. [2a] Jean-Qaude Pont, «Petite enfance de la topologie algébrique», L’Enseignement mathématique, II.ª serie, t. XX, fase. 1-2, enero-junio 1974, págs. 111-126. [2b] Jean-Claude Pont, Johann-Heinrich Rehbein, «Une voie philosophique vers la topologie», Historia Mathematica, 1978, pág. 443-454. [3] Pierre Francastel, Peinture et société, Paris, «Idées/Arts» (véanse en particular las páginas 8, 11, 13, 38-40). [4] Jean Piaget, Sagesse et illusions de la philosophie, Paris, PUF, 1965.
www.lectulandia.com - Página 75
[5] Joseph-Émile Muller, L’art moderne, ses particularités et leur explication, Paris, «Le livre de poche», 1963 (véanse también las páginas 21, 101, 107108). [6] E. H. Gombrich, L’art et son histoire, t. II, París, «Le livre de poche» (véase también la página 243 a propósito de Claude Monet). [7] Ch. Brunold y J. Jacob, Lectures sur les problèmes de la pensée contemporaine, París, Librairie classique Eugène Belin, 1970 (véanse también las páginas 348, 378 y 395). [8] N. Bourbaki, Éléments d’histoire des mathématiques, París, Hermann, 1960. [Trad. cast., Madrid, Alianza Editorial, col. Alianza Universidad, n.º 18, 1976]. [9] Gaston Bachelard, Le nouvel esprit scientifique, Paris, PUF, 1963, 8.ª ed. [10] Morris Kline, Mathematical Thought from ancient to modem Times, Oxford University Press, 1972. [11] Arnaud Denjoy, Hommes, formes et le nombre, Paris, Blanchard, 1964 (véanse, en particular, las páginas 13-14). [12] Walter Laqueur, Weimar, Paris, Robert Laffont, 1974 (véanse en particular las páginas 125, 143 y 186). Una reseña del libro a cargo de Emmanuel Todd apareció en «Le Monde» del 6 de octubre de 1978, pág. 21. [13] Max Bense, Konturen einer Geistgeschichte der Mathematik, vol. 2, Die Mathematik in der Kunst, Hamburgo, Claassen Goverts, 1949 (véanse en particular las páginas 156, 179-181, 207). [14] Bernard Dahan, Vasarély. Connaissance d’un art moléculaire, Paris, Denoël, 1979. Reseña de Jean-Louis Ferrier en «L’Express», 15 de septiembre de 1979, págs. 83-84.
www.lectulandia.com - Página 76
De los monstruos de Cantor y Peano a la geometría fractal de la naturaleza Benoît Mandelbrot
La primera chispa de la teoría de fractales saltó el 20 de junio de 1877, en una carta de Cantor a Dedekind (0véase fig. 1). Cantor ponía en tela de juicio determinados fundamentos de la geometría y, en particular, la noción. Basándome en ello fue como concebí una nueva geometría de la naturaleza, que he desarrollado y aplicado ampliamente. En la actualidad, la revolución intelectual resultante muestra repercusiones inesperadas en hidrología, en el estudio de las turbulencias, en anatomía, en botánica y en otras disciplinas tan sumamente concretas como variadas. En 1890 Peano anunciaba la existencia de curvas capaces de llenar un cuadrado. ¿Se trataba de «monstruos» desprovistos de utilidad? Siempre se creyó así, pero yo presento y defiendo la opinión contraria; en calidad de ejemplo, mostraré luego cómo ciertas aproximantes de Peano proporcionan un modelo geométrico de red fluvial. Cantor (1884), von Koch (1904), etc., engendraron otros monstruos emparentados con el anterior. Se les puede calificar de «quimeras», pues son «figuras intermedias» entre puntos y líneas, líneas y superficies, o superficies y volúmenes. Las bautizo como «fractales». Para ellas, un avatar «monstruoso» de la noción de dimensión, debido a Hausdorff, es una fracción.
www.lectulandia.com - Página 77
Figura 1: La carta de Cantor a Dedekind del 20 de junio de 1877. J. Cavaillés tradujo así el tercer apartado de este extracto: «Se trata de mostrar que las superficies, los volúmenes e incluso las variedades continuas de ρ dimensiones pueden ponerse en correspondencia unívoca con curvas continuas, o sea con variedades de una sola dimensión, y que, por consiguiente, las superficies, los volúmenes y las variedades de ρ dimensiones tienen también la misma potencia que las curvas».
1. Algunos neologismos o sentidos nuevos Si mis trabajos parecen rebosar neologismos ello es así por necesidad, puesto que,
www.lectulandia.com - Página 78
si bien las ideas básicas son antiguas, se las había utilizado tan poco que no se había sentido la necesidad de designarlas mediante términos específicos; o bien, se había considerado suficientemente satisfactorio nombrarlas mediante anglicismos, o por medio de términos de factura apresurada o torpe que no se prestan a los usos amplios que propongo. n. m. Aptitud para formar montones jerarquizados. Colección de objetos que forman montones distintos agrupados en supermontones, y luego en super-supermontones, etc., de manera (al menos, aparentemente) jerárquica. AMONTONAMIENTO
[«AMASSEMENT»],
ESCALANTE, adj. Dícese de una figura geométrica o de un objeto natural cuyas partes
tienen igual forma o estructura que el todo, salvo que están a diferente escala. Advertencia: el término scaling, tomado del inglés, está ya tan arraigado que vale más no alejarse demasiado de él buscando un neologismo que lo sustituya. FRACTAL, adj. Sentido intuitivo. Que posee una forma sumamente irregular, o bien
sumamente interrumpida o fragmentada —sea cual sea la escala en que se somete a examen—. [Advertencia: el masculino plural francés utilizado por el autor es fractals, a imitación de navals y con preferencia a fractaux]. — Fractal [Fractale], n. f. Configuración fractal; conjunto u objeto fractal. [Advertencia: puesto que el plural francés fractals se presta a discusión, el autor considera adecuado que el nominativo correspondiente sea femenino]. — Conjunto fractal. Conjunto cuya dimensión fractal es igual o superior a su dimensión ordinaria (la cual es un concepto topològico). — Dimensión fractal. Dimensión en el sentido de Hausdorff y de Besicovitch. Número que sirve para cuantificar el grado de irregularidad y de fragmentación de un conjunto. La dimensión fractal no es necesariamente un número entero. — Objeto fractal. Objeto natural al que resulta razonable y útil representar matemáticamente mediante un conjunto fractal. RANDÓN, n. m. Elemento aleatorio. ¡No es un anglicismo! No es suficientemente
sabido que el inglés random procede del francés antiguo randotij «rapidez, impetuosidad». Propongo que se resucite el término con el nuevo sentido que sugiero. — Randonizar, v. tr. Introducir un elemento de azar. Randonizar una colección de objetos: sustituir su orden original (que podía ser, por ejemplo, alfabético) por un orden escogido al azar; a menudo se atribuye la misma probabilidad a todos los órdenes posibles. TERÁGONO, n. m. Polígono con un gran número de lados. Este término está formado a
www.lectulandia.com - Página 79
partir del griego teras monstruo o maravilla, sin olvidar que tera designa a 1012 en el sistema métrico, del cual es, en la actualidad, el último prefijo.
2. Lo concreto ¿es lo abstracto convertido en familiar por el uso? La crónica de las ciencias rebosa de historias de brujos y de cuentos de hadas. Cuando un brujo crea un monstruo no lo hace por necesidad ni por malicia, sino simplemente para demostrarse a sí mismo y a sus émulos que la bestia no era en absoluto inconcebible. Una vez que el monstruo queda en libertad, los campesinos le niegan la entrada en sus pueblos, pues sus rasgos les causan tanto espanto cuanto provocan su incredulidad. Y luego, un día un hada les abre los ojos: el monstruo es una buena persona, y está muy bien dispuesto a servirles. Se acostumbran a él y acaban incluso por encontrarlo guapo. Los pueblos en los que pienso son disciplinas científicas, y nuestros brujos son, desde luego, matemáticos. Y resulta maravilloso y casi milagroso —un acontecimiento que no cesa de repetirse sin dejar por ello de ser inesperado en cada ocasión— que aquellas matemáticas que, en apariencia, están entre las más contrarias a la intuición se revelen tan a menudo como indispensables para aprehender la realidad que nos rodea. Nadie ha contribuido tanto como Georg Cantor y Giuseppe Peano a crear formas extrañas, que les hacen la competencia a las quimeras de la mitología. Sin embargo, vamos a ver cómo esas quimeras acaban, a su vez, de ser domadas. Cantor escribió que «la esencia de las matemáticas reside precisamente en su libertad», y Richard Dedekind dejó dicho que «nosotros [¿los matemáticos?] somos de una raza divina y poseemos, sin duda, el poder de crear —muy en especial por lo que hace a las cosas de la inteligencia—». ¡Muy cierto! A esos fervientes practicantes del arte por el arte, la naturaleza les descubre sin cesar que estaba familiarizada desde siempre con muchas de sus creaciones. Nos aproximamos aún más al dicho de Pascal, según el cual «antes se cansará la imaginación de concebir que la naturaleza de producir». Quizás nuestros grandes brujos no sean sino aprendices, hoy que algunos ven los monstruos por ellos creados transformarse ante sus ojos. Al igual que otros cuentos de brujos y de hadas, los que ocurren en el campo de las ciencias nos dicen seguramente mucho acerca de la naturaleza profunda del pensamiento y la sensibilidad humanos. La pregunta planteada por el título del presente apartado merece una respuesta afirmativa por parte de algunos (entre los que hay que contar a Pal Langevin, quien enunció como máxima precisamente ese título que aquí se ha transformado en interrogación). Pero no vamos a entretenernos explícitamente en tales cuestiones generales, ni tampoco en la cuestión de saber si estos monstruos nuestros, convertidos en labriegos, son libres o esclavos. Mi objetivo www.lectulandia.com - Página 80
será simplemente el de tratar por encima de algunas aplicaciones, tan intuitivas como inesperadas, que acabo de encontrarles a unas matemáticas que tienen fama de estar entre las más esotéricas que existen. Las ilustraciones facilitarán esta labor.
3. De Apolonio de Verga a Kepler A guisa de preludio, recordemos una vieja historia que no se refiere a monstruos, sino a simpáticos animales criados y amaestrados para el juego. Los griegos descubrieron sin duda las cónicas «en estado salvaje» en los conos o los cilindros truncados oblicuamente, y no las cultivaron más que como un mero juego de ingenio. ¡Cuál no fue, pues, la sorpresa, quince siglos después, cuando Kepler se vio obligado a llegar a la conclusión de que la trayectoria del planeta Marte es elíptica, y Galileo descubrió que la de la caída de las piedras hacia la Tierra es parabólica! Leonardo da Vinci dijo «:La mecánica es el paraíso de las matemáticas, porque en ella es donde éstas se hacen realidad», y Galileo proclamó que «el gran libro [de la naturaleza] […] está escrito en lengua matemática, cuyos caracteres son los triángulos, los círculos y otras figuras geométricas; […] sin conocerlo, erramos en vano en un oscuro laberinto». Newton confirmó a la matemática en su papel de reina de las ciencias, y le atribuyó como cometido primero el de ampliar el alfabeto geométrico de la naturaleza.
4. De Lobachevski y Bolyai a Poincaré y Einstein Los verdaderos «monstruos» matemáticos no nacen hasta el siglo XIX, en el transcurso de dos revoluciones sucesivas contra Euclides. La primera revolución antieuclidiana y la única que, por lo común se designe como tal, es la de Lobachevski-Bolyai y de Riemann. Esta revolución no afecta a las categorías que están implícitas en las primeras proposiciones de los Elementos: línea, superficie, etc. Incluso añade nuevos libros de elementos, puesto que permite que la dimensión crezca hasta 4, o incluso que tome cualquier otro valor entero. Estos innovadores sólo la emprendieron contra el quinto postulado, el que hace referencia a las paralelas; negándolo de dos maneras distintas, crearon dos geometrías monstruosas. Es sabido que la idea se había ya tomado en consideración en el siglo XVIII, pero que el newtonianismo imperante reprimió su ímpetu. Lo que vino después es aún más conocido. Se sabe que Gauss, por miedo a los beocios (como le escribió a su amigo), echó tierra a su descubrimiento de la geometría hiperbólica, y es conocido que su
www.lectulandia.com - Página 81
triunfo causó suma emoción a los geómetras y los filósofos. Parecía que un profundo abismo quebrara la unidad de la «filosofía natural» de los Newton y los Leibniz. Luego, la geometría plana no euclidiana de Riemann se interpretó de la manera clásica: bastaba con un cambio de etiquetas en una geometría euclidiana de arcos de círculo sobre la esfera; y Henri Poincaré puso de manifiesto que la geometría de Lobachevski-Bolyai puede obtenerse asimismo cambiando las etiquetas en una geometría euclidiana de arcos de círculo en un círculo. El punto de vista convencionalista de Poincaré estuvo a punto de «recuperar» la primera revolución. Luego, sus frutos resultaron ser las herramientas soñadas para la teoría de la relatividad, y la revolución se consumió, triunfante y absorbida por una filosofía natural ampliada. Si se releen con atención los autores antiguos, uno llega incluso a darse cuenta de que W. K. Clifford, Simón Newcomb y K. Schwartzschild rápidamente concibieron la posibilidad de físicas no euclidianas. J. D. North lo advierte en The Measure of the Universe (1965, sección 5.2), y S. Bochner (en Rice Institute Studies, 1978, pág. 34) cita detenidamente a Newcomb.
5. Centenario de la segunda revolución antieuclidiana Mientras tanto, el 20 de junio de 1877 Georg Cantor, quien había de convertirse en uno de los más grandes fabricantes de monstruos de todos los tiempos, envió una larga carta a su fiel confidente Richard Dedekind. En ella le confiesa sus inquietudes por lo que hace a la validez del concepto mismo de dimensión. Le parece haber demostrado que un cuadrado no contiene más puntos que los que contiene ¡cada uno de sus lados! Peor aún: la intuición y la escuela dicen que hacen falta dos números para determinar la posición de un punto en el cuadrado; pero Cantor demuestra que basta con un número. Y, varios meses después, exclama: «Lo veo, pero no lo creo». Dedekind no tardó en demostrar que el concepto de dimensión sobrevivía a este ataque. Sin embargo, las ramificaciones de esta discusión marcan el paso hacia lo que propongo que se llame la segunda revolución antieuclidiana. Una revolución que no queda satisfecha con impugnar «detalles» tales como el paralelismo, sino que ataca las propias líneas iniciales de los Elementos. Cuando la revolución se extiende, Cantor se encuentra con que Mittag-Leffler le aconseja que imite a Gauss en discreción y que no trate de publicar. ¿Puede decirse que estos resultados acabaron, esta vez de verdad, con la «filosofía de la naturaleza» unificada? Todo el mundo parece estar de acuerdo en que sí, tanto quienes se sienten decepcionados por el hecho como quienes sienten alivio por él. En 1890 Giuseppe Peano libró un nuevo combate contra la dimensión. Describió una sucesión de polígonos que parecen completamente inocentes, Pero que resultan www.lectulandia.com - Página 82
llenar un cuadrado de un modo cada vez más apretado, de tal manera que el límite de dicha sucesión pasa ¡por todos los puntos del cuadrado! ¡El colmo! ¿Qué podía concebirse que fuera más extravagante, alejado de la intuición sensible y desprovisto de utilidad? Hasta hace poco, las reacciones suscitadas por este descubrimiento habían sido unánimes. Para resumirlas, a la vez que apunto mi propia tesis contraria, lo mejor que puedo hacer es citar a M. Freeman y J. Dyson: «Las matemáticas clásicas del siglo XIX están separadas de las modernas matemáticas del siglo XX por una gran revolución en las ideas». Las matemáticas clásicas estaban enraizadas en las estructuras geométricas regulares de Euclides y las evoluciones dinámicas continuas de Newton. Las matemáticas modernas se iniciaron con la teoría de conjuntos de Cantor y la curva de Peano que llena el plano. Históricamente, esta revolución la provocó el descubrimiento de estructuras que no se adaptan a los moldes de Euclides y de Newton. Los matemáticos de la época consideraron estas nuevas estructuras como «patológicas», como «monstruos» emparentados con la pintura cubista y la música atonal que, por entonces, subvertían los cánones del gusto artístico. Los matemáticos que crearon esos monstruos los consideraban importantes porque demostraban que el mundo de las matemáticas puras incluye una riqueza de posibilidades que supera con mucho las estructuras simples visibles en la naturaleza. Las matemáticas del siglo XX florecieron en la creencia de que habían transgredido por completo los límites que les había impuesto su origen en las ciencias de la naturaleza. «[El autor de Les Objects fractals] nos hace ver que la naturaleza les había gastado una broma a los matemáticos. A los del siglo XIX les faltó imaginación, pero no le falta a la naturaleza. Los ejemplos patológicos que inventaron los matemáticos para liberarse del naturalismo del siglo XIX demuestran desde ahora ser inherentes a objetos familiares que nos rodean. No hemos de ir a buscarlos muy lejos: “Los monstruos de Lebesgue-Osgood constituyen la sustancia misma de nuestra carne”».
6. Domar al monstruo de Peano De hecho, mi primer tema es que las curvas aproximadas de Peano no pueden ser monstruos, puesto que tienen la utilidad de ser bellas. Dicho en términos más precisos, las que hacia 1900 servían para llenar un cuadrado o un triángulo no lo eran de verdad; pero, entre las inventadas desde que J. E. Heighway volvió a ponerlas de moda al dar a luz las curvas que él llama «dragones», las hay que no pueden dejar de
www.lectulandia.com - Página 83
gustar a quien las contemple sin preocuparse por su mensaje. En concepto de distracción, la figura 2 introduce dos curvas de Peano engrosadas hasta formar collares. Pero lo esencial no está aquí. Se nos decía que la curva de Peano sólo puede aprehenderse mediante el análisis lógico, que la intuición y la vista nos engañarían. En realidad, los autores de esas reacciones unánimes hubieran hecho mejor ejercitando su intuición y su mirada. La figura 3 nos dice por qué: muestra una sucesión de aproximantes de Peano, integrada: por pequeños arcos de círculo, que llenan un contorno más interesante que un cuadrado. Me precio de haberla concebido, pues ilustra sin palabras mi tesis de que hay objetos equivalentes a la curva de Peano con los que hemos estado familiarizados desde siempre. Son retículos de plantas, redes fluviales y cortes cerebrales. Con ellos puede darse la imagen idealizada de formas naturales tan numerosas que ni siquiera se hace necesario dar una lista de ellas. De ahora en adelante, la propia curva de Peano no puede dejar de convertirse en una herramienta básica de la morfología matemática.
www.lectulandia.com - Página 84
Figura 2: Collares peanianos. Estos diagramas son (así lo espero) más decorativos que los antepasados de los años 1900. Pero el método de construcción no es tan evidente como, por ejemplo, en la figura 4. Sin embargo, he moderado mi fantasía, puesto que el objetivo principal aquí es mostrar la ventaja que reporta el sustituir, en la medida de lo posible, las curvas de Peano —o más precisamente, sus polígonos aproximantes— por collares. En efecto, se concibe mucho mejor que un triángulo se ponga en correspondencia con un collar, cada vez más «delgado» pero de área constante, que no se le ponga en correspondencia con una curva, de longitud indefinidamente creciente. Para medir un polígono aproximante de manera intrínseca, no hay pues que sumar las longitudes de sus lados, sino los cuadrados de dichas longitudes. La medida que así se obtiene es proporcional al área que llenan asintoticamente nuestras curvas y collares.
www.lectulandia.com - Página 85
Figura 3: Una nueva curva de Peano. Aquí, las aproximantes constituyen fronteras entre un dominio blanco y otro negro. La aproximante 3C incluye 13 arcos de círculo de 60 grados, de radios variables. Sus «trazas» son muy visibles en la aproximante 3D, donde cada arco de 3C está sustituido por una versión reducida del total. Sobre los arcos convexos (como los de la parte superior de 3C), esas versiones son «en positivo», y «en negativo» sobre los arcos cóncavos. Así pues, 3D consta de 132 arcos, etc. Se constata que esta curva de Peano llena un dominio mucho menos trivial que un triángulo o un cuadrilátero. La frontera de este dominio es una curva fractal que encontraremos directamente en la figura 5. Es igualmente posible envolver con la misma frontera una curva de Peano cuya primera aproximante sólo tiene 7 arcos (en lugar de 13), pero el resultado es menos bello y «dice» menos. Cuesta tiempo acostumbrarse a decir que la frontera de una curva puede ser otra curva, ¡pero se consigue!
www.lectulandia.com - Página 86
Figura 4: Curva de Peano y construcción del «árbol de los ríos». Las aproximantes que aquí se representan son más tradicionales que las de las figuras 2 y 3, ya que son polígonos con un número creciente de lados («terágonos», según mi terminología), cada uno de los cuales está trazado sobre una red ortogonal de rectas paralelas equidistantes. En 4C' consideremos las mallas de esta red que tocan al terágono por la izquierda, yendo de A a B. Los «callejones sin salida» que tienen tres lados en común con el terágono están señalados con el número 1. En una primera etapa de construcción de los ríos, los tres pequeños pasos que rodean a cada callejón sin salida se sustituyen por un único paso directo. A la vez, se traza un pequeño «tramo fluvial» que va desde el centro del callejón sin salida hacia el terágono acortado, y que es de longitud igual a los lados de los cuadrados. Se repite la operación partiendo del terágono acortado, cuyos callejones sin salida están marcados con el número 2. Y se sigue así hasta llegar a un terágono sin callejones sin salida. Los pequeños tramos fluviales se reúnen espontáneamente para formar uno o más árboles. Si se procede de igual modo con las mallas que están a la derecha del terágono, se obtienen árboles de líneas divisorias de las aguas. La envolvente de esta curva de Peano es una curva fractal construida de acuerdo con el mismo principio que el cristal de nieve de la figura 5.
www.lectulandia.com - Página 87
7. Seguir las riberas de un río y dibujar un árbol Señalemos de entrada, para precisar, que la costumbre prohíbe que las aproximantes de Peano se corten. Además, como sucede con las aproximantes que ilustramos en este artículo, existen medios para evitar los puntos en que dos extremos distintos estarían en contacto sin cortarse. Dicho esto, las nuevas aplicaciones de las curvas de Peano pasan por la siguiente observación: a toda aproximante de Peano sin punto doble, se le pueden asociar dos «árboles» aproximantes (o dos colecciones de árboles) tales que sus límites llenen el mismo dominio del plano que la propia curva. En una primera aproximación, es lícito concebir una u otra colección de árboles aproximantes como si fuera una red fluvial que se hubiera mutilado borrando las ramas que no alcancen una talla determinada, y concebir la colección restante como si reuniera las líneas divisorias de las aguas de la misma red fluvial. De esta manera, una aproximante de Peano resulta reinterpretada como curva que sigue la ribera acumulada de todos los ríos de un tal árbol aproximante; se le puede imponer que se quede a medio camino del árbol aproximante de las líneas divisorias de las aguas. E1 paso de una aproximante a las siguientes de una misma sucesión equivale simplemente a completar esas redes de Peano con ramas cada vez más finas. La transformación de una curva de Peano en un tal árbol —llamado intrínseco— se basa en un algoritmo que no presenta ambigüedad y del cual se ilustra un ejemplo en la figura 4C' La idea subyacente es completamente intuitiva. Imaginemos que partimos de un lazo cerrado tan enredado que consigue pasar a menos de 1 metro de todo punto de un dominio determinado del plano. Situemos a lo largo de esta curva una pared muy delgada (ha de ser lo suficientemente delgada como para evitar todo contacto que provoque la formación de un sublazo). A continuación, llenemos de agua la extravagante piscina que acabamos de construir. Luego, derribemos un trozo de nuestra pared que esté situado en un punto en el que nuestra curva inicial toque a la frontera exterior del dominio que ha de llenar. Está bien claro que el agua, al salirse, trazará un río con toda una serie de afluentes. Y la recíproca también es cierta. Supongamos que un río y sus afluentes (que, en el presente contexto, se suponen reducidos a curvas sin anchura) riegan un país sin formar ningún lazo y pasando a menos (pongamos) de 10 kilómetros de todo punto. Entonces, una curva que siga todas las riberas lo suficientemente de cerca como para evitar todos los puntos dobles puede servir como primera aproximante de Peano. Si se añaden afluentes más pequeños de manera que rieguen todos los puntos del país a menos de 1 kilómetro, entonces una curva que vaya a lo largo de todas las riberas (a una distancia menor) puede servir como aproximante de Peano más precisa. Y así sucesivamente. No puede negarse (y el hecho tiene consecuencias de todo orden) que los ríos son de anchura positiva y que la inclusión de arroyuelos cada vez más pequeños no puede
www.lectulandia.com - Página 88
prolongarse indefinidamente, al contrario de lo que sucede con la construcción peaniana indefinida de los matemáticos. Y, además, si escogemos al azar una curva peaniana corremos gran peligro de que tenga —como es el caso en la figura 4— una red intrínseca que resulte demasiado simple, o demasiado rebuscada, para dar cuenta de la realidad hidrológica. Pero bueno, no nos precipitemos en ser exigentes en cuanto a los detalles. Lo esencial, aquí, es cualitativo: me parece que la equivalencia que acabo de formular (al igual que otros muchos casos semejantes en otras ciencias de la naturaleza) basta para transmutar, por decirlo así, la curva de Peano. Desde ahora, vemos que, lejos de seguir siendo el monstruo por el que se quiso hacerla pasar en el momento de su nacimiento, se ha convertido en algo completamente intuitivo.
8. Una idea simple, pero poderosa: toda pequeña red fluvial no es más que una imagen reducida de una gran red. Figuras escalantes Subrayemos ahora un determinado aspecto común a casi todas las variantes de la construcción peaniana, a saber, su carácter escalante. Sin pensarlo demasiado y con una evidente preocupación por el ahorro —de pensamiento, papel y tinta—, Peano y sus émulos se las apañaron todos ellos para no tener que recurrir a una nueva regla en cada etapa de la construcción. Para añadir sinuosidades durante la n-ésima etapa, se contentaban con copiar la anterior a una escala más pequeña. De lo que resulta que toda pequeña porción de una curva de Peano es de la misma forma que varias porciones grandes del total. A estas curvas cuyas partes grandes y pequeñas tienen igual forma o estructura, pero a escalas distintas, me gusta llamarlas «escalantes». O también (es más preciso, pero más fastidioso) «con homotecia interna». La idea general se remonta a muy antiguo, como mínimo a esa carta que Leibniz escribió al R. P. des Bosses: «[En] el ejemplo del cuerpo humano o de otro animal […], toda parte, cualquiera que sea, sólida o fluida, contiene en sí misma, a su vez, otros animales o vegetales. Y opino que ello debe reiterarse a propósito de toda parte, cualquiera que sea, de estos últimos seres vivos, y así hasta el infinito […] Me valdré de una comparación: imaginad un círculo; inscribid en ese círculo otros tres iguales entre ellos y de radio máximo; en cada uno de estos nuevos círculos y en el intervalo entre ellos, inscribid de nuevo tres círculos iguales de radio máximo, e imaginad que el proceso en cuestión rosiga hasta el infinito».
www.lectulandia.com - Página 89
¿Por qué citar ese texto, cuya biología mueve al sarcasmo? Porque la historia del pensamiento abunda en ideas nacidas en un contexto desfavorable, que después sobreviven en el purgatorio para que se las recupere y arraiguen, de verdad y con provecho, en otra parte. El concepto del escalante nos proporciona un ejemplo de ello, y le veo la virtud muy especial de haber arraigado, de un modo completamente independiente, en tradiciones tan alejadas entre sí como es posible: fue adoptado por Peano, Cantor y sus émulos para crear monstruos, pero también lo ha sido por un número creciente de físicos muy concretos. El hecho de que se hayan necesitado casi cien años para que estas dos tradiciones se reconozcan y fundamenten (en Les Objets fractals) subraya aún más (si hacía falta) el efecto de la pasión destructora que impulsa a cada aldea del pensamiento a aislarse de las demás. En geometría euclidiana, sabemos muy bien que la recta es escalante, pues toda ampliación puede superponerse al original… de infinidad de maneras. El interés de este hecho fue reconocido por Leibniz (!), quien, por un momento, pensó (en su poco conocido opúsculo In Euclidis πPΩTAA) en utilizarlo para definir la recta. La espiral logarítmica sólo es escalante parcialmente y limitándose a un único punto, pues hay que hacer coincidir los orígenes del original y de la ampliación. Esto es casi todo lo que puede encontrarse entre las curvas estándar de apariencia convenientemente regular; pero innumerables tesoros de otras curvas escalantes se ofrecen a quien quiera admitir curvas muy irregulares en todos sus puntos o, por lo menos, en «muchos» puntos. Digo bien: quienquiera que crea en la utilidad del escalante, pero no quiera contentarse con rectas, no tiene otra elección: ha de admitir lo irregular. Por fortuna, lo «irregular pero escalante» no es complicado. Me explicaré. Se dice que un cuadrado es simple porque bastan unos pocos trazos para dibujarlo; en particular, basta suministrar unas cuantas líneas de instrucciones un trazador mecánico, de modo que la última instrucción diga «fin». Si se trata de trazar una curva escalante, la novedad principal es que la última etapa se convierte en «ahora vuelva a empezar, a una escala más pequeña». La operación no tiene fin, pero el algoritmo que la rige no es en realidad complicado. Sin embargo, el hecho de incluir un bucle lo hace cualitativamente diferente. En general, de aquí resulta que las figuras escalantes poseen, tal como se dice de un modo algo impreciso, «muchas escalas de longitud».
9. Figuras intermedias y monstruos Por lo que hace al científico, no es por capricho que ha de habérselas con lo irregular, sino obligado por la naturaleza. Merced al buen trabajo de sus predecesores, los problemas geométricos que la naturaleza le inspira o le impone tienen una www.lectulandia.com - Página 90
tendencia cada vez mayor a ser muy complicados. Por ello es por lo que, sin haberse puesto de acuerdo, científicos contemporáneos muy diversos que van a la búsqueda de modelos para las curvas y superficies naturales más irregulares se sorprenden soñando con figuras intermedias, entes geométricos que no sean ni curvas, ni superficies, ni volúmenes, pero que tengan elementos de cada una de esas categorías. Así es como vemos, por ejemplo, introducirse en la terminología técnica inglesa términos tales como tviggly, tuispy, seaweedy, ramified, in between y ¡hydralike! Sabiendo que, en la geometría de Euclides, este sueño es vano, vemos que se reduce al deseo de que exista otra geometría que «bastara» con identificar y aplicar. Se espera de ella que sea original… pero no demasiado! Cuán curioso resulta ver así a personas muy prácticas, a las que nadie creería contaminadas por los clásicos griegos, recuperar el viejo tema mitológico de las quimeras. De hecho, hasta Les objets fractals, nadie consiguió identificar tales figuras intermedias, y la primera que yo propuse se juzgó en principio original hasta la extravagancia, porque la tomé de los fabricantes de monstruos de hace cien años. Estaba familiarizado con el conjunto triádico introducido por Georg Cantor en 1884 y, en 1962, saqué la conclusión de que un determinado problema de física aplicada que me había llamado la atención no podía resolverse más que mediante una forma randonizada de dicho conjunto. Luego, en 1967, saqué la conclusión de que, para representar la irregularidad de las costas marítimas, se hacía necesaria una forma randonizada de una curva reputada de monstruosa, que Helge von Koch creó en 1904: la curva en «cristal de nieve», cuya construcción se describe en la figura 5. El conjunto de Cantor es intermedio entre el punto y la recta, y la curva de Koch lo es entre la recta y el plano; y, durante el período posterior a su «invención», los matemáticos identificaron otras mil y una maneras de ser intermedio. La ironía y el sarcasmo que provocó el conjunto de Cantor son testimonio de que dichas maneras no pasaron desapercibidas. Y, para colmo de desgracias, los matemáticos arremetieron rápidamente contra ese crecimiento generalizado y trataron a sus monstruos de 1900 de un modo poco cortés: como a esos pañuelos que sólo se utilizan una vez y luego se tiran. En particular, nadie los consideró lo suficientemente importantes como para sentir la necesidad de designarlos mediante un término genérico —hasta que mis trabajos me obligaron a bautizarlos y forjé el término fractales.
www.lectulandia.com - Página 91
Figura 5: Curva de Koch («cristal de nieve»). Para construir el tercio inferior, se parte de un segmento de longitud a, que se divide en tres. El segmento de en medio se sustituye por dos segmentos que forman con él un triángulo equilátero. Se repite la misma operación con los segmentos de longitud a/3, a/9, a/21, etc. La longitud de la línea quebrada que se obtiene de este modo (un «terágono») es a(4/3)n, donde n es el número de generaciones de triángulos equiláteros; por consiguiente, dicha longitud aumenta indefinidamente al hacerlo n. Pero el propio contorno tiende hacia una curva límite, que no es otra que el límite de la envolvente de las aproximantes de la figura 3. (Al describir la curva de Koch en la Recherche, en 1977, ¡cometí un grave error al afirmar que no podía obtenerse como envolvente peaniana!).
10. La dimensión fractal Para definir este último término, precisemos un poco las discordias que provocó entre los matemáticos la famosa carta del 20 de junio de 1877. Es sabido que esas discordias llevaron a establecer el concepto de dimensión topológica, que denotaré por DT, salvando la idea intuitiva de que un cuadrado es «más rico en puntos» que sus lados. Pero eso no es todo: se tuvo que reconocer que la dimensión no es en modo alguno una noción única. En su lugar, salió a la superficie todo un haz de conceptos, distintos pero conectados entre sí: DT constituye un ejemplo de tales conceptos especialmente simple y universal, pero hay otros —uno de los cuales es el descrito en la nota. Para construir el contorno poligonal de von Koch se toma r = 1/3 y se sustituye cada segmento por un sistema de N = 4 segmentos. Así pues, se tiene D = log 4/log 3 = 1,2618, ¡un valor intermedio entre 1 y 2! El carácter estrictamente escalante de la curva de Koch nos permite un acceso directo al concepto de dimensión no entera,
www.lectulandia.com - Página 92
pero dicho concepto se hace extensivo a figuras que sólo son escalantes de un modo estático. Ejemplos de ello se encuentran en diversas curvas y superficies aleatorias. Una forma más general del concepto de dimensión fractal D fue la que surgió en 1919 de la mano de Félix Hausdorff (pronto secundado por A. S. Besicovitch). No fue objeto de maledicencia, porque permaneció casi secreta, pero ¡vaya otro bicho extraño! En general, es una fracción, lo que obliga a los matemáticos a decir que el conjunto de Cantor es de dimensión D = 0,6309 y el cristal de nieve de Koch es de dimensión D = 1,2618. De modo que he propuesto que se diga que todo conjunto que satisfaga D > DT es un conjunto fractal.
11. De la geometría a la teoría El esbozo intentado en este artículo no puede prolongarse más. Hemos tenido la oportunidad de intentar una muy breve «defensa e ilustración» de la importancia práctica de los monstruos de Cantor, de Peano y de sus émulos (¡tanto en el sentido moderno del término ilustración como en su sentido clásico!). Por desgracia, ilustrar y defender la dimensión fractal es tarea mucho más compleja, ya que esta noción responde una cuestión que ni siquiera parecía digna de plantearse. El hecho básico, es decir, la existencia en la naturaleza de numerosas figuras irregulares y fragmentadas, no parece muy discutible. Pero que el grado de irregularidad y de fragmentación sea mensurable, ésa es una idea que no sólo no pudo imponerse en el pasado, sino que exige todavía, para que se la acepte, desarrollos que superan con mucho el marco de este texto. No puede bastar un simple golpe de batuta para que una ciencia acoja a los monstruos arrepentidos. Al contrario, nuestros cuentos no acaban nunca de discutir la belleza y la utilidad, e incluso la legitimidad de sus héroes y sus descendientes. En particular, la simple descripción geométrica del mundo que nos rodea sigue estando eternamente sometida a discusión. Se felicita al geómetra por haber contribuido a la descripción de los hechos, pero a continuación se le reprocha no haber conseguido el milagro de dar en un santiamén respuesta a problemas que están planteados desde siempre. Así pues, no tengamos miedo a concluir este texto con el tono que adoptamos al principio, diciendo simplemente que la feliz unión de las ideas que hemos introducido aquí ha dado ya a luz muchos resultados y otras ideas.
Notas
www.lectulandia.com - Página 93
La dimensión de homotecia. Para generalizar la noción de dimensión, en el sentido que sea, hay que partir siempre de una de las propiedades elementales que caracterizan el concepto de dimensión euclidiana en el caso de objetos geométricos simples. En el presente caso, vamos a partir de la propiedad llamada de homotecia interna. Empecemos por observar que, si se transforma una recta por una homotecia de razón arbitraria, con origen sobre dicha recta, el resultado es la propia recta; y que lo mismo sucede para el plano y para el espacio euclidiano en su totalidad. Además, cualquiera que sea el entero K, el «todo» constituido por el segmento de recta 0 ≤ x < X puede «pavimentarse» exactamente (cada punto queda recubierto un y una sola vez) con N = K «partes» que son segmentos de la forma (k − 1) X/K ≤ x < kX/K, Donde k va de 1 a K. Cada parte se deduce a partir del todo por una homotecia de razón r(N) = 1/N. Del mismo modo, cualquiera que sea K, el todo constituido por el rectángulo {0 ≤ x < X; 0 ≤ y < Y} puede pavimentarse exactamente con N = K2 partes que son rectángulos deducidos a partir del todo por una homotecia de razón r(N) = 1/K = 1/√N. Para un paralelepípedo rectángulo, la misma argumentación da r(N) = 1/N1/3. Por fin, sabemos que no se presentan problemas graves a la hora de definir espacios de dimensión euclidiana D = 3; en este caso, r(N) = 1/N1/3. Así pues, en todos los casos clásicos, la dimensión euclidiana satisface trivialmente la identidad D = −log N/log r(N) = log N/log (1/r). En esos casos, es necesario y «evidente» que D sea un entero. Observemos por el contrario que la expresión que da a D como exponente de homotecia no se restringe a los casos clásicos considerados más arriba, y que conserva un sentido, al menos, formal para toda figura geométrica que no sea ni un segmento ni un cuadrado pero que pueda también descomponerse en N partes deducidas a partir del todo por una homotecia de razón r (seguida de un desplazamiento o una simetría). Éste es el caso, por ejemplo, de la figura 5. Ello demuestra que el concepto de dimensión de homotecia subsiste más allá de los paralelepípedos y que, cosa nueva, la D que así se obtiene no es un entero necesariamente. Nunca está de más repetir que tales generalizaciones formales de las nociones usuales jamás pueden justificarse a priori y que sólo su utilización establece su validez. Obsérvese además que, en el caso de un «todo» euclidiano, las «partes» no necesitan ser iguales, salvo una traslación; pueden muy bien deducirse del todo por homotecias de razones diferentes, que llamaremos ri. En el caso de un segmento dividido en dos, se tiene la relación r1 + r2 = 1, y más en general resulta que, en el caso de la recta, ∑r2i = 1, mientras que la división de un cuadrado da 1. Cuando se
www.lectulandia.com - Página 94
trata de una figura no euclidiana divisible en partes reducidas según las razones r1 y r2, los precedentes clásicos sugieren que se considere el exponente D definido por r1D + r2D = 1. Baste con decir que esta definición formal también viene justificada por su utilización.
Bibliografía General: La correspondencia entre Cantor y Dedekind está traducida al francés en J. Cavaillés, Philosophie mathématique, París, Hermann, 1962. El original había sido publicado por Hermann en 1937. Pueden encontrarse complementos y comentarios en R. Dugac, Richard Dedekind et les fondements des mathématiques, París, Vrin, 1976. Para conocer los trabajos de Cantor, de Peano, de Koch y de sus émulos, el especialista dispone de una infinidad de tratados matemáticos modernos. Pero el no especialista haría mejor en evitarlos en provecho de los tratados de los años 19001925. Verá que, desde el punto de vista de la presente discusión, la calidad de una exposición puede medirse por el número de ilustraciones. Se ha reimpreso un tratado, obra del matrimonio Young, que gozó de aprecio en su tiempo: W. H. Young y G. C. Young, The Theory of Sets of Points, Cambridge University Press, 1906; Chelsea, 1972. Para la teoría de la dimensión, véase W. Hurewicz y H. Wallman, Dimensión Theory, Princeton University Press, 1941. Teoría de fractales: A partir de esas matemáticas antiguas, el autor ha concebido, desarrollado y aplicado ampliamente una nueva geometría de la naturaleza. Su primera obra fue B. Mandelbrot, Les objets fractals: forme, hasard et dimensión, París, Flammarion, 1975. Está a punto de aparecer una segunda edición. La edición inglesa de esta obra (agotada) era B. Mandelbrot, Fractals: Form, Chance and Dimensión, W. H. Freeman, 1977. Ahora, la referencia básica es otro libro en inglés, mucho más completo, mejor ilustrado (en colores) y con una bibliografía muy completa, B. Mandelbrot, The fractal Geometry of Nature, W. H. Freeman, 1982. Para las aplicaciones a la anatomía y a la turbulencia, una referencia cómoda de www.lectulandia.com - Página 95
carácter general la constituye mi artículo en «La Recherche», enero de 1977. (Del cual, por supuesto, hay que omitir algunos trozos, reelaborados y desarrollados en el presente texto). Otra referencia cómoda es el artículo de Martin Gardner en «Scientifie American», abril de 1977 (trad. cast.). Existe un comic que toma su «texto» de los libros citados. Se trata de Les fractals, por Ian Stewart, París, Belín, 1982. La revista «Le Débat» (marzo de 1983) ha publicado el siguiente artículo: B. Mandelbrot, «Les fractales, les monstres et la beauté».
www.lectulandia.com - Página 96
Matemática y teorización científica René Thom
Sin duda es todavía prematuro evaluar el impacto, sobre el desarrollo de la ciencia, de eso que se ha llamado la teoría de las catástrofes. Algo es ya seguro, incluso si las aportaciones de esta teoría en el campo de las aplicaciones prácticas hubieran de resultar decepcionantes: la teoría de las catástrofes va a obligar a la ciencia existente a que tome conciencia, a que realice un examen lúcido de sus métodos y de sus técnicas. Con la teoría de las catástrofes, vemos introducirse a la matemática en disciplinas que, como es el caso de la biología y de las ciencias humanas, apenas conocían su uso. Ahora bien, hasta el presente, la introducción de la técnica matemática en una ciencia se había considerado como un progreso importante, puesto que significaba la aparición del rigor y la exactitud, conceptuales o numéricas, y, en consecuencia, una considerable extensión de las posibilidades de acción. De aquí que algunos pusieran desconsideradamente sus esperanzas en la teoría, esperanzas que parecían justificadas por la publicación de modelos como los de Zeeman en el campo de las ciencias humanas (por ejemplo, modelo de la eclosión de motines en las cárceles). La aparición, en 1977, de severas críticas a la TC (abreviatura de teoría de las catástrofes) hizo que esta euforia se acabara en seco. La opinión científica parece hallarse un tanto desorientada por esta polémica, cuya aspereza proviene sin duda más del énfasis periodístico que de un conflicto efectivo. La crítica que hace referencia a la ineficacia pragmática de los modelos de la TC es, no cabe duda, una crítica esencialmente fundada. Pero que nadie espere verla desarrollarse mucho más; porque, de persistirse en ella, acabaría por poner en tela de juicio una buena parte de la producción científica contemporánea… Por ahora, el núcleo de los oponentes a la TC se recluta entre quienes trabajan en el ámbito de las matemáticas aplicadas; y es de temer que muchas de las objeciones que ponen contra los modelos de la TC (pienso en particular en la cuantificación ilusoria —spurious quantization—) se vuelvan contra su propia producción. Aun si la TC no tuviera más resultado que el de suscitar un tal debate metodológico sobre el uso de las matemáticas en ciencia, ello solo bastaría para justificar su existencia.
1. El papel de las matemáticas en las ciencias de hoy
www.lectulandia.com - Página 97
Evidentemente, si existe algún dominio de la ciencia donde las matemáticas tienen aplicación, es en la física. Con todo, conviene hacer una distinción: en física fundamental, las grandes leyes clásicas (gravitación, electromagnetismo…) permiten edificar modelos cuya exactitud numérica es un reto para la imaginación (10−20 en el mejor de los casos); E. Wigner ha llegado a hablar, en tales casos, de la irrazonable exactitud de dichas leyes. Más adelante volveremos a hablar de la interpretación que conviene dar a esta situación. Pero, en cuanto se sale del dominio —relativamente limitado— en que esas leyes se aplican plenamente, la situación se degrada rápidamente. En mecánica cuántica, el excelente arranque a partir del átomo de hidrógeno se va perdiendo poco a poco en la arena de las aproximaciones a medida que se avanza hacia situaciones más complejas (sin olvidar el enigma de las interacciones fuertes, que se rebela ante toda cuantificación). En física macroscópica (física del estado sólido, mecánica de fluidos), muchas leyes empíricas no poseen expresión matemática explícita, al igual que sucede en termodinámica, donde la ecuación de estado de un fluido real F(p, v; T) = 0 no puede expresarse matemáticamente. Esta baja en el rendimiento del algoritmo matemático se acelera al pasar de la física a la química. La interacción entre dos moléculas un poco complejas elude toda descripción matemática precisa. Tan sólo la cinética química admite a veces una descripción en términos de un sistema diferencial, pero los coeficientes que figuran en dicho sistema (las constantes de la ley de acción de masa) están sometidos a variaciones que afectan mucho la exactitud de la descripción. En biología, excepción hecha de la teoría de poblaciones y de la genética formal, el uso de las matemáticas se reduce a la elaboración de modelos para algunas situaciones locales (propagación del impulso nervioso, circulación de la sangre en las arterias, etc.) cuyo interés teórico es muy reducido y de limitado interés práctico. En fisiología, en etología, en psicología y en ciencias sociales, las matemáticas casi no aparecen si no es en la forma de recetas estadísticas cuya propia legitimidad resulta sospechosa; sólo hay una excepción: la economía matemática, con el modelo de las economías de cambio de Walras-Pareto, que lleva a plantear problemas teóricos interesantes, pero cuya aplicabilidad a la economía real resulta más que sospechosa. Citemos también, para no dejamos nada, algunos usos de la teoría de grafos en antropología y en sociología, y prácticamente habremos hecho todo el recorrido de las aplicaciones de la matemática en el campo de la ciencia. Desde luego, los especialistas saben de esta degeneración relativamente rápida de las posibilidades del instrumento matemático al ir de la física a la biología; pero la cuestión se airea muy poco a la vista del gran público. Creo que hay tres razones, ligadas a la propia sociología de la ciencia, para que ello sea así: a)
Dado que los grandes éxitos pragmáticos de la mecánica y de la física fundamental proporcionaron a esas ciencias el enorme prestigio que todos conocemos, es importante que las disciplinas menos precisas, y menos www.lectulandia.com - Página 98
perfeccionadas, puedan beneficiarse del mismo prestigio. En consecuencia, se pasan en silencio las dificultades y las imperfecciones que aquejan a esas disciplinas. b)
Desde la perspectiva del uso interno, esas dificultades e imprecisiones se convierten, por el contrario, en ventajas. Porque las técnicas de matematización aproximada (aproximación) hacen posible la eclosión de una considerable producción «científica». Toda tentativa de modelización cuantitativa, tanto si tiene fundamento como si está poco o mal fundamentada, puede ser motivo para una publicación científica.
c)
A esto se añade la influencia de la industria de los ordenadores. Todo laboratorio, por modesto que sea, se considera obligado a tener su ordenador; ¿cómo no va a quererse rentabilizar esa inversión, incluso en condiciones en las que, a priori, no es concebible ninguna cuantificación del problema? Evidentemente, la industria informática está del todo interesada en que se crea que ninguna parte de la realidad puede escapar a la modelización cuantitativa…
En descargo de esas personas, más prácticas que teóricas, cuyo proceder queda así puesto en tela de juicio, pero de cuya buena fe no cabe sospechar —al menos, en la inmensa mayoría de los casos—, hay que hacer la siguiente observación: en el conjunto de la ciencia, el formalismo matemático no pierde su eficacia de un modo brusco. Si se parte de las situaciones puras de la física fundamental, donde se aplican de un modo exclusivo las grandes leyes constitutivas, pronto se encuentran situaciones mixtas en las que dichas leyes están presentes pero no bastan ya para determinar enteramente la evolución temporal del sistema; se hace preciso añadir hipótesis ad hoc, extraídas por lo general de consideraciones estadísticas y de leyes empíricas de las cuales se utiliza una expresión aproximada. La mecánica aplicada y la dinámica de fluidos abundan en ejemplos de este tipo. En el cuadro que hemos esbozado antes, se ha dejado de lado el caso, bien conocido, en que se dispone de un modelo matemático exacto del sistema, pero tal que su solución efectiva es imposible a causa de su complejidad (o de su dimensión): piénsese en el problema de los n cuerpos. Evidentemente, en estas ocasiones el ordenador puede resultar muy útil. Pero este caso es relativamente poco frecuente; por regla general, los errores provienen más de la teoría (o de la ausencia de teoría) bajo cuya dirección se ha edificado el modelo, que no de las aproximaciones resultantes del tratamiento numérico del sistema. A fin de cuentas, donde se ventila el porvenir de las aplicaciones de la matemática cuantitativa en el campo de la ciencia, es en esa franja bastante oscura que separa el dominio preciso de las leyes físicas fundamentales, del «bricolaje» de las interpretaciones estadísticas y de las matematizaciones empíricas. Por lo demás, la
www.lectulandia.com - Página 99
teoría de las catástrofes sugiere la posibilidad de que exista otro uso de las matemáticas en la ciencia, un uso que no sería cuantitativo sino exclusivamente cualitativo. Nos vemos así llevados a formularnos las siguientes preguntas: a)
¿Por qué razones ha de ser preferible un modelo cuantitativo en lugar de un modelo cualitativo?
b)
En el caso particular de los modelos de la TC, ¿es de esperar que el uso cualitativo se refuerce con un uso cuantitativo?
c)
¿Qué puede esperarse de un modelo puramente cualitativo?
Para tratar de contestar a la pregunta a), conviene replantear un problema muy general: ¿cuáles son los objetivos de la ciencia?
2. Los objetivos de la ciencia Si bien es legítimo considerar la totalidad de las actividades científicas como un continuum, no es menos cierto que ese continuum posee, por decirlo así, dos polos. Un polo es competencia del conocimiento puro: en ese punto, comprender lo real constituye el objetivo fundamental de la ciencia. El otro polo concierne a la acción: según ese punto de vista, el objetivo de la ciencia sería el de actuar con eficacia sobre la realidad. Una epistemología corta de vista sentirá la tentación de afirmar que esos dos polos no pueden oponerse, porque, para actuar con eficacia, es necesario «comprender». Yo rechazo ese punto de vista: puede ser que se comprenda muy bien una situación, pero que sin embargo se sea incapaz de actuar sobre ella (ejemplo: la situación del señor que se ve sorprendido en su casa por una inundación, se refugia en el tejado y ve cómo las aguas crecen y acaban por cubrirlo); inversamente, a veces puede suceder que sea capaz de actuar eficazmente sobre la realidad sin comprender las razones de esta eficacia (podría decirse, casi sin exagerar, que toda la medicina contemporánea es una muestra de tal posibilidad, pues son muy raros los casos en que ha sido posible explicar satisfactoriamente, en el nivel «fundamental» que es el de la biología molecular, la acción de un medicamento). En correspondencia con estos dos enfoques opuestos de la ciencia, se encuentran metodologías diferentes. La acción apunta esencialmente a la resolución de problemas locales, mientras que la comprensión apunta a lo universal, es decir, a lo global. Por una aparente paradoja, la solución de los problemas locales exige medios que no son locales; mientras que la inteligibilidad, por su parte, exige la reducción del fenómeno global a situaciones locales típicas, cuyo carácter pregnante las hace
www.lectulandia.com - Página 100
inmediatamente comprensibles. En efecto, en la acción existe siempre una intención que va más allá del fenómeno, puesto que siempre se procura realizar aquello que no se presenta espontáneamente. El objetivo último del hombre es el de romper las limitaciones del espacio-tiempo: lo que la humanidad exige para facilitar sus desplazamientos, sus transportes, sus comunicaciones, es que se exploten todos los modos de acción no local que pueden controlarse con facilidad; en el terreno de lo biológico, se procura sobrevivir —en la medida de lo posible—, es decir, alargar la duración de la vida, del individuo o de la especie, más allá de sus límites naturales. Inversamente, para esa contemplación que es el conocimiento puro, la inteligibilidad requiere que el fenómeno se reduzca a sus componentes inmediatamente comprensibles (por ejemplo, el choque de los átomos en las antiguas teorías atomistas). En otro lugar he explicado cómo los mayores éxitos científicos de la historia (la gravitación newtoniana, el electromagnetismo antes de Maxwell, la mecánica cuántica) fueron teorías no locales, a las que se intentó convertir en locales por un esfuerzo teórico ulterior (con éxito para el caso de las dos primeras, pero sin éxito para el de la última). En resumidas cuentas, la totalidad del esfuerzo científico humano (y, en cierto sentido, también el esfuerzo filosófico) en sus relaciones con la localidad, puede representarse mediante el siguiente cuadro: Localidad No-localidad Comprender
Sí
No
Actuar
No
Sí
En el fondo, la inteligencia humana no comprende la no-localidad más que en la forma del predicado (lingüísticamente, del adjetivo): un color, por ejemplo, no hace referencia a ningún lugar específico del espacio; todo el esfuerzo de inteligibilidad ha consistido en reducir las cualidades (secundarias) a las cualidades primarias constituidas por las coordenadas espacio-temporales (en una palabra, a sustituir el adjetivo por el verbo). No hay duda de que, en la actualidad, este proceso no está acabado, y, como veremos, los modelos de la TC van en esta dirección. Ahora bien, esta bipolaridad del campo científico tiene su reflejo en el instrumental matemático empleado en ciencia. Hemos visto que el polo «acción» necesita una ampliación de los datos, pues toda acción se propone ampliar nuestro dominio de influencia; es decir, que lo que se necesita ante todo son métodos de propagación que permitan hacer extensivo un conocimiento local obtenido en un dominio D del espacio substrato a un dominio D* mayor. En matemáticas existe un procedimiento que permite una extensión así, y es prácticamente el único que puede hacerlo de manera canónica: me refiero a la prolongación analítica, que, como es sabido, permite extender el germen de una función analítica (definido por su serie de
www.lectulandia.com - Página 101
Taylor en un punto) a todo el dominio de existencia (dominio de holomorfía) de esta función. Es decir, que los modelos matemáticos pragmáticamente eficaces, que permiten la previsión, implican la analiticidad de las funciones que figuran en ellos y la de sus soluciones de la evolución temporal. Ello impone en consecuencia que el espacio «substrato» sobre el que se trabaja esté provisto de una estructura analítica natural. La prolongación analítica es la única que permite el paso de lo local a lo nolocal característico de la acción. Hemos visto que, por el contrario, la inteligibilidad requiere la concentración de lo no local en una estructura local. Ahora bien, existe un ente matemático que responde bastante bien a esta definición: se trata de la noción de singularidad. Demos un ejemplo típico de dicha noción: el punto cónico, vértice del cono de revolución de ecuación z2 = x2 + y2 en el espacio euclidiano tridimensional referido al triedro trirrectángulo 0xyz. En efecto, este punto singular puede considerarse que proviene de una superficie regular, el cilindro de ecuación x2 + y2 = 1, por la aplicación continua φ que concentra el círculo meridiano de ecuaciones x2 + y2 = 1, z = 0 en el origen 0 (fig. 1). Se trata de un hecho general: siempre es posible considerar que una singularidad proviene de un espacio regular E por concentración en un punto de una figura global inmersa en este espacio E. No es extraño, así pues, que la TC, en su forma «elemental» de campos de dinámicas de gradiente, recurra sistemáticamente a la noción de singularidad (de función).
Figura 1
La célebre fórmula de Rutherford: «Qualitative is nothing but poor Quantitative» es, desde luego, muy fiel reflejo de la ideología cientificista imperante a finales del siglo XIX. Sin embargo, no por ello deja de contener una parte de verdad: si se quiere que un modelo sea pragmáticamente eficaz, entonces ha de contener, necesariamente, una componente cuantitativa que permita la localización espacio-temporal de los fenómenos que describe. Una predicción puramente cualitativa, que no esté provista
www.lectulandia.com - Página 102
de ninguna gama de fechas o de lugares, no posee prácticamente ningún interés. Puedo predecir, con completa certeza, que todo régimen político, en toda sociedad cualquiera que sea, acabará por venirse abajo. Si soy incapaz e decir cuándo (aunque sea con alguna imprecisión) mi predicción será sólo una trivialidad. Cuando los sismólogos nos digan: «La ciudad de Basilea va a ser destruida por un seísmo», su afirmación no tiene que ser motivo de Inquietud para los basilienses mientras no se precise ningún período de tiempo para el cumplimiento de la predicción. O sea que, desde el punto de vista pragmático, los únicos modelos dignos de consideración son los que permiten la localización espacio-temporal de los fenómenos. En consecuencia, son modelos necesariamente cuantitativos, al menos por lo que se refiere a dicha localización. Nos vemos, pues, llevados a las siguientes conclusiones: para que un modelo comporte unas buenas posibilidades de previsión y, en consecuencia, de actuación, es necesario que sea cuantitativo, que esté definido mediante entes matemáticos analíticos sobre un espacio substrato que, a su vez, sea también analítico. Evidentemente, éste es el caso de los modelos producidos por la física fundamental. E interesa comprender la razón por la que es así. Los espacios substrato introducidos en los modelos de las ciencias son de dos tipos: en primer lugar, está el espacio-tiempo de nuestra realidad cotidiana, hecho a nuestra escala; como que —en última instancia— es objeto de percepción a través de nuestros sentidos, justo es decir que el espacio-tiempo es el substrato último al que todos los demás deberían poderse reducir mediante construcciones explícitas matemáticamente. A continuación, están los espacios substrato abstractos, cuya definición no puede referirse inmediatamente al espacio-tiempo. Es el caso de los espacios de frecuencias estadísticas, que miden la frecuencia con que se presenta un fenómeno de un tipo determinado. En una teoría científica, la noción de fenómeno puede, evidentemente, cobrar un carácter mediato: así, puede ser que una protuberancia en una curva empírica se considere como un «fenómeno», aunque en semejante caso el substrato tenga una interpretación que puede distar mucho del espacio-tiempo. Por lo que hace al propio espacio-tiempo, cabe preguntarse si está dotado de una estructura analítica natural. La respuesta es afirmativa, si se adopta el punto de vista tradicional en física, consistente en considerar al espacio-tiempo como el espacio homogéneo de un grupo de Lie continuo de equivalencias (grupo euclidiano, galileano, lorentziano). A escala astronómica, nadie puede creer, desde luego, en esta identificación. Pero no por ello deja de conservar una validez local, expresada por la famosa exactitud de las leyes físicas a que nos hemos referido antes. De hecho, el carácter analítico de las leyes fundamentales se fundamenta en un mecanismo más sutil: puede considerarse que las entidades físicas fundamentales (materia, radiación, partículas elementales) rompen la simetría global del espacio-tiempo, puesto que se manifiestan por la presencia local de accidentes que quiebran la homogeneidad del
www.lectulandia.com - Página 103
espacio vacío. Entonces se introduce un nuevo substrato, una variable «interna», que es un eje de frecuencia estadística para la aparición de tal o tal tipo de accidente (en mecánica cuántica, como consecuencia de la presencia de la fase, esos ejes son complejos). Se define así un fibrado (complejo) sobre el espacio tiempo, y un estado del universo viene representado por una sección de ese fibrado. Las visiones de dos observadores (asociadas a sistemas de referencia distintos) difieren entonces por una representación (lineal) del grupo de los cambios de sistema de referencia en el espacio de las secciones (que, en el presente caso, es un espacio de Hilbert). Todo problema de comunicación entre observadores y de evolución temporal se reduce a determinar esta representación. ¿Por qué es analítica dicha representación? Porque, si despreciamos lo que sucede en el infinito, podemos reducirnos a una representación de grupo compacto, que es analítica (teorema de Peter-Weyl). En cierto modo, esta exigencia de un estado asintótico estacionario expresa el hecho de que los accidentes que rompen la simetría no pueden amplificarse desmesuradamente, sino que su proliferación permanece controlada y no puede poner en peligro la existencia del propio espacio-tiempo. De este modo, las leyes fundamentales expresan la «regulación» del espacio-tiempo con respecto a los accidentes que lo afectan. Piénsese por ejemplo en la ley de Lavoisier, que expresa la constancia de la masa en el transcurso de una reacción química. Por lo demás, a escala cuántica puede decirse que el espacio-tiempo sólo se salva in extremis (solamente en forma estadística), cosa que expresa la ausencia casi completa de morfología espacial de los fenómenos cuánticos. A escala astronómica, la noción de singularidad reaparece con toda su fuerza; de la descripción (verdad es que muy especulativa) de los agujeros negros, se extrae la conclusión de que allí de donde desaparece el espacio-tiempo tal y como lo conocemos, desaparece también la física que conocemos. Así pues, en física fundamental, los espacios internos que conviene introducir para describir las entidades físicas pueden relacionarse directamente con el espaciotiempo o con su grupo de equivalencias mediante construcciones matemáticamente definidas. Ello es suficiente para explicar las grandes leyes fundamentales y su carácter analítico. Examinemos ahora los otros medios por los que un dato empírico podría dotarse de una estructura analítica natural. En lugar de la regulación global del espacio-tiempo, consideremos esas regulaciones cualitativas locales que dan origen a las grandes formas típicas (de la naturaleza animada o inanimada) inventariadas en forma de individuos reconocibles (e identificables). Aquí ya no hay grupo continuo de invariancia, puesto que dos especímenes de una forma no son necesariamente iguales métricamente (por ejemplo, dos perros). Así pues, existe fundamento para considerar el espacio de las frecuencias estadísticas de aparición (o de presencia) de la forma. Este formalismo aparece ya en química, donde las leyes de equilibrio químico se basan en la regularidad morfológica de los procesos combinatorios entre moléculas constituidos por las reacciones
www.lectulandia.com - Página 104
químicas. Los modelos extraídos sólo satisfacen la condición de analiticidad si se puede demostrar que las constantes cinéticas k que figuran en la ley de acción de masa dependen analíticamente de las concentraciones: una dependencia que nada permite que se afirme a priori. El mismo formalismo (conocido con el nombre de modelo de los compartimentos) se aplica en biología a la teoría de poblaciones y a la genética formal. Pero las constantes que afectan a la frecuencia de las interacciones (como la predación, por ejemplo) rehuyen toda evaluación, en particular analítica. De lo que resulta que esta teoría sólo ha podido estudiar modelos simplistas, muy poco adecuados para representar la evolución de un sistema ecológico real. En esta clase de estudios, es muy probable que no puedan extraerse más que conclusiones cualitativas acerca de la naturaleza de los estados asintóticos (puntos de equilibrio, ciclo límite, atractor extraño, etc.). Toda la estadística tradicional está basada en el uso de distribuciones estándar (Gauss, Poisson…) que son analíticas sobre el eje de frecuencias estadísticas. De ello resulta una confianza a priori en la naturalidad de la estructura analítica definida por la frecuencia (n) de esos ejes. Ahora bien, hay que darse cuenta de que las condiciones de aplicación del teorema central del límite que lleva a la distribución de Gauss son extremadamente restrictivas: aditividad e independencia de las probabilidades individuales son condiciones que, a menudo, resulta difícil que se verifiquen. En muchos fenómenos de fluctuación (como la titilación de las estrellas), los físicos redescubren cuán frágiles son las hipótesis gaussianas. Doy aquí otra razón para poner en duda esas hipótesis de analiticidad a priori: Supongamos que un suceso (s) pueda producirse con una multiplicidad (mi), a través de un mecanismo determinista definido así: las condiciones iniciales del proceso vienen parametrizadas por los puntos de un espacio euclidiano E = Rn; y el suceso (s) se produce con una multiplicidad (mi) cuando el punto que representa los datos iniciales se encuentra en un abierto Bi cuyo borde regular ∂Bi = Hi, es una hipersuperficie regular en E (y, si se quiere, incluso analítica). Todos los dominios de Bi son disjuntos. Supongamos entonces que la preparación del suceso (s) depende de variables de control (u) ∈ U, tales que, a todo valor de (u), le corresponda un abierto P con borde regular de condiciones iniciales de (e). El abierto Pu depende analíticamente de (u) (por ejemplo, por traslación en E). Entonces, a todo u ∈ U se le puede asociar la sucesión de números reales positivos mi(u) = μi(u) = med (Pu ⋂ Bi). Los números μi(u) expresan (salvo normalización) las probabilidades de obtener el suceso (s) con la multiplicidad mi. Las hipótesis de analiticidad que, de ordinario,
www.lectulandia.com - Página 105
se hacen en semejante caso llevarían a creer que existe una función analítica f(x; u) que depende analíticamente de u, tal que μi(u) = f(mi; u). Ahora bien, en el espacio de control U existe un subconjunto K tal que, para u ∈ K, los bordes de Pu y de Bi son tangentes. Si este contacto tiene lugar genéricamente, se ve inmediatamente que, sobre una normal común al borde, μi(u) varía de un lado y de otro del valor de contacto u0 como una potencia racional μi(u) = C(u − u0)α, que es la válida a un lado de la singularidad, lo que acarrea una discontinuidad de una derivada de μi(u). Ello excluye la posibilidad de una dependencia analítica global de f en u. A este ejemplo se le puede objetar, evidentemente, su carácter determinista; regularizando por convolución los bordes de los abiertos Pu y Bi, se podría restablecer, evidentemente, la analiticidad de las (u). Pero entonces la función f cambiaría totalmente de carácter (en particular, desde el punto de vista de sus momentos. Por lo demás, en el estado actual de la dinámica cualitativa, ¿quién puede creer que exista una diferencia de naturaleza entre sistemas dinámicos deterministas y sistemas estocásticos? Un sistema estocástico es un sistema del que se prefiere no dilucidar el determinismo sustituyendo esa hipótesis por hipótesis estadísticas acerca del ruido, cuya legitimación es, por lo general, muy difícil… En definitiva, la conclusión que cabe extraer de este estudio es la siguiente: el dominio científico en el que es posible construir modelos cuantitativos ciertos, que permitan la previsión y, en consecuencia, la acción, es mucho más estrecho de lo que se cree generalmente. Es como un pequeño halo en torno a la física fundamental, de fronteras tanto más imprecisas cuanto mayor es la intervención de consideraciones estadísticas.
3. El aspecto cuantitativo de la TC Abordemos ahora la pregunta b): los modelos de la TC ¿pueden reforzarse hasta el punto de hacerse cuantitativos y, en consecuencia, permitir la predicción? Son conocidas las grandes esperanzas que despertó la teoría de las catástrofes en el momento en que se divulgó. ¡Iba a ser posible modelizar los fenómenos discontinuos mediante ecuaciones explícitas! Muy pronto se impuso el desencanto. Los modelos de la teoría elemental (TCE) son esencialmente locales, porque están basados en la noción local de singularidad. Es sabido que, en esos modelos, la morfología
www.lectulandia.com - Página 106
observable en un espacio substrato S se obtiene haciendo que S vaya a parar, por una aplicación g, al desplegamiento universal U de la singularidad. La teoría clásica se limita a formular hipótesis de genericidad acerca del morfismo g (rango maximal en 0, transversalidad sobre el conjunto de catástrofe universal K en U). Para obtener posibilidades predictivas del modelo, todo está en controlar, si es posible, el morfismo g. No existe, a priori, ninguna razón para que este morfismo sea analítico con respecto a las estructuras analíticas, que se suponen naturales, de S y de U. ¿Se dirá que siempre es posible aproximar g mediante un morfismo analítico g en 0? En primer lugar, observemos que puede no ser legítimo aproximar g cuando el proceso está sometido a constricciones (simetrías, condiciones iniciales degeneradas que no han sido tenidas en cuenta en el modelo. Pero incluso si dicha aproximación es posible, subsiste el problema de saber en qué topología hay que hacerla. Porque, si nos contentamos con una topología Ck, con k finito, no existe prácticamente ningún control sobre el dominio de holomorfía del morfismo aproximante g. En consecuencia, puede afirmarse que, sin una hipótesis suplementaria que provenga de un conocimiento más fino del sistema modelizado, es imposible extraer posibilidades de predicción cuantitativa de un modelo de la TCE. En esto, apruebo las críticas de Saumjan y Zahler con respecto a esos modelos. Dicho esto, no creo que haya que negarles a priori a los modelos catastróficos lo que se concede sin pensar en las técnicas usuales de aproximación; por ejemplo, la posibilidad de interpolar una función continua mediante un polinomio. El fit realizado por Zeeman sobre algunos de esos modelos ha de juzgarse con este ánimo; no tiene como resultado la certeza, pero puede poseer un valor indicativo real. El modelo de la desnaturalización de una proteína construido por Kossak es muy exacto cuantitativamente (según me ha asegurado el autor). Algunas situaciones de regularidad intrínseca del fenómeno pueden hacer posible una concordancia numérica satisfactoria, pero no cabe estar seguro de ello a priori. Otro método para controlar el morfismo g consistiría en admitir que existen dinámicas (D) canónicamente asociadas a la catástrofe en el espacio de desplegamiento U. Ello permitiría definir la evolución temporal de las catástrofes; además, semejante construcción convertiría a la TC en una teoría generativa, en la que las catástrofes se engendrarían unas a otras, al modo de los términos de un sistema formal. Por consiguiente, esta extensión de la teoría poseería un gran interés, a la vez teórico y práctico. Permitiría contestar a una objeción de principio que Süssmann ha hecho al modelo: la de que introduce una continuidad ficticia allí donde, en realidad, existe una discontinuidad efectiva (en el modelo de la agresividad del perro: un perro ataca o no ataca, pero no existe transición posible entre esas dos conductas). No hay duda de que esa objeción refleja una situación real. Pero es posible dar cuenta de ella en un modelo con dinámica (D) en el desplegamiento. Esta dinámica convertiría a determinadas regiones del espacio U (muy a menudo, un www.lectulandia.com - Página 107
entorno del centro organizador, como en el modelo de la gallina y el huevo) en tabúes, las haría inaccesibles; o bien dicha dinámica podría llevar a atravesar determinadas curvas de bifurcación en determinados puntos bien definidos (un creodo de captura, por ejemplo). La construcción de esas dinámicas «naturales» sobre el desplegamiento U es un problema todavía abierto; en efecto, no se está muy seguro de que haya que partir de los ejemplos concretos proporcionados por las aplicaciones o si, por el contrario, hay que sacar el máximo partido de las posibilidades intrínsecas de la matemática. Yo, por ejemplo, he definido determinadas dinámicas «naturales» sobre U mediante una métrica hiperbólica sobre el producto del espacio de estados por U. Nótese, en el mismo sentido, que las dinámicas hamiltonianas asociadas a los potenciales polinómicos de la TCE desembocan, con una dinámica lineal adecuada en U, en algunas de las trascendentes de Painlevé. En cualquier caso, parece cierto que el regreso del desplegamiento U (provisto de su dinámica s) al substrato S es el único medio para convertir a la TC en eficaz pragmáticamente hablando. De este modo, la catástrofe definiría una propagación espacial en el soporte S. Tal sería el caso si se pudiera generalizar una situación que se da en el desplegamiento de las singularidades de proyecciones de variedades lagrangianas (frentes de onda) en teoría de Hamilton-Jacobi: en ese caso, existe en U una forma diferencial α con valores en el espacio tangente al substrato (aquí, el espacio de configuración de coordenadas qi), a saber da, tal que la integral ∫nα a lo largo de una trayectoria γ de s vuelve a dar el correspondiente desplazamiento espacial en S. Esta propagación espacial, relativamente bien controlada desde el punto de vista métrico, podría desempeñar el papel de la prolongación analítica inexistente. Además, si existieran trayectorias de (s) que unieran un estrato del desplegamiento asociado a la singularidad si con otro asociado a la singularidad sj, podría explicarse cómo puede la catástrofe (si) engendrar a la catástrofe (sj) en un momento posterior. Podría así abordarse el problema de la articulación de las catástrofes entre sí, problema cuyo interés biológico (particularmente, en embriología) es por completo evidente. Conviene aquí tener presente que la TC está todavía en la infancia. El progreso en ese dominio oscuro, pero esencial, de la «síntesis dinámica» de las catástrofes sólo será posible recurriendo sistemáticamente al material experimental, a la vez que utilizando abiertamente los instrumentos analíticos conocidos o por crear. A falta de ello, bien podría ser que la TC estuviera destinada a un fracaso como el de la cibernética.
4. Los modelos puramente cualitativos: analogía y lenguaje natural Aunque los modelos de la teoría elemental (TCE) no desemboquen en ninguna
www.lectulandia.com - Página 108
previsión cuantitativa, no por ello dejan de poseer un interés real. En efecto, a veces permiten una predicción cualitativa: si es posible seguir tal o tal camino en el desplegamiento U, se obtendrá tal o tal transformación morfológica. Además, el simple hecho de disponer de una teoría que permite una clasificación de situaciones analógicas constituye, desde el punto de vista filosófico, un logro nada despreciable. Porque la noción de analogía, aunque la epistemología neopositivista la rechace por sospechosa, no por ello es menos cierto que desempeña un papel heurístico fundamental en la ciencia. Así pues, es importante rehabilitarla de este ostracismo; y, para conseguirlo, ¿qué mejor medio podríamos soñar que una formalización matemática? Sin embargo, el uso puramente analógico de la TC suscita una objeción evidente: si es posible geometrizar la analogía mediante esos modelos «catastróficos», ¿qué ventaja ofrece esta modelización con respecto a la intuición inmediata vinculada al lenguaje natural, a la palabra significante?, ¿o se corre el peligro de hacer arte por el arte, llevando a cabo una matematización gratuita y, en definitiva, ociosa? Tal peligro es, ciertamente, real y su inminencia viene confirmada por la lectura de determinadas «aplicaciones» de las catástrofes. Creo que, en este dominio, no existe una respuesta general y que siempre se trata de casos especiales. Con mucha frecuencia, la geometrización proporciona una visión global que a menudo resulta difícil de captar a través de la conceptualización verbal, a causa de la fragmentación inherente a esta última. Además, las analogías pueden ser más o menos triviales, más o menos sorprendentes; el efecto propiamente fulminante que se observa en algunas metáforas poéticas, ¿se justificaría si todas las analogías fueran evidentes? Es por ello por lo que esos modelos cualitativos sólo pueden apreciarse y juzgarse subjetivamente. En definitiva, el criterio último de validez del modelo lo constituye la satisfacción intelectual que proporciona. Esta vuelta a una evaluación de carácter estilístico, cuasi literario o estético, merecerá sin duda un juicio severo por parte de los científicos «ortodoxos». No perderán la ocasión de decir que esos modelos «no son ciencia». Qué duda cabe de que, desde su punto de vista, tienen razón… Pero se necesita mucha suficiencia para creer que existe una frontera estricta y claramente definida entre ciencia y no-ciencia. La tentativa global de geometrizar el pensamiento no deja de presentar un enorme interés teórico. Veamos por qué: En numerosas disciplinas científicas se utilizan conceptos cuyo significado no está claro ni puede formalizarse. En biología, por ejemplo, se encuentran conceptos tales como los de complejidad, orden, desorden, organización, información (genética), mensaje, código, etc., que especifican, todos ellos, una determinada propiedad no local del medio estudiado. Cabe preguntarse si esos conceptos, a ejemplo de numerosos conceptos de la filosofía, pueden traducirse unívocamente en todas las lenguas del mundo y ostentan legítimamente la marca de fábrica de la cientificidad. Pronto llegará el momento en que se hará necesaria una crítica
www.lectulandia.com - Página 109
sistemática de esos útiles conceptuales dudosos. Si se pretende aplicar a esos conceptos una forma, siquiera reducida, del programa hilbertiano para la eliminación del sentido, entonces la etapa de geometrización a través de la TC puede resultar un intermediario de gran valor: por medio de ella, se hace posible sustituir la intuición semántica, con su carácter subjetivo inmediato, por la intuición geométrica, que espacializa su objeto y lo distancia del sujeto pensante. En tanto que teoría fundamentalmente local, la TC elimina el carácter no local, transespacial y cuasi mágico, de esas nociones. Nada impide suponer que sea igualmente posible, como se vio en el apartado anterior, dotar a la TC de generatividad, de propiedades propagativas; entonces podrá proporcionarse un modelo de la deducción, como en la axiomática de un sistema formal. Pero en tal caso, esas propiedades propagativas, no locales, están estrictamente controladas. Volviendo a la metáfora anterior, se observará que los axiomas de un sistema formal permiten, por lo general, sustituir una expresión larga por otra corta, más sencilla. En consecuencia, desempeñan el papel de una acción no local en la topología del monoide libre engendrado por los símbolos. Este programa, que recuerda la característica universal de Leibniz, apenas está en sus comienzos, evidentemente. Con la TCE y las extensiones lingüísticas (esquemas actanciales) que se le pueden asociar, se dispone a lo sumo de una formalización (relativa) de las situaciones sintácticas de las frases elementales. Pero el dominio del léxico, la organización semántica de un diccionario, continúa siendo, en la actualidad, una terra ignota. En este punto interviene el problema de lo que he llamado los logoi, es decir, esas estructuras algebraico-geométricas que estabilizan todo concepto en el espacio de las actividades mentales. Volvemos aquí a encontrarnos —en una forma particularmente aguda— con el problema de la síntesis dinámica que hemos tratado antes. ¿Cómo geometrizar las grandes categorías gramaticales? El cometido que desempeña la doble articulación, presente a la vez en biología (genotipo-organismo) y en lingüística (fonemas-frase), ¿es indispensable para la estabilización de los logoi? Ante la inmensidad de este programa, uno puede sentirse embargado por una inquietud legítima: ¿vale la pena internarse por ese camino? A ello contestamos que lo; modelos «catastróficos» ya han proporcionado intuiciones que el lenguaje usual hubiera suministrado difícilmente. En efecto, el pensamiento verbalizado tiene tendencia a esclerotizar los conceptos, vinculados como están a una palabra fija del léxico: ésta disimula su variabilidad intrínseca tras el efecto de los auxiliares y de las funciones de la gramática. La TC hace posible una lógica del continuo, en la que se consideran conceptos «variables» Fu, donde el parámetro u varía en un espacio de control U; cuando u describe un camino (uv) en U, es posible que el concepto Fu se transforme continuamente en un concepto Gv, cuyo parentesco con Fu no aparezca inmediatamente con Fu, porque, en el pensamiento normal, existe un umbral, un «tabú», que separa a u de v en el espacio de control U. La TC ofrece, en
www.lectulandia.com - Página 110
consecuencia, la posibilidad (amplia) de transgredir el principio de identidad (sin perjuicio, evidentemente, que esas transgresiones se realicen en situaciones bien controladas). Es sabido —sin duda— el ejemplo tipo de dichas transgresiones. Se trata del principio (que yo considero fundamental en embriología animal) que dice: «El predador hambriento es su presa». Recordemos que este principio resulta de aplicar el modelo de la cúspide a la predación (fig. 2): el predador P, después de la captura espacial de la presa (p) (en el punto K de la curva de bifurcación), se hunde en el sueño simbolizado por el semicírculo M (estado de indistinción entre el sujeto y el objeto); al despertarse, el predador reaparece en tanto que su presa (p), no recobrará su condición de predador más que después de la catástrofe de percepción (en J), cuando percibe una presa exterior (p) y se pone a perseguirla.
Figura 2
Quisiera señalar aquí una implicación curiosa (y bastante vertiginosa) de este modelo. Cuando el predador (P) ha reconocido una presa exterior (p), existe entre (P) y (p) una especie de identificación simbólica que puede interpretarse como la creación, en el espacio-tiempo, de un asa (en el sentido topológico) que identifica (P) y (p) (fig. 3). A consecuencia de ello, la topología del espacio adquiere una forma «excitada», y tiende por sí misma a regresar a la normalidad por regularización físicoquímica. Este regreso a lo normal puede llevarse a cabo de dos maneras: normalmente, por la captura espacial de la presa por el predador (lo que corresponde a la creación en el espacio-tiempo de un punto crítico de índice uno, que destruye el asa (fig. 4); o, de manera menos normal —pero no imposible— por huida de la presa (p) (fig. 5); entonces el asa se destruye por un punto crítico de índice tres, interior al asa, y se regresa a la situación anterior a la catástrofe de percepción. De este modo, este modelo, de un idealismo delirante, justifica la tesis conductista según la cual la captura de la presa por el predador (o la huida de la presa) es un mecanismo de regulación físico-química, ¡impuesto por la regulación topológica del espacio-tiempo!
www.lectulandia.com - Página 111
La subjetividad aparece entonces como una localización actancial de un estado excitado del universo, como la elección de un regreso a Jo normal. Resultaría estar ligada a la situación dicotómica de conflicto entre lo real y lo imaginario, entre el reposo y la tensión. Por lo demás, en el calificativo de «excitado» queda algo así como una connotación subjetiva; lo imaginario sería la estabilización de los umbrales. Y con esta idea un poco bergsoniana, quisiera poner punto final al presente estudio.
Figura 3: Asa simbólica entre predador (P) y presa (p)
Figura 4: Destrucción del asa por captura de la presa (p) por el predador (P)
Figura 5: Destrucción del asa por buida de la presa (p)
www.lectulandia.com - Página 112
Bibliografía 1. Sobre la teoría de las catástrofes y la teoría de singularidades M. Golubitsky y V. Guillemin, Stable Mappings and their Singularities, Heidelberg, Springer, col. «Graduate Texts in Mathematics», vol. 14, 1973. Y. C. Lu, Singularity Theory and Introduction to Catastrophe Theory, Heidelberg, Springer, col. «Universitext», 1976, 2.ª ed. corregida. Mathématiques et Sciences humaines, n.º 59, número especial: Théorie des catastrophes (I), Paris, Gauthier-Villars, 1977. Mathématiques et Sciences humaines, n.º 64, número especial: Théorie des catastrophes (II), Paris, Gauthier-Villars, 1978. P. P. Saunders, An Introduction to Catastrophe Theory, Cambridge University Press, 1980. Traducción castellana: Siglo XXI, Madrid, 1983. I. N. Stewart, «The seven Elementary Catastrophes», «New Scientist», vol. 68, n.º 976, 1975, págs. 447-454. H. J. Sussmann, «Catastrophe Theory», «Synthese», vol. 31, n.º 2, agosto 1975, Dordrecht, págs. 229-276. H. J. Sussmann y R. S. Zahler, «Catastrophe Theory as applied to the social and biological Sciences: a Critique», «Synthese», vol. 37, n.º 2, febrero 1978, Dordrecht, págs. 117-216. R. Thom, Stabilité structurelle et morphogenése, Paris, Interéditions, 1972; 2.ª ed. revisada, corregida y aumentada, 1977. — L’évolution temporelle des catastrophes, Publicaciones del Instituto matemático de la universidad de Utrecht, 1973. — Modèles mathématiques de la morphogenèse (colección de textos sobre la teoría de las catástrofes y sus aplicaciones), Paris, Union générale d’éditions, col. «10/18», n.º 887, 1974. Nueva edición revisada y aumentada, París, Christian Burgois, 1981. — «D’un modèle de la science à une science des modèles», «Synthese», vol. 31, n.º 2, agosto 1975, págs. 359-374. R. Thom, C. Lejeune y J.-P. Duport, Morphogenèse et imaginaire, Paris, Éd. Lettres modernes, col. «Circé», n.º 8-9, 1978. G. Wasserman, Stability of Unfoldings, Heidelberg, Springer, col. «Lecture Notes in
www.lectulandia.com - Página 113
Mathematics», vol. 393, 1974. A. E. R. Woodcock y T. Poston, A geometrical Study of the elementary Catastrophes, Heidelberg, Springer, col. «Lecture Notes in Mathematics», vol. 373, 1974. E. C. Zeeman, Catastrophe Theory (Selected Papers, 1972-1977), Reading (Mass.), Addison-Wesley, 1977. 2. Sobre la geometría diferencial y los sistemas dinámicos R. Abraham, Foundations of Mechanics, Nueva York, Benjamin, 1967. R. Abraham y J. Robbin, Transversal Mappings and Flows, Nueva York, Benjamin, 1967. V. Arnold y J. Avez, Problèmes ergodiques en mécanique classique, París, GauthierVillars, 1967. V. Arnold, Équations différentielles ordinaires, Moscú, Mir, 1974. — Chapîtres supplémentaires de la théorie des équations différentielles ordinaires, Moscú, Mir, 1980. W. M. Booth, An Introduction to differentiable Manifolds and Riemanian Geometry, Nueva York, Academic Press. P. Delattre, L’évolution des systèmes moléculaires, París, Maloine, 1971. M. W. Hirsch y S. Smale, Differential Equations, Dynamical Systems and Linear Algebra, Nueva York, Academic Press, 1974. A. Lichnerowicz, F. Perroux y G. Gadoffre (eds.), Structure et dynamique des systèmes, Paris, Maloine, 1976. A. Manning (éd.), Dynamical Systems-Warwick 1974, Heidelberg, Springer, col. «Lecture Notes in Mathematics», vol. 468, 1975. M. M. Peixoto (ed.), Dynamical systems. Proceeding of a Symposium held at Salvador (Brazil), Nueva York, Academic Press, 1973. Proceeding of Liverpool Singularities. Symposium I, ed. por C. T. C. Wall, Heidelberg, Springer, col. «Lecture Notes in Mathematics», vol. 192, 1971. Proceeding of Liverpool singularities. Symposium II, ed. por C. T. C. Wall, Heidelber, Springer, col. «Lecture Notes in Mathematics», vol. 209, 1971. M. Spivak, A comprehensive Introduction to differential Geometry, 5 vols., Boston, Publish or Perish, 1979, 2.ª ed.
www.lectulandia.com - Página 114
R. Thom, Local Topological Properties of Differentiable Mappings, Differential Analysis, Oxford University Press, 1964.
www.lectulandia.com - Página 115
Segunda parte
De las matemáticas al lenguaje
www.lectulandia.com - Página 116
Matemáticas vacías y matemáticas significativas Jean Dieudonné
Lo que voy a decirles constituye esencialmente la introducción de mi libro Panorama des mathématiques purés: le choix bourbachique.[17] Hacia el tercio final de mi conferencia trataré de explicarles lo que entiendo por matemáticas bourbáquicas. Pero antes de decirles qué son esas matemáticas, creo que quizás no resulte inútil, sobre todo para aquéllos de ustedes que no son matemáticos profesionales, tratar de explicarles cómo ven actualmente los matemáticos a la matemática. Procuraré, por un lado, mostrarles el estado actual de las matemáticas; y por otro —lo que constituirá la mayor parte de mi conferencia—, intentaré hacer ver cómo han evolucionado los problemas, pues no puede entenderse una ciencia si se ignora su evolución. No se trata de una conferencia polémica; puedo respaldar con citas y referencias todo lo que voy a decirles: no diré nada que no esté reconocido e impreso en alguna parte. Nunca las matemáticas han gozado, cuantitativa y cualitativamente, de mejor salud que hoy en día. Empecemos por los aspectos cuantitativos: he aquí un número de las «Mathematical Reviews», que se publican cada mes; digo bien, cada mes y no cada año. En sus comienzos, en 1940, esta revista publicaba un volumen anual de trescientas páginas; en la actualidad, trescientas páginas son las que corresponden a un volumen mensual. Y no crean que en ellas se encuentra, in extenso, toda la matemática que se produce: se trata de recensiones o de informes de trabajos matemáticos, más o menos proporcionales a su extensión (según la importancia del trabajo). Cada página de este volumen en cuarto consta, en dos columnas, de una media de cinco a diez reseñas. Por ejemplo, aquí aparece una memoria de cuarenta y una páginas cuya reseña ocupa media columna. En resumidas cuentas, puede decirse que este volumen representa entre un veinteavo y un treintavo de la longitud de las matemáticas in extenso; es decir que, cada mes, se publican en el mundo aproximadamente de dos mil a dos mil quinientas páginas de textos matemáticos. Esto por lo que se refiere al punto de vista cuantitativo. Pero las matemáticas no se valoran por su peso en papel y hay que hacer distinciones. No hablaré de estas distinciones porque pueden ser polémicas. Digamos, en todo caso, que los matemáticos más competentes están de acuerdo en pensar que, de toda esta enorme producción cuantitativa, hay una parte que es excelente desde el punto de vista cualitativo. Creo que puede afirmarse que nunca se han encontrado
www.lectulandia.com - Página 117
tantos resultados nuevos e importantes como en la actualidad; y que, sin exagerar, se han producido más matemáticas fundamentales a partir de 1940 que las producidas desde Tales hasta dicha fecha. Ello puede demostrarse haciendo una lista de las cuestiones que habían permanecido abiertas durante décadas, incluso siglos, y que se han resuelto desde 1940. Así pues, desde todos los puntos de vista, puede decirse que las matemáticas conocen actualmente una prosperidad extraordinaria.
1. Lógica y matemáticas De manera perfectamente natural y excusable, los filósofos y los lógicos tienden a creer que los matemáticos se interesan mucho por su trabajo. Desengáñense, no es verdad: al 95% de los matemáticos les importa un bledo lo que puedan hacer todos los lógicos y todos los filósofos. Por supuesto, existe una parte de la lógica, la llamada lógica matemática, que —para satisfacción de todos— ha alcanzado un desarrollo considerable desde hace cincuenta años y que posee en su haber éxitos extraordinarios. Pero, para que se hagan una idea de la proporción que guardan los trabajos de lógica matemática con los trabajos de matemáticas que nada tienen que ver con la lógica, constatemos simplemente que, de las casi trescientas páginas de este número de las «Mathematical Reviews» (febrero de 1976), sólo ocho están consagradas a la lógica matemática. Pero ¿por qué los matemáticos no se interesan por la lógica? De hecho, hubo un período —la famosa crisis de fundamentos, que empezó hacia 1895 y se prolongó hasta 1930, aproximadamente— durante el cual muchos matemáticos se sintieron fuertemente turbados por las paradojas y las dificultades de razonamiento que parecían surgir por todas partes. Creo que los matemáticos de esa generación y de la mía —que es posterior— pasaron todos por una crisis personal; durante un año entero, yo me pasé el tiempo fabricando un sistema lógico que me resultara satisfactorio —no lo publiqué, por supuesto—, porque estaba preocupado hasta el punto de necesitar demostrarme a mí mismo que era posible hacer matemáticas de manera totalmente coherente. El sistema que actualmente satisface a, digamos, el 95% por lo menos de los matemáticos es el bien conocido sistema de ZermeloFraenkel, ordenado y formalizado —puesto que no lo estaba enteramente aún en los trabajos de Zermelo y de Fraenkel (véase el apéndice 5: «La axiomatización de la teoría de conjuntos», pág. 309). Este sistema responde exactamente a las necesidades de todos los matemáticos, exceptuando, por supuesto, a los lógicos y también a todos aquellos a quienes su actitud filosófica les impide aceptar las premisas de un tal sistema; es decir, a los matemáticos llamados intuicionistas o constructivistas. Existen, por un lado, los constructivistas rusos —hacen matemáticas que ellos llaman constructivas, pero que www.lectulandia.com - Página 118
nada tienen que ver con los fundamentos— y, por otro lado, los constructivistas americanos, como Bishop y sus discípulos, que están fuertemente preocupados por las dificultades de las relaciones entre las matemáticas y la realidad, etc.; cosas todas ellas que a los matemáticos, al otro 95%, les importan un pepino.[18] En todo caso, lo cierto es que hay lógicos que trabajan; incluso trabajan mucho y lo hacen muy bien. ¿Qué hacen, esencialmente? Nosotros, los matemáticos, ¿cómo juzgamos su trabajo? Pues bien, por un lado, exploran las posibilidades de nuestro sistema lógico, aquél con el que trabajamos, el de Zermelo-Fraenkel; por otra parte —y ello nos interesa mucho menos— elaboran y exploran un sinfín de otros sistemas lógicos. Y así, cuando nos vienen a hablar de lógica de primer y segundo orden, de funciones recursivas y de modelos, teorías muy simpáticas y bellas que han producido resultados notables, nosotros, los matemáticos, no encontramos ninguna objeción en que alguien se ocupe de ellas, pero el asunto nos deja completamente fríos.[19] Quedan, sin embargo, uno o dos comentarios por hacer. En primer lugar, hay personas que le preguntan a uno: «¿Y qué me dice usted del análisis no estándar?». ¡Ah!, ése sí que es un buen invento, que data de hace quince años y que, por lo que yo puedo juzgar, nos viene de los lógicos.[20] Históricamente, son los lógicos quienes inventaron este método; de él extrajeron algunos bellos resultados y no puede asegurarse que en manos de gente muy astuta no vaya a dar origen a algo todavía mucho mejor. Pero, en realidad, se trataba simplemente de un método matemático como otro cualquiera, basado en la noción de ultraproducto.[21] Admitiendo el axioma de elección, puede incorporársele inmediatamente y sin dificultad en el sistema Zermelo-Fraenkel. Digamos que el método se ha convertido en una parte de las matemáticas, pero que las aplicaciones que de él se hacen para nuestras matemáticas ya no tienen nada que ver con la lógica.[22] El segundo comentario concierne a las repercusiones de lo que hacen los lógicos, por lo demás inspirados por problemas surgidos de las matemáticas. Por su condición de parapetos, nos interesan mucho las demostraciones de indecidibilidad y de imposibilidad. Han habido matemáticos que han pasado años de su vida tratando de demostrar la hipótesis del continuo, un problema que los ha atormentado durante muchísimo tiempo. Recuerdo haber oído decir a mi maestro Polya, quien por su parte lo sabía por Alexandroff, que Alexandroff había trabajado durante un año en la demostración de la hipótesis del continuo y que después había parado porque sintió que se volvía loco. Hizo bien. Así que, cuando Gödel y Cohen vinieron a decirnos que era inútil fastidiarnos las meninges y que nunca demostraríamos ni la hipótesis del continuo ni su contradicción, dijimos: «¡Uf! ¡Qué suerte! Ya no tendremos que preocuparnos más por este abominable problema» (véase el apéndice 6: «La hipótesis del continuo y el axioma de elección», pág. 311 y sigs.). Es lo mismo que sucede, por lo demás, con el décimo problema de Hilbert sobre
www.lectulandia.com - Página 119
la resolución de los problemas diofánticos, solventado recientemente por Matijasevic. Por otra parte, confieso que, pese a mi enorme admiración por ese matemático de primera magnitud que fue Hilbert, nunca he comprendido cómo pudo creer que una máquina pudiera proporcionar automáticamente todas las respuestas a todos los problemas diofánteos. Así que estoy encantado de que Matijasevic haya demostrado que era imposible, cosa que la mayoría de matemáticos, creo, como yo mismo, considerábamos de simple sentido común. No se sustituye al cerebro por una máquina (véase el apéndice 4: «El décimo problema de Hilbert», pág. 307 y sigs.). Para acabar con la lógica, hay que decir que todas estas cuestiones, por interesantes que sean (filosóficamente sobre todo), no afectan, como veremos en seguida, más que a un sector muy reducido de las matemáticas, en particular de las matemáticas bourbáquicas. Diría incluso que son cuestiones que están ausentes de las matemáticas bourbáquicas, las cuales no tropiezan jamás con un ejemplo de matemáticas donde haya que aplicar el axioma de elección general o la hipótesis del continuo, porque en ellas nunca se necesita más que el axioma de elección numerable. ¡Ah!, por lo que a este último respecta, no hay nada a hacer. En la actualidad, es imposible hacer análisis sin el axioma de elección numerable, y esto lo admite todo el mundo. Pero es muy raro que se tenga verdadera necesidad del axioma general de elección, no numerable, el cual no interviene en ninguna parte de lo que voy a describirles en seguida[23]. ¿Por qué? Pues porque se trata siempre de espacios que son generalmente metrizables y separables; y, en esos espacios, las buenas sucesiones de siempre son suficientes con mucho. Así que, en realidad, se da al respecto un cierto rechazo por parte de muchos matemáticos; pero ¿por qué ese rechazo? En mi juventud, éramos todos unos grandes entusiastas de la escuela de Cantor y de todos sus resultados, del axioma de elección, de Zermelo; Zermelo era bueno para todo y se había hallado incluso la manera de meterlo allí donde no era necesario, para hacer rabiar a los viejos, que no gustaban de ello. Al final, se acabó por caer en la cuenta de que los viejos tenían, a pesar de todo, una intuición imponente; porque, aunque desprovistos de elementos de juicio, no por ello dejaron de percibir que aquello olía mal. Después de Gödel y Cohen, sabemos que existe una especie de centro de las matemáticas que reposa sobre Zermelo-Fraenkel —¡cuidado! Zermelo-Fraenkel sin el axioma de elección general sino con el axioma de elección numerable— y nada más. He aquí un bloque de axiomas al que no podemos renunciar, so pena de no poder hacer ya ni análisis ni ninguna otra cosa. ¿Qué sucede más allá? Cohen y Gödel nos dicen que más allá hay cuanta matemática se quiera. Se puede decidir que el continuo es «alef treinta y seis», a menos que no sea «alef setenta y cinco», o cualquier otra cosa. En tal caso, ¿por qué habría de ser «alef uno»? Mejor aún: a lo largo de los últimos años, se ha caído en la cuenta de que, con tal que se consienta en darle el pasaporte al axioma de elección no numerable, conservando desde luego el axioma de elección numerable, se podían hacer cosas muy interesantes con otros axiomas en los que nadie había pensado nunca. Un www.lectulandia.com - Página 120
ejemplo que llena de gozo el corazón de todo analista, lo constituye el axioma de Solovay. Desde Lebesgue sabemos que, en principio y desgraciadamente, la mayoría de los conjuntos con los que nos topamos sobre la recta no son medibles… lo cual es un fastidio. En cierto sentido, incluso es una idiotez. Una idiotez, porque se sabe —no estoy seguro de que sea, desde el punto de vista lógico, completamente demostrable —, se sabe, digo, que nunca se fabrican conjuntos no medibles si no es con el axioma de elección no numerable. Es decir, que hay que fabricarlos. Ahora bien, en análisis, nos encontramos constantemente con conjuntos que no son en absoluto fabricados; por ejemplo, conjuntos de soluciones de ecuaciones que intervienen de manera natural y de los que es preciso saber si son medibles. Entonces, aun estando seguro de que el conjunto en cuestión es medible, uno se rompe la cabeza para saber por qué; y, para demostrar esa estupidez, uno se lanza a una demostración que puede ocupar dos, tres o cuatro páginas. Si se supiera que todos los conjuntos son medibles, se estaría la mar de tranquilo y no se tendrían que demostrar cosas que se sabe, de antemano, que son verdad. De hecho, Solovay ha puesto de manifiesto que se puede fabricar un sistema tan consistente como el actual de Zermelo-Fraenkel sin más que añadir, en lugar, naturalmente, del axioma de elección general, el axioma de Solovay que dice que todos los conjuntos de ℝn son medibles en el sentido de Lebesgue (véase el apéndice 7: «El axioma de Solovay», pág. 315 y sigs.). Para muchos analistas, se trataría de un axioma mucho más agradable que el axioma de elección general. Todo esto viene a cuento para hacerles ver que existe una infinidad de posibilidades más allá del núcleo central de la matemática, digamos de la matemática bourbáquica. Por el momento, no parece existir ningún tipo de razón para escoger una de esas posibilidades mejor que otra. Cuando se haya trabajado suficientemente con las posibilidades abiertas por diversos sistemas de axiomas, quizá dentro de veinte años, de cincuenta, o de doscientos, los matemáticos volverán un buen día a estar de acuerdo en estimar que un sistema determinado es más agradable que los otros y en incorporarlo a las matemáticas para no hacer, a partir de ese momento, más matemática que la basada sobre dicho sistema. También podría ser que esto no sucediera jamás y que, a partir de ahora, aparezcan tantos sistemas surgidos del sistema central como posibilidades hay, según el estilo de cada matemático. No lo sé. Sólo el futuro puede decirlo. Esto liquida la cuestión de las relaciones entre las matemáticas y la lógica. Así pues, a partir de ahora, no voy a hablar más de lógica en absoluto.
2. Origen de las teorías matemáticas Un segundo punto sobre el que quizás hay que extenderse un poquito, es la
www.lectulandia.com - Página 121
cuestión de la utilidad, de la aplicabilidad, etc., de las matemáticas puras por lo que hace a las matemáticas aplicadas. Se ha dicho al respecto una enorme cantidad de majaderías en ambos sentidos y quisiera intentar, a pesar de todo, poner las cosas en su lugar, manteniéndome en un plano tan objetivo como sea posible. ¿Qué vemos al contemplar las matemáticas y sus aplicaciones actuales? En primer lugar, no hay duda de que, históricamente, las matemáticas tuvieron como origen problemas de orden práctico: numeraciones, medidas de figuras… Existe una multitud de documentos que atestiguan el origen de las matemáticas en lo real. Es absurda la actitud de quienes pretenden que nunca han existido en matemáticas motivaciones otras que la aplicación de la ciencia pura a diversos problemas del mundo real, de la ciencia aplicada, de la técnica; a este respecto, tan absurda es la negativa como la afirmación sin matices. Desde el Renacimiento y, sobre todo, luego de la aparición del cálculo infinitesimal, una parte muy importante de las matemáticas posee aplicaciones directas a las ciencias de la naturaleza; sobre todo a la física, ciencia verdaderamente adaptada a la aplicación de las matemáticas.[24] Estas aplicaciones, muy numerosas y variadas, plantean constantes problemas a los matemáticos; los han planteado sin cesar, siguen planteándolos y desempeñan un considerable papel en el desarrollo de las matemáticas puras. ¿Por qué? Pues porque un matemático que recibe un problema de un colega del campo de las ciencias de la naturaleza, trata primero de formularlo de modo que le resulte comprensible (lo que no es siempre el caso). Después, cuando lo ha comprendido y le ha dado una forma puramente matemática, procura resolverlo, lo cual plantea montones de cuestiones que acaban por fructificar y proporcionan a menudo resultados muy notables. No cabe duda de que toda la teoría de las ecuaciones funcionales, las ecuaciones diferenciales en derivadas parciales, integrales, integrodiferenciales, etc., ha constituido, desde hace trescientos años, una fuente de inspiración constante para los matemáticos; y ello no sólo por los problemas que suscita, sino a veces por sus métodos. En efecto, los físicos poseen ideas propias acerca de los problemas que plantean. Como conocen su ciencia mucho mejor que nosotros, tienen razones para creer que los fenómenos físicos deben satisfacer determinadas leyes, precisamente; por ejemplo, principios de máximo y de mínimo. Ello inspira entonces al matemático, que se dice: «Para encontrar una solución, tomemos una función que dé un mínimo; quizás sea la solución». Este procedimiento, que tiene efectivamente éxito en muchos casos, proporciona un ejemplo típico de cómo la física inspira, de alguna manera, a la matemática, no sólo por lo que hace a los problemas sino también en cuanto a los métodos; y pone así de manifiesto una vinculación sumamente estrecha de las matemáticas con la física y las aplicaciones. Por añadidura, desde hace, digamos, cincuenta o cien años, han aparecido las estadísticas, los ordenadores; y el álgebra, así como la teoría de probabilidades, se han vuelto, a su vez, inmediatamente aplicables a una gran cantidad de cuestiones en las que, antaño, las matemáticas no intervenían. Valga todo www.lectulandia.com - Página 122
ello para reconocer que sería ridículo afirmar que las matemáticas actuales no tienen relación ninguna con la realidad. Pero la inversa es igualmente ridícula. Decir que el resto de las matemáticas no tiene importancia y que nunca ha resultado interesante para nada, es algo que queda enteramente contradicho por toda la historia. A veces le dicen a uno: «Si no son las aplicaciones las que han suscitado las matemáticas, entonces ¿qué ha sido?». Algunos invocan razones sociológicas. Sea, pero nunca he visto nada demasiado convincente en ese sentido. Es evidente —y del todo trivial— que no pueden hacerse matemáticas cuando el nivel social no permite un cierto ocio y una cierta posición social a quienes precisan de mucho tiempo para reflexionar y resolver sus problemas. Por consiguiente, hay que proporcionar a los matemáticos en potencia un cierto nivel de vida que les permita consagrar enormes esfuerzos y concentración a sus investigaciones, sin estar siempre preocupados por la cuestión de saber si comerán al cabo de tres días o de dos horas. Pero afirmando esto no se ha explicado nada en absoluto. Es una de esas trivialidades que uno apenas se atreve a repetir. Para los interesados en el asunto, vaya este problemita: en 1976, al joven Gauss, que tenía por entonces dieciocho o diecinueve años, se le metió en la cabeza encontrar una construcción del polígono regular de diecisiete lados con regla y compás. A quien me explique por qué el medio social de las pequeñas cortes alemanas del siglo XVIII, en el que Gauss vivía, hubo de llevarle inevitablemente a preocuparse por la construcción del polígono regular de diecisiete lados, a quien me lo explique, bueno, le daré una medalla de chocolate. Bien, procuremos ser serios y volvamos a la cuestión de saber qué pone en marcha a las matemáticas. Creo que no se quiere tomar en cuenta algo completamente trivial y visible por todas partes a nuestro alrededor: he tenido hijos y nietos, y veo que los críos se pasan el rato planteándole a uno acertijos, ejercitando su sagacidad y su curiosidad sumergidos en enigmas, rompecabezas y crucigramas, con una alegría que nada consigue enturbiar. Se trata de un hecho universal, observable en todos los países y épocas: existe una especie de curiosidad natural e innata en el ser humano, que lo impulsa a la resolución de adivinanzas. Sin ir más lejos, las nueve décimas partes de las matemáticas, aparte de las que tienen su origen en necesidades de orden práctico, consisten en la resolución de adivinanzas. Por si no lo creen ustedes, veamos algunos ejemplos: Para empezar, antes del 1700 aproximadamente, nadie se hubiese atrevido nunca a defender esa opinión un poco estúpida de que las matemáticas sólo tienen su origen en la técnica. Los griegos mantuvieron el punto de vista exactamente contrario. Diversos textos de Platón y de Arquímedes fulminan con desprecio a los desventurados que se sirven de la matemática para despreciables tareas de cálculo o medida.[25] El propio Arquímedes dice —según el testimonio de Plutarco[26]— sentirse avergonzado por haber construido sus famosas máquinas para el sitio de Siracusa; y añade que nunca se hubiese atrevido a consagrarles un escrito porque se trataba de aplicaciones y él despreciaba profundamente a quienes eran tan ruines www.lectulandia.com - Página 123
como para ocuparse de cosas semejantes. Así pues, no hay duda: la idea de que las matemáticas provienen de necesidades técnicas es sumamente reciente y —como ya he dicho— completamente falsa. Empecemos por ejemplos extraídos de la antigüedad, porque fueron precisamente los griegos quienes empezaron en el siglo V a. de C., e incluso antes, con Pitágoras, a plantearse problemas para los que resulta visiblemente imposible señalar un eventual origen práctico. La mayoría de los problemas sobre números nos han llegado a través del tratado de Diofanto, que es tardío.[27] No voy a entrar en detalles históricos —Diofanto representa una tradición un tanto heterodoxa— pero veamos dos de sus problemas (existen entre cien y doscientos, todos de la misma índole) que ilustran el tipo de cuestiones por las que se interesaban los griegos: 1.º Hallar tres números x1, x2, y x3 tales que xixj + xi + xj sea un cuadrado para todas y cada una de las tres combinaciones posibles de dos números (por «números», Diofanto entiende siempre «números racionales», no necesariamente enteros, sino sobre todo no irracionales; sabe lo que son tales números, pero no quiere oír hablar de ellos). 2.º Hallar un triángulo rectángulo, de lados a, b, c (a es la hipotenusa), tal que a − b y a − c sean cubos. Se convencerán ustedes, creo, de que las posibilidades de un origen técnico para estos dos problemas son absolutamente impensables. Se trata de adivinanzas que se perpetúan en las ramas de la matemática actual tales como la teoría de números, la combinatoria, la teoría de grupos. La resolución de todos esos problemas exige además, por regla general, un ingenio enorme. El matemático húngaro Paul Erdös es, sin duda, el rey de los problemas ingeniosos y difíciles: a lo largo de su vida ha resuelto más de un millar. He aquí dos ejemplos, extraídos de sus obras: El primero no es suyo; es un problema que Sylvester planteó y no supo resolver, y que fue resuelto por un amigo de Erdös: se dan n puntos situados al azar sobre el plano, de modo que no estén todos ellos alineados sobre la misma recta. Hay que demostrar que existe siempre una recta que pasa exactamente por dos de dichos puntos. Otro problema de este tipo es el siguiente: en un disco de radio 2, ¿cuántos puntos pueden situarse de manera que uno de ellos esté en el centro y los restantes en cualquier lugar, con la condición de que las distancias mutuas entre dos puntos sean siempre mayores que 1? La respuesta (esta vez, de Erdös) es veinte. Intenten demostrarlo. Seguro que no es fácil. Nada de lo que Erdös hace es fácil, siempre rebosa astucia. En conclusión, digamos que los problemas matemáticos poseen siempre un origen doble: por un lado están los problemas surgidos de problemas técnicos y que se le
www.lectulandia.com - Página 124
plantean al matemático, quien los resuelve lo mejor que puede o no los resuelve en absoluto; por otro lado tenemos los problemas de pura curiosidad, los acertijos.
3. Tipologías de las teorías matemáticas Lo esencial de mi conferencia va a consistir ahora en explicarles, basándome en textos históricos, qué sucede con esos problemas una vez que han sido planteados. Hay varias posibilidades. En primer lugar, hay problemas que no evolucionan, es decir, que permanecen planteados. Digamos que son, provisionalmente, los que han nacido muertos. Se han planteado, se ha intentado resolverlos, no se ha sabido hacerlo y se sigue sin saberlo, a veces durante milenios. Un problema célebre de esta categoría, que nos viene de los griegos, se refiere a los números perfectos. Un número perfecto es un número que es igual a la suma de todos sus divisores exceptuado él mismo. Conocemos muy bien todos los números perfectos pares —Euclides proporcionó un bellísimo teorema al respecto—, pero, desde Euclides, nos preguntamos en vano si hay números perfectos impares. Nunca se ha encontrado ninguno y nunca se ha demostrado que no existiera. Estamos en punto muerto. n
Otro ejemplo: los famosos números de Fermat, de la forma 22 + 1; intervienen en la división del círculo y uno de ellos, el 17, fue el que Gauss hubo de tomar en consideración al estudiar la construcción de un polígono de diecisiete lados. Fermat calculó los cuatro primeros de dichos números y advirtió que eran primos; entonces afirmo que todos ellos debían serlo. ¡En mala hora! Ya saben que incluso los más grandes matemáticos, a veces, como dicen los norteamericanos, talk through their hat, lo que significa que dicen disparates. Un siglo después, Euler calculó el quinto y constató que no era primo. Desde entonces, el problema ha permanecido abierto: para n ≥ 5, ¿no hay ningún número de Fermat que sea primo? ¿Los hay en número finito? ¿Existe una infinidad que lo son? Nada se sabe. Ni siquiera estoy seguro de que se hayan calculado muchos de ellos después de Euler. En una situación análoga se hallan los números de Mersenne de la forma 2p − 1, con p primo. En este caso, existen bastantes de dichos números que son primos. Todavía no se sabe si hay una infinidad de ellos.[28] Otro problema: la constante de Euler, a propósito de la cual se ha planteado siempre, desde que lo hiciera el propio Euler, la cuestión de saber si es un número racional, irracional o trascendente. No se sabe nada.[29] Segunda posibilidad: el problema se ha resuelto, pero su solución no ha tenido consecuencias. Ocurre que alguien coge el problema y lo resuelve por medio de una idea ingeniosa, pero ahí se queda todo. Los quinientos cincuenta ejemplos de Erdös
www.lectulandia.com - Página 125
entran casi todos en esta categoría. Ello es muestra de un ingenio asombroso —no creo que ningún matemático actualmente vivo posea tal facilidad para inventar a cada momento un nuevo truco para resolver un problema—. Lo molesto es que, una vez resuelto el problema, pasa a engrosar las obras completas del autor y luego… se acabó. A nadie aprovecha; no se ve absolutamente nada en la solución que pueda servir para resolver otro problema. A veces, hay quien de pronto se apercibe de que, en el fondo, allí había una idea y que nadie había sido aún lo suficientemente listo como para ahondar en ella; la profundizan y le sacan algún partido. Pero, en definitiva, la inmensa mayoría de problemas se paran en seco, como por ejemplo los del tipo de los planteados por Diofanto. La tercera posibilidad presenta ya una pequeña mejora. Es lo que se llama el descubrimiento de un método. Un matemático resuelve el problema y caemos en la cuenta de que los artificios utilizados pueden servir para resolver otro problema, después otro más y, finalmente, comprendemos que toda una clase de problemas, dependientes a veces de parámetros, está sometida a la jurisdicción del método que acaba de encontrarse. Pero ¿de dónde sale ese método y por qué va tan bien? Ni el inventor lo sabe. Todo lo que puede hacerse es refinarlo, mejorarlo, diversificarlo… pero sin comprenderlo todavía. La teoría de números rebosa métodos de este tipo, inventados por matemáticos geniales que han conseguido fabricar métodos, instrumentos de razonamiento aplicables a un gran número de problemas. Creo que el más antiguo es el famoso método de descenso infinito, inventado por Fermat para demostrar que la ecuación x4 + y4 = z4 no tiene solución entera (se trata de un caso particular del famoso problema de Fermat). Digamos brevemente en qué consiste la artimaña de Fermat: con una serie de manipulaciones aritméticas consigue demostrar que, si existe una solución, existe también otra menor, es decir, tal que uno al menos de los números que la integran es menor que los que componen la primera solución. Este procedimiento no puede seguirse indefinidamente sin alcanzar forzosamente un mínimo, lo cual es manifiestamente imposible. He aquí una bonita artimaña que se ha generalizado y aplicado a innumerables situaciones, caballo de batalla de los especialistas en teoría de números, pero de la que se sigue sin saber, en el fondo, por qué funciona.[30] Todos los métodos con los que se ha conseguido demostrar la trascendencia de un número (el primer método de Hermite, por ejemplo; Hermite demostró que el número e, base de los logaritmos neperianos, es trascendente) son de ese tipo. Revisándolos y aplicándolos cada vez mejor, se logró demostrar la irracionalidad de π y de una buena cantidad de otros números, aunque permaneciendo en la ignorancia de la razón profunda de tales éxitos.[31] Y llegamos finalmente al paraíso de los matemáticos; se trata de esos problemas que, a fuerza de reflexión, han engendrado ideas nuevas que, a menudo, superan de
www.lectulandia.com - Página 126
manera inconmensurable al problema que les dio origen. No se trata solamente de métodos, de artimañas cada vez más refinadas, sino que, en esas ocasiones, los matemáticos tenemos la impresión de que, al analizar el problema y las nuevas ideas que ha suscitado, comprendemos lo que pasa. Ése es el objetivo de todo hombre de ciencia: llegar a comprender qué pasa en el asunto objeto de sus estudios. Es, desde luego, una simple impresión que la próxima generación comprenderá mucho mejor todavía que nosotros, calificándonos de imbéciles. Ello forma parte de la evolución natural de las ciencias, pero de todos modos no cabe duda de que se produce una ganancia en comprensión formal. Los ejemplos típicos son los famosos problemas que se plantearon los analistas y algebristas a partir del siglo XVII. Desde el punto de vista de quienes pretenden que lo que cuenta es la técnica únicamente, esos problemas eran idiotas. Veamos por qué. El primer problema, famoso, que se remonta a los babilonios, es el de la resolución de ecuaciones por radicales. Sabrán cómo se fastidia a los alumnos de bachillerato con la famosa fórmula para resolver la ecuación de segundo grado. Durante mucho tiempo no se dispuso más que de esa fórmula. Un buen día, surgió la pregunta: «¿Y por qué no ha de haber también una fórmula para el tercer grado y para los demás?». En efecto, a principios del siglo XVI, un italiano, Scipione del Ferro, encontró una fórmula análoga para el tercer grado.[32] ¡Qué maravilla! Una treintena de años después, Ferrari, un alumno de Cardano, hizo aún más: encontró una fórmula análoga para el cuarto grado. ¡De maravilla en maravilla! Entonces se dijeron: «Ya está, ya lo tenemos, ¡hay fórmulas de resolución para todos los grados!». Y se pusieron a buscar montones de fórmulas, por desgracia sin éxito. A todas esas, se descubrió el cálculo infinitesimal, una de cuyas repercusiones fue, precisamente, la de permitir la determinación, en un número finito de pasos, de las raíces de cualquier ecuación con tantos decimales como se quiera (pongamos veinte). Es un método estándar, que se conoce bien desde Newton y que, en el ordenador, proporciona el resultado muy rápidamente, en pocos segundos, cuando antes eran necesarios tres o cuatro días de trabajo duro. No hay duda, por lo tanto, de que el método era perfecto para los usuarios y para los técnicos. ¿Por qué esos idiotas de matemáticos siguieron buscando soluciones por radicales, cuando éstas son, por lo general, mucho más difíciles de calcular así que por los métodos de aproximación? Prueben ustedes una vez las fórmulas de Cardano; ¡ya verán lo que es bueno! Pues bien, aquí tienen un problema tonto que siguió, sin embargo, preocupando a los matemáticos durante siglo y medio. En una situación análoga están las integrales y el cálculo de la longitud de un arco de elipse. Este problema se planteó en los comienzos del cálculo diferencial, hacia 1750, cuando se sabía calcular las longitudes de un cierto número de curvas y la emprendieron con la elipse, aparentemente la curva más fácil luego del círculo y la espiral. De hecho, fue el origen de una integral que no se sabía evaluar de la misma
www.lectulandia.com - Página 127
manera, expresándola mediante otras funciones conocidas. Pero también en este caso se dispone de métodos para la aproximación de una integral. Si un ingeniero les pregunta cuál es la longitud de un determinado arco de elipse, el ordenador les da la respuesta en pocos segundos, porque dispone de un método estándar para calcular todas esas integrales, cualesquiera que sean. También en este caso el problema es tonto. Y sin embargo, estos dos problemas tan tontos han abierto las puertas de dos de los aposentos del paraíso de la matemática actual. Durante mucho tiempo se trabajó en el problema de la resolución de ecuaciones por radicales. Incluso Euler, uno de los más grandes matemáticos de aquella época, hizo innumerables tentativas de encontrar fórmulas, sin llegar nunca a nada. Poco después, Lagrange planteó por vez primera la siguiente cuestión: «¿Por qué funcionan todas esas fórmulas? ¿Qué se esconde tras ello?». Lo más notable del caso es que encontró una respuesta; no fue una respuesta completa, pero le valió para ser el primero en tomar el camino que había de conducir a algún resultado. Sabrán ustedes que el número de las raíces de una ecuación polinómica es, en general, igual a su grado; que dichas raíces pueden permutarse y que determinadas funciones permanecen invariantes por tales permutaciones. Analizando esta idea, Lagrange acabó por darse cuenta del éxito de los métodos de Cardano y de otros para resolver las ecuaciones de tercer y cuarto grado residía en la existencia de ciertas funciones no simétricas de las raíces, las cuales poseían determinadas propiedades de invariancia por permutaciones. Poco a poco, una cosa llevó a otra y la cuestión central de las preocupaciones de los algebristas pasó a ser la siguiente: ¿qué sucede cuando se permutan las raíces de una ecuación? A lo largo de un período de unos sesenta años, ello dio origen a lo que le llama la teoría de grupos, porque por vez primera se empezó a pensar en una operación. Es muy difícil pensar en una operación, porque se trata de algo bastante abstracto, que no se ve en la pizarra, que no puede representarse. En la actualidad, se intenta hacer entrar en la conciencia de los niños, lo antes posible, la idea de que una operación también es un objeto, aunque no se la vea (se la representa por flechas). Pero los matemáticos tardaron un tiempo inverosímil en concebir esta idea y, a partir de esta concepción de la operación, y luego, de la composición e inversión de operaciones, se llegó insensiblemente al concepto de grupo. Fueron todavía necesarios casi un centenar de años para que el concepto adquiriese su verdadera naturaleza, es decir, abandonara el origen fortuito de la operación, de la transformación, para convertirse en una operación que se realiza sobre os objetos de un conjunto. Y ello fue motivo para una expansión prodigiosa de toda la matemática, porque se cayó progresivamente en la cuenta de que por todas partes existían grupos, desde la aritmética más abstracta hasta la teoría cuántica, la relatividad y todo el análisis, por no hablar de la geometría, etc. Y cada vez que se ha descubierto un nuevo grupo en una teoría matemática, ésta ha experimentado un gran avance. La de grupo es una de esas nociones primeras que se encuentran por doquier y que los matemáticos buscamos en todos los campos.
www.lectulandia.com - Página 128
Lo mismo sucedió con las integrales elípticas. Gracias a matemáticos como Abel, Jacobi, Weierstrass y, sobre todo, Riemann, nació la geometría algebraica. También ésta es una disciplina que ha invadido progresivamente todas las matemáticas. He aquí, pues, dos ejemplos típicos de problemas —incluso de problemas un poco tontos, en apariencia un tanto fútiles— que, una vez profundizados y analizados con amplitud, han revelado posibilidades completamente insospechadas y han abierto el camino para aplicaciones asimismo insospechadas. ¿Cuántos de esos paraísos matemáticos existen? Por desgracia, no muchos; aunque hay miles de problemas de ese tipo, no sé si se llegaría a encontrar una docena que hayan dado origen a teorías tan grandiosas, tan fundamentales y tan profundas —porque hacen comprender el sentido de las cosas— como aquéllas a las que me acabo de referir. Así pues, se trata en verdad de la excepción y no de la regla. ¿Qué sucede después? Pues bueno, se precisa un tiempo enorme, uno o dos siglos por lo general, para esclarecer todas las ideas y poner en forma asimilable por todos lo que los genios han visto adelantándose a su tiempo. (Algunos textos de Galois y de Riemann han permanecido casi incomprendidos durante cincuenta años. Estos matemáticos eran una especie de visionarios, que gozaban de una visión mucho más amplia que la de sus contemporáneos, reducidos éstos a una lectura mecánica y a tentativas de análisis condenadas al fracaso). Luego, progresivamente, se consigue captar lo que los genios han querido decir y, cuando se llega a asimilar sus ideas, a enseñarlas y a utilizarlas generalizadamente, entonces es cuando, de verdad, se entra en el paraíso. Con todo, ese paraíso evoluciona todavía para engendrar lo que se llaman las estructuras. Hoy en día, los matemáticos saben expresar de una manera completamente técnica qué es una estructura. Existe una veintena larga de estructuras fundamentales (de grupo, de espacio vectorial, de álgebra…), y luego muchas más obtenidas por combinación. Si se quiere saber utilizar todo lo que revela el estudio de los grandes problemas, es indispensable estudiar a fondo esas estructuras y aprender a manejarlas cada vez mejor, lo que acarrea, inevitablemente, una abstracción creciente. Actualmente, por ejemplo, lo que importa no es saber si tal grupo es un grupo de permutaciones o un grupo de transformaciones de un cubo, o el grupo de los enteros racionales, sino saber más bien si es finito, conmutativo, simple, etc. Cuando, después de largos años de pacientes estudios, se llega por fin a una teoría bien hecha, buena de enseñar y utilizar, entonces parece que las cosas deberían quedarse ahí. ¡Pero no! Las cosas no quedan ahí porque hay quienes por razones diversas, sociológicas o de otra índole, se preguntan: «¿Qué sucedería si se modificara uno de los axiomas de esa teoría?». Y van y modifican el axioma treinta y seis bis, lo que, al fin y a la postre, produce una nueva teoría. Si se les preguntan las razones que los han llevado a ello, la respuesta es: «Lo hice por las buenas, para escribir un artículo». Si he hablado de razones sociológicas es porque existen países, y cada vez son más, donde la promoción de un universitario se hace a peso de papel.
www.lectulandia.com - Página 129
Entonces, por supuesto, la producción es obligada; y cuando no hay nada que producir genuinamente, uno se pone a modificar el axioma treinta y seis bis. Sea como sea, esto es lo que sucede. Es lo que cabe denominar como matemáticas no motivadas o el desleimiento. Se me objetará que, a lo mejor, el axioma treinta y seis bis modificado será un día tan fundamental como la noción de grupo. Efectivamente, no hay que excluir esa posibilidad; yo he visto a lo largo de mi vida, en dos o tres ocasiones, cómo una teoría a la que se consideraba absolutamente desprovista de interés se encontraba, de pronto, agarrada a algo que le hacía comprender a uno el fondo de las cosas. Pero se trata de casos completamente excepcionales; el resto no es más que desleimiento acumulado en los innumerables artículos que se escriben y publican, de los que incluso se hacen reseñas y que, luego, nunca más menciona nadie salvo aquellos, por supuesto, que deslíen esos desleimientos, proceso éste que, al parecer, se prolonga indefinidamente. Existen, por último, teorías que se marchitan progresivamente, que poco a poco se extinguen no porque los matemáticos se tornen menos ingeniosos —al contrario, lo son quizás más—, sino porque los problemas que tratan merman, se hacen cada vez más especiales, se aíslan y acaban por no tener relación más que con la propia teoría; mientras que los matemáticos se sienten considerablemente estimulados por el hecho de que un problema tenga relación con otras teorías.
4. Las matemáticas bourbáquicas Luego de haber tratado de reseñarles la manera en que evolucionan los problemas matemáticos, es muy fácil explicarles qué son las matemáticas bourbáquicas. Esencialmente, son las que conciernen a las teorías vivas, que reposan sobre una estructura; y, hasta cierto punto, son las que dependen de un método. El epíteto bourbáquicas quiere decir que se trata de teorías expuestas en el Seminario Bourbaki. Este seminario es una institución, creada en 1948, que se presenta de la siguiente manera: tres veces al año, se exponen seis memorias en el transcurso de seis sesiones que tienen lugar en París el sábado, el domingo y el lunes.[33] Esas memorias las escoge un grupo de miembros del equipo Bourbaki (nunca he participado en la elección de los textos y, por consiguiente, puedo hablar de ello con total imparcialidad); se las distribuye a voluntarios que tienen ganas de exponerlas, se exponen en el seminario y, a continuación, se difunden; durante mucho tiempo, Benjamín cuidó de la difusión, y ahora se encarga de ella la Springer en las «Lecture Notes in Mathematics».[34] En la actualidad, existen cerca de seiscientas memorias que cubren, creo, prácticamente todas las matemáticas comprendidas en las categorías bajo las que dichas memorias se distribuyen.
www.lectulandia.com - Página 130
No hay que confundir el Seminario Bourbaki con el tratado de Bourbaki, que tiene un objetivo completamente distinto y que es el de exponer la parte elemental de las estructuras, aquella parte que debe conocer todo matemático que pretenda hacer matemáticas en serio. Pero las grandes aplicaciones no figuran en el tratado sino que, precisamente, están expuestas en las memorias del seminario; están ausentes del tratado simplemente porque son, con mucho, demasiado difíciles para ser expuestas en libros destinados, más o menos, a la enseñanza —a la enseñanza de un cierto nivel, pero a la enseñanza a pesar de todo—. El libro de Bourbaki contiene los rudimentos de aquello en lo que consisten las matemáticas bourbáquicas, y éstas son las que se exponen en el seminario. Puede hacerse una clasificación de dichas matemáticas ordenándolas según la densidad bourbáquica. La densidad bourbáquica de una teoría es, grosso modo, la razón entre el número de memorias expuestas y el número de trabajos publicados sobre esa teoría. Ciertas teorías poseen una densidad muy grande: la topología algebraica y diferencial, la teoría de los grupos de Lie y de sus representaciones de dimensión infinita, la geometría algebraica, la geometría analítica (es decir, la teoría de funciones de varias variables complejas), la teoría de números. Después vienen las teorías que tienen una densidad bourbáquica menor: el análisis armónico conmutativo, el álgebra homológica, la teoría de las álgebras de von Neumann. Se habla un poco de lógica y de probabilidades, pero sin exagerar. Luego están las teorías de las que se habla muy poco: el álgebra conmutativa por ejemplo, los espacios vectoriales topológicos (creo que se ha hablado de ellos dos veces en veinte años). De álgebra general, de la teoría de conjuntos ordenados, de los cardinales y de los ordinales, de todo eso no se trata nunca.[35] Ése es el panorama que quería esbozarles aquí y que encontrarán abundantemente desarrollado en mi libro.
5. Lo que debería ser en la actualidad la filosofía de la matemática Un poco al margen de esta conferencia, quisiera acabar con unas reflexiones sobre la manera en que puede concebirse la epistemología de las matemáticas. «Estudio de las ciencias que tiene por objeto apreciar su valor para el espíritu humano»: así es como el Petit Larousse define la epistemología, y los matemáticos no pueden sino alegrarse de que los filósofos se interesen por lo que hacen y reflexionen sobre ello desde un punto de vista diferente del suyo. Pero es también necesario que estas reflexiones tengan por objeto la ciencia tal y como existe y la vemos vivir, en lugar de referirse a un fantasma de la ciencia. Esto es lo que Lautman, por ejemplo, comprendió perfectamente: se adueñó de la matemática de su tiempo para hacer de ella un objeto de estudio filosófico. Por desgracia, tengo la
www.lectulandia.com - Página 131
impresión de que su ejemplo no se ha seguido mucho; la mayoría de lo que oigo decir a los filósofos acerca de las matemáticas prueba a todas luces que no tienen la menor idea de lo que hacemos. Por un lado atribuyen una importancia considerable a los desarrollos de la lógica matemática, lo que, en sí, está del todo justificado y es digno de alabanza, porque es muy natural que exista también una epistemología de la lógica; pero ya he insistido en varias ocasiones sobre el carácter cada vez más tenue de los lazos que unen a la lógica matemática con los grandes problemas de las matemáticas de nuestro tiempo. Por otro lado, existe una tendencia pareja consistente en consagrar gran número de estudios detallados a las corrientes de ideas heterodoxas, como el intuicionismo, que no influyen sobre más de un matemático de cada cien, ignorando completamente lo que hacen los noventa y nueve restantes. Cierto que es legítimo que un filósofo sienta curiosidad por conocer y analizar todas las opiniones, pero no me parece que ésta sea la mejor manera de hacer epistemología; se tendría una visión muy deformada de los viajes espaciales si uno se limitara a consultar a las sectas religiosas que todavía creen que la Tierra es plana. Es innegable que la complejidad y la extensión de las actuales disciplinas matemáticas hacen necesario un gran esfuerzo de información para captar cómo se ordenan y evolucionan; pero el ejemplo de Lautman muestra que tal esfuerzo no es sobrehumano y que sólo requiere resolución y una inteligencia viva. Creo que éste es el precio que hay que pagar por un futuro de fecunda colaboración entre matemáticos y filósofos en materia de epistemología, y es mi deseo que este futuro se haga realidad.
Bibliografía N. Bourbaki, «L’architecture des mathématiques: la mathématique ou les mathématiques», en F. Le Lionnais (dir. de publ.), Les grands courants de la pensée mathématique, Paris, A. Blanchard, 1962, 2.ª ed., págs. 35-47. J. Dieudonné (dir. de publ.), Abrégé d’histoire des mathématiques (1700-1900), 2 vols., Paris, Hermann, 1978. Ver en particular la «Introduction» de J. Dieudonné, vol. 1, páginas 1-17: «1. La carriere du mathématicien», «2. La communauté mathématique», «3. Évolution et progrès des mathématiques». J. Dieudonné, Panorama des mathématiques pures: le choix bourbachique, Paris, Gauthier-Villars, 1977. — «Avant-propos» al libro de Albert Lautman, Essai sur l’unité des mathématiques et divers écrits, Paris, Union générale d’éditions, colección «10/18», n.º 1100,
www.lectulandia.com - Página 132
1977. — «Present trends in pure mathematics», Advances in Mathematics, vol. 27, 1978, págs. 235-255. — «Louis Couturat et les mathématiques de son époque», Coloquio internacional celebrado en la École normale supérieure de la rue d’Ulm los días 8 y 9 de junio de 1977: L’Œuvre de Louis Couturat (1868-1914). — Les grands lignes de l’évolution des mathématiques, Irem Paris-Nord, colección «Philosophie-Mathématiques», 1980, 10 págs. C. Houzel, La recherche mathématique des dernières années, prepublicaciones de la universidad de Paris-Nord, fasc. 6, 1978-1979, 6 págs.; version abreviada en La Recherche, n.º 100, mayo de 1979, págs. 507-508 («Les mathématiques retournent au concret»). — Langage et pensée mathématiques, Actas del coloquio internacional organizado en el centro universitario de Luxemburgo los días 9, 10 y 11 de junio de 1976.
www.lectulandia.com - Página 133
¿Son las axiomáticas sólo un juego? Roland Fraïssé
1. Hacia una asimilación de las axiomáticas con reglas de juego Todos sabemos que la primera de las axiomáticas fue la de Euclides, para la geometría elemental; y que, hasta principios del siglo XIX, se la consideró como verdadera a la vez desde un punto de vista experimental (modelo perfecto del espacio físico) y desde un punto de vista racional (única geometría lógicamente consistente). Probablemente es esta doble significación de verdad experimental y teórica la que recubre el apriorismo de Kant; éste muere en 1804, pero su apriorismo había de sobrevivirle durante mucho tiempo. Precisemos la doctrina entonces imperante: por lo visto, si un experimentador de comienzos del siglo XIX hubiera medido, por un método óptico, los tres ángulos de un triángulo físico, con una precisión muy grande, y si hubiera obtenido una suma indiscutiblemente diferente de un ángulo llano, la conclusión que se hubiera sacado habría sido la de que existía un error en su dispositivo o la de que la luz no se había propagado en línea recta; pero de ninguna manera se hubiera puesto en tela de juicio el carácter euclidiano del espacio físico. Por otro lado, sabemos que los primeros matemáticos que se arriesgaron a negar el axioma de la paralela de Euclides lo hicieron con el objeto de obtener una contradicción y demostrar así, por reducción al absurdo, la verdad del axioma. Los menos lúcidos creyeron encontrar la contradicción (Saccheri, Legendre);[36] los más lúcidos quedaron angustiados, metafísicamente traumatizados, al no encontrarla (Lambert). Y llegamos a la aparición de las geometrías no euclidianas: 1829 para la de Lobachevski, 1832 para la de Janos Bolyai, y hacia 1850 para la de Riemann. Esta revolución lógica disoció la verdad teórica al diferenciar una geometría absoluta definida por los axiomas clásicos, excepción hecha del axioma de existencia de la paralela. Dicha geometría absoluta supone la existencia y unicidad del simétrico de un punto respecto de una recta y, por consiguiente, la existencia de una perpendicular por lo menos, pero no necesariamente su unicidad. Por ejemplo, en la interpretación esférica clásica de Riemann, en la que cada «punto» se interpreta como un par de puntos diamentralmente opuestos de la esfera, y cada «recia» como un círculo máximo, el «punto» de los polos (norte y sur) es su propio simétrico respecto de la
www.lectulandia.com - Página 134
«recta» constituida por el ecuador; y las «rectas» constituidas por los meridianos son todas ellas perpendiculares al ecuador. Fijémonos en que, para que se respete el axioma que dice que por dos «puntos» pasa una sola «recta», es necesario interpretar cada «punto» como un par de puntos sobre la esfera y no como un punto único. En el siglo XIX la geometría absoluta se completó de tres maneras distintas:[37] 1.º en el caso de la geometría de Riemann, por la inexistencia de paralelas, lo que exige que dos perpendiculares a una misma recta se corten; 2.º en el caso de la geometría de Euclides, por la unicidad de la perpendicular trazada desde un punto y, por consiguiente, dada una recta R y un punto P exterior a R, por la existencia de una paralela a R por P, construida como perpendicular en P a la perpendicular a R por P; y, además, por el axioma de unicidad de dicha paralela, que resulta ser la única recta que pasa por P y no corta a R; 3.º en el caso de la geometría de Lobachevski, por la unicidad de la perpendicular y la existencia de dos rectas límite que se dicen paralelas; estas dos paralelas a R trazadas por P forman un ángulo en cuyo interior ninguna recta que pase por P (incluidas las paralelas) corta a R. Desde el punto de vista lógico, esta disociación de la geometría en varias geometrías se valida por demostraciones de consistencia relativa: si la geometría euclidiana es consistente, entonces cada una de las otras dos, interpretables por un modelo euclidiano, es consistente; y, recíprocamente, si una de las otras dos es consistente, la geometría euclidiana también lo es. Esta consistencia hizo aparecer la disociación entre la verdad experimental relativa al espacio físico y las verdades teóricas posibles, pero ya no necesarias. El espacio físico se convirtió en objeto de estudios experimentales, con el mismo título que los fenómenos que se producen en su seno. Evidentemente, la geometría euclidiana continuó siendo por mucho tiempo el único modelo posible del espacio físico: la agrimensura y la geodesia pueden seguir basándose en ella. Pero con la relatividad restringida, se vio ya substituida por una geometría seudoeuclidiana; y con la relatividad general, fue una geometría riemanniana la que tomó el relevo. Otra consecuencia de la revolución lógica que tuvo lugar a comienzos del siglo XIX, fue la asimilación de cada axiomática con un juego. Al no ser ya lógicamente necesario, el axioma de Euclides se volvió tan arbitrario como una regla de juego. La precisión perfecta de las reglas y su consistencia han de permitir que los jugadores sepan con certeza si una jugada determinada está permitida, y que puedan determinar, al final de la partida, quién ha ganado. De manera análoga, la perfecta precisión de las reglas de razonamiento y su consistencia han de habilitar al matemático para saber con certeza si una determinada deducción inmediata está autorizada y si, al final del
www.lectulandia.com - Página 135
razonamiento, un determinado enunciado puede considerarse como demostrado (véase el apéndice 1: «Tesis, deducción, axiomática y fuerza de una teoría»). Digamos desde ahora que sólo están especificadas por reglas las deducciones inmediatas; la deducción de un teorema a partir de los axiomas (más las definiciones, que son meras abreviaciones y podrían suprimirse, por ejemplo en un tratamiento con ordenador) resulta de una sucesión finita de aplicaciones de las reglas de deducción inmediata. En general, es imposible decidir mecánicamente que un cierto enunciado no se deduce de unas determinadas premisas, mientras que siempre es posible decidir si se deduce de ellas inmediatamente o no. Existe otra noción que interviene de manera importante, tanto en las axiomáticas como en los juegos: se trata de la completitud. Una axiomática se dice completa cuando, para todo enunciado P relativo a las nociones o predicados que figuran en los axiomas, se cumple que, o bien P es demostrable, o bien P es invalidable (su negación es demostrable) mediante los axiomas. De manera análoga, puede decirse que un juego es completo cuando existe siempre al menos una estrategia ganadora, para uno u otro jugador. Inversamente, en el caso de una axiomática incompleta, existen enunciados indecidibles, es decir, ni demostrables ni invalidables. En un juego incompleto, existen posiciones del juego que conducen a la partida nula, sea cual sea la estrategia utilizada. Más precisamente: toda estrategia del primer jugador puede ser desbaratada por el segundo, quien puede impedir que el primero gane; y a la inversa, intercambiando entre sí los jugadores.
2. En favor de la distinción entre axiomáticas y juegos Podemos situar a principios de siglo el apogeo de la concepción lúdica de las axiomáticas (asimilación de cada axiomática con un juego). Hablemos ahora de su decadencia, que se acelera a partir de la explosión provocada por los grandes descubrimientos lógicos de los años 1930. Parece que el surgimiento de diferencias claras entre axiomáticas y juegos está vinculado con el desarrollo y posterior hegemonía de la semántica, en detrimento de la sintaxis. El lector sabe ya en qué consiste la sintaxis: por analogía con la sintaxis gramatical, la sintaxis lógica es el estudio de la formalización, de la estructura de las fórmulas y de las reglas de deducción inmediata de una fórmula a partir de otra o de varias otras: por ejemplo, a partir de P y de «si P entonces Q», la regla de separación, o modus ponens, permite deducir inmediatamente la consecuencia Q. Desde el punto de vista sintáctico, una teoría matemática se reduce, en líneas generales, a un sistema formal cuyas consecuencias se desarrollan por la aplicación de reglas formales de deducción, sin preocuparse por el significado de las fórmulas que así se manipulan. La semántica, por el contrario, a ejemplo de la de los filósofos y los lingüistas, se www.lectulandia.com - Página 136
centra en el estudio de la significación de las fórmulas. Desde el punto de vista semántico, el estudio de una teoría exige, por una parte, la representación de las fórmulas, consideradas ellas mismas como entidades matemáticas con igual derecho que un número o un punto; por otra parte, requiere que se defina el valor de verdad (verdadero o falso) de cada fórmula a la que se asocia un sistema de relaciones y de elementos (véase el apéndice 1: «Tesis, deducción, axiomática y fuerza de una teoría», págs. 295 y sigs.). Ello acarrea la representación de toda teoría en otra, llamada metateoría, que no es por lo demás de naturaleza diferente a la de la teoría inicial y que, por consiguiente, es a su vez representable en una segunda metateoría; y así sucesivamente (véase el apéndice 3: «Teoría, metateoría y existencia de fórmulas indecidibles», páginas 299 y sigs.). Sería inexacto hablar de una oposición entre sintaxis y semántica, aparte de la oposición entre lógicos apasionados por la sintaxis y lógicos prendados de la semántica. Más bien hay que hablar de una absorción de la primera por parte de la segunda. En efecto, las nociones semánticas, y en especial el valor de verdad, resultan de profundizar en la sintaxis. Con objeto de comprender mejor qué es un sistema formal desarrollado mediante reglas de deducción, los lógicos se han visto llevados, precisamente, a estudiar tales sistemas como entes matemáticos y a sumergirlos, por consiguiente, en una metateoría. El paso de la sintaxis a la semántica es análogo al que media entre los métodos de resolución de las ecuaciones algebraicas y la teoría de cuerpos. En lugar de calcular si una fórmula lógica dada es consistente o si de ella se deduce tal otra fórmula, el semántico acomete el estudio de las clases de relaciones que verifican una fórmula determinada; de la misma manera, en álgebra, en lugar de calcular las soluciones de una ecuación polinómica, el algebrista impuesto en la teoría de Galois asocia a cada ecuación su cuerpo de resolución: si K designa el cuerpo al que pertenecen los coeficientes del polinomio, el cuerpo de resolución es el mínimo cuerpo del que K es subcuerpo y que incluye, a la vez, las raíces del polinomio (dicho cuerpo es, por lo demás, único salvo isomorfismos). Al igual que la teoría de cuerpos establece la imposibilidad de resolver por radicales la ecuación de quinto grado, la semántica establece teoremas de limitación o de imposibilidad, como son el teorema de incompletud de Gödel o el teorema de Lowenheim (1915) ampliado por Skolem (1920); este último, al asociar a cada teoría consistente un modelo finito o numerable, pone de manifiesto nuestra incapacidad para obtener una teoría que caracterice al infinito no numerable o, más precisamente, un sistema de axiomas cuya verificación sólo sería posible mediante modelos infinitos no numerables. Veamos ahora en qué sentido el desarrollo y la hegemonía de la semántica hacen evidente la existencia de importantes diferencias entre axiomáticas y juegos. En primer lugar, no existe nada, o casi nada, que se parezca a una representación de cada juego en otro juego; nada análogo a la dualidad teoría-metateoría. Por más que las damas sean un juego más simple que el ajedrez, no constituyen un caso
www.lectulandia.com - Página 137
particular de este último y no son, por otra parte, representabas en ningún otro juego. Para el caso de los juegos, si se quiere encontrar el equivalente de la representación en una metateoría, hay que recurrir, por ejemplo, a la teoría de juegos; pero se trata de una teoría matemática, no de un juego: rebasamos los límites que nos habíamos fijado. Otra posibilidad es la de considerar como un «metajuego» la búsqueda de una programación que permita utilizar un ordenador como máquina para jugar; pero la comparación entre esta programación y el juego recuerda sólo de lejos las relaciones de representación de una teoría en una metateoría; además, también en este caso se superan los límites fijados: el «metajuego» ya no es un juego como los demás. O bien, lo que es peor aún, se toma como «metajuego» la descripción, axiomática si es posible, de una de las sociedades en las que el juego en Cuestión hizo aparición o que lo practican: un «metajuego de ajedrez» lo constituiría, en este sentido, una descripción de la corte real del griego Palamedes (mítico inventor del ajedrez); las reglas de movimiento de las piezas del juego serían una imagen de las relaciones sociales entre el verdadero rey, la verdadera reina, los bufones, la guardia de a caballo, la guardia de la torre, los ujieres o los esclavos que vivían en la corte, y sus homólogos del clan contrario. Es inútil insistir sobre el carácter delirante de una tentativa tal, salvo quizás en el terreno de la literatura o de la psicología. Veamos una segunda diferencia entre axiomáticas y juegos. Es normal enunciar las reglas del juego antes de empezar a jugar; en la práctica, ello evita las divergencias de interpretación y las trampas; desde el punto de vista teórico, el conjunto de las reglas constituye la definición del juego, por ejemplo dentro de una teoría de juegos. Se da por supuesto que los futuros jugadores poseen suficiente práctica de la lógica usual como para deducir, a partir de las reglas, las jugadas permitidas y las prohibidas. Este optimismo en cuanto a la preparación lógica del jugador deja de tener fundamento cuando se trata de las reglas de deducción expuestas en una metateoría. Para comprender esas reglas y utilizarlas, es preciso saber ya razonar en el marco de la metateoría, la cual es por lo general más potente, y por consiguiente más sutil, que la teoría representada (véase el apéndice 3: «Teoría, metateoría y existencia de fórmulas indecidibles», pág. 303 y sigs.). Resulta por consiguiente difícil sostener que, así como un jugador aprende las reglas de juego por simple lectura de su lista, el matemático puede también aprender a razonar leyendo las reglas de la deducción inmediata. La descripción de la matemática formal no está situada «al comienzo» de la matemática, ni mucho menos «fuera» de ella; por el contrario, constituye una imagen del razonamiento matemático, situada en el cuerpo mismo de la matemática por el simple hecho de que la metateoría que describe las reglas es ella misma una teoría. La concepción de la lógica como «fundamento» de la matemática, o como «modo de empleo» de la misma, resulta hoy en día indefendible. Constituye una ilusión para
www.lectulandia.com - Página 138
la que propongo el nombre de «complejo de Descartes», puesto que, al parecer, este último quería fundar todo conocimiento sobre nuestra duda inicial. Y vamos por la tercera diferencia, o tercer aspecto de la diferencia, entre axiomáticas y juegos. Se supone que las reglas de un juego están perfectamente definidas por su enunciado; o, aún más, que la lógica que permite deducir sus consecuencias es la misma para todos los juegos y todos los jugadores, mientras que la deducción matemática depende, en cierta medida, de la metateoría en la que se enuncian las reglas de deducción (véase el apéndice 1: «Tesis, deducción, axiomática y fuerza de una teoría», pág. 295 y sigs.). Un último argumento, de simple sentido común, en favor de la diferencia entre axiomáticas y juegos: los juegos de sociedad no les han servido jamás, hasta el momento, a los científicos más que para su distracción.
3. Influencia de la metateoría sobre la teoría: acentuación de la diferencia entre axiomáticas y juegos Para dilucidar las relaciones entre teoría y metateoría, partamos de dos nociones fundamentales en teoría de conjuntos: la finitud y la numerabilidad. Sabemos que no siempre se conservan al pasar de la teoría representada a la metateoría representante. La «paradoja» de Löwenheim (1915) perfeccionada por Skolem (1920) es clásica: la axiomática usual de los conjuntos, digamos la teoría de Zermelo-Fraenkel, admite, entre otros, modelos numerables. La teoría representada sigue hablando de conjuntos infinitos no numerables, por consiguiente estrictamente mayores que el conjunto de los enteros naturales; mientras que, desde el punto de vista de la metateoría representante, esos mismos conjuntos son todos numerables; admiten una correspondencia biyectiva con el conjunto de los enteros. Sucede, simplemente, que tales biyecciones son todas exteriores al modelo representado. Una «paradoja» análoga, casi tan antigua aunque menos célebre, se refiere a la finitud de los conjuntos. Para comprenderla, recordemos las dos definiciones más clásicas de la finitud. Un conjunto a es finito según Dedekind (1888) cuando no existe ninguna biyección de a sobre uno de sus subconjuntos estrictos (subconjuntos distintos de a). Según Tarski (1924), un conjunto a se dice finito cuando, para todo conjunto b de partes x de a, uno al menos de los elementos x0 de b es minimal por inclusión, es decir, tal que ningún x de b esté estrictamente incluido en x0. El lector puede verificar inmediatamente la condición precedente de Tarski para un conjunto a de 2 o 3 elementos; y para el caso del conjunto infinito más sencillo, el de los enteros, puede tomar como b el conjunto de los ai = intervalo de los enteros ≥
www.lectulandia.com - Página 139
i; ningún elemento de b es minimal, puesto que ai+1 se una parte estricta de ai. Las dos definiciones de la finitud pueden demostrarse equivalentes si se utiliza el axioma de elección. Sin este axioma, la definición de Tarski de un conjunto finito es la más fuerte, y equivale a la siguiente seudodefinición, que hace intervenir una condición arbitraria C, expresable mediante una fórmula matemática cualquiera. Debido a ello, no se trata de una verdadera definición, sino de un esquema de definición o, si se quiere, de una caracterización equivalente a la definición de Tarski: «El conjunto vacío es finito; todo conjunto finito al que se le añade un elemento continúa siendo finito; finalmente, si una condición C vale para el vacío, y si C, supuesta verdadera para x, continúa siendo verdadera cuando se añade un elemento a x, entonces C es verdadera para todo conjunto finito». Nótese el parecido entre esta caracterización y el esquema axiomático de recurrencia en aritmética, que nos dice que todo entero se obtiene a partir del 0 por pasos al entero sucesor. Existen otras definiciones, menos conocidas y menos útiles, de la finitud. Todas dan lugar a una paradoja calcada de la de Löwenheim: un mismo conjunto puede ser finito, en tanto que elemento de un modelo de una teoría ζ de conjuntos o de una combinatoria, que es una teoría de los conjuntos finitos, mientras que a es infinito desde el punto de vista de la metateoría que representa ζ, simplemente, porque las biyecciones de a sobre una de sus partes estrictas (que hacen a infinito según Dedekind), o los conjuntos de partes de a desprovistas de elemento minimal (que hacen a infinito según Tarski), existen en la metateoría representante, pero son exteriores al modelo de la teoría ζ representada. Existe una paradoja análoga, en mi opinión, por lo que hace a la noción misma de deducción lógica; la expondremos a partir de dos ejemplos, el primero referente a la deducción en la lógica de segundo orden, en relación con el axioma de elección; el otro se refiere a la deducción en lógica usual de primer orden, en relación con el gran teorema de Fermat. En nuestro primer ejemplo, recordemos que la lógica a la que se hace referencia, la de segundo orden, queda definida por el hecho de que los cuantificadores se aplican tanto a los predicados como a los individuos. Ello nos permite construir una fórmula que diga que, para cada relación binaria A que cumpla la condición de que «para todo x, existe al menos un y tal que A(x,y)», existe otra relación binaria B tal que «para todo x, existe un y único que cumple a la vez A(x,y) y B(x,y)»; sea pues la siguiente fórmula: ∀A[(∀x ∃y Axy) ⇒ ∃B((∀x ∃y Axy ⋀ Bxy) ⋀ (∀xyz Bxy ⋀ Bxz ⇒ y = z))]. Esta fórmula ¿es una tesis de segundo orden?; en otras palabras, ¿es una tesis verdadera para todo conjunto de base en el que se tome la relación arbitraria A? En consecuencia, ¿pertenece dicha tesis a todas las teorías de segundo orden?; ¿se sigue
www.lectulandia.com - Página 140
de toda fórmula de segundo orden? La respuesta depende de la metateoría en la que se definan los conjuntos, las relaciones, las fórmulas y, en definitiva, los valores de verdad. En cualquier caso, la fórmula precedente es verdadera cuando la base es finita; efectivamente, parece difícil tener una metateoría tan débil que no permita siquiera razonar por inducción aritmética usual, pasando del caso de una base de cardinal finito n a una base de cardinal n + 1. Pero en el caso de un conjunto de base infinito, la respuesta será «sí» cuando la metateoría admita el axioma de elección; y será «no» cuando admita una negación de dicho axioma; por ejemplo, la existencia de un conjunto infinito a de conjuntos x no vacíos y mutuamente disjuntos, sin que exista un conjunto de elección c cuya intersección con cada x de a se reduzca a un singulete. Este ejemplo es interesante por su simplicidad, pero no nos lleva muy lejos por lo que hace a la dependencia de la deducción —y en consecuencia, de las teorías representadas— respecto de la teoría representante. En términos más precisos: con una metateoría que admita el axioma de elección, podemos disponer de una teoría representada que niegue dicho axioma por la sencilla razón de que una cierta función de elección, que existe en la metateoría, no pertenezca al modelo de la metateoría. A la inversa, si partimos de una metateoría que niegue el axioma de elección, podemos tener una teoría representada que admita dicho axioma porque las familias de conjuntos que pertenecen al modelo admitan una función de elección que pertenezca ella misma al modelo. Segundo ejemplo: supongamos, lo que es probable, que la conjetura de Fermat sea indecidible, es decir, ni demostrable ni invalidable a partir de los axiomas de Peano.[38] Entonces existen aritméticas fermatianas consistentes en las que xn + yn ≠ zn para todo entero n > 2 y todas las ternas de enteros x, y, z no nulos. Pero existen también aritméticas antifermatianas consistentes, en las que se define un mínimo exponente antifermatiano n > 2 para el que existen un x no nulo, un y no nulo y un z que cumplen xn + yn = zn. Lo que sigue, que podría decirse también a propósito de otros enunciados como el de Goldbach (todo entero par es la suma de dos enteros primos) y muchos otros, no quedará invalidado si, en un futuro próximo, se reconoce como admisible una demostración o un contraejemplo del enunciado de Fermat. La primera cuestión que se le ocurre entonces al lógico es la de saber si el mínimo exponente antifermatiano puede representarse en la forma simple, aunque larga, de una suma de números, o sea n = 1 + 1 + … + 1. Esta cuestión no le corresponde decidirla a la aritmética, la cual no trata más que de las sumas y productos de enteros y de las nociones definibles por medio de estas dos operaciones. La cuestión queda bajo la jurisdicción de la metateoría en la que debemos representarnos la aritmética para poder definir la noción de fórmula y plantearnos la cuestión de la representación de un número por una fórmula que comprenda únicamente los símbolos 1 y +. La metateoría incluye forzosamente la noción de entero para poder hablar de una
www.lectulandia.com - Página 141
«sucesión finita de 1», de modo que la metateoría es ella misma una aritmética, a la par que, en general, una combinatoria o teoría de los conjuntos finitos y de las sucesiones finitas; así pues, tiene sentido hablar de una metateoría fermatiana o antifermatiana. Nuestra respuesta será «sí» cuando la metateoría sea antifermatiana: pues basta entonces con considerar, en esa metateoría, el mínimo exponente antifermatiano n y tomar precisamente n términos iguales a 1 en la suma considerada. Por el contrario, la respuesta será «no» si la metateoría es fermatiana. En este último caso, para representar el exponente n habrá que introducir un símbolo, como es el caso de los símbolos e y π en análisis, puesto que no podremos representar n valiéndonos únicamente de las operaciones «más» o «multiplicado por», y en particular no podremos representarlo en numeración decimal. En defecto de un tal símbolo, habríamos de recordar la definición de ese exponente cada vez que lo utilizáramos para preguntarnos, por ejemplo, si es par o impar, primo o no, etc. Vemos, pues, que el enunciado de Fermat viene acompañado de una disimetría lógica, como es por lo demás también el caso para el enunciado de Goldbach o para todos los otros del mismo tipo, que abundan en aritmética. Efectivamente, una metateoría antifermatiana es «intolerante» puesto que sólo puede representar aritméticas antifermatianas; mientras que una metateoría fermatiana es «tolerante» en el sentido de que tanto puede representar una aritmética fermatiana como una antifermatiana, en la que el exponente en cuestión no puede escribirse ni en la forma de una suma de 1 ni en numeración decimal, que es una suma de enteros < 10 por potencias de 10 cuyos exponentes son cada uno… una suma de 1. En el caso de una metateoría fermatiana, el enunciado de Fermat se convierte en semánticamente verdadero: es decir que, si introducimos en la metateoría el valor de verdad en el sentido de Tarski, obtenemos el valor «verdadero» para el enunciado de Fermat. Sin embargo, el matemático que trabaje en esa metateoría es aún libre para incluir el enunciado de Fermat o su negación entre los axiomas de la aritmética representada. De lo precedente, resulta que existe una notable diferencia entre el desarrollo que cabe esperar para las aritméticas no clásicas en las próximas décadas, y el desarrollo que han conocido las geometrías no euclidianas y las teorías no zermelianas de conjuntos (que niegan el axioma de elección), al menos, para el caso de estas últimas, cuando están formalizadas en el cálculo lógico usual, de primer orden. Cuando se pasaba de una geometría a otra, de una teoría de conjuntos a otra, la deducción, o el conjunto de las tesis, permanecía inalterado; por el contrario, el paso de una metateoría representante fermatiana a una antifermatiana acarreará un refuerzo de la deducción, es decir, la adición a las tesis lógicas usuales de nuevas tesis que llamaremos tesis marginales; y, por supuesto, la adición a las antítesis de antítesis marginales o negaciones de las tesis marginales. Por ejemplo, consideremos una aritmética antifermatiana representada en una metateoría también antifermatiana. La utilización, ya mencionada, de una suma 1 + 1
www.lectulandia.com - Página 142
+ … + 1 que conste de un número finito, pero antifermatiano, de símbolos 1 viene a ser como aplicar las reglas lógicas usuales de substitución un número finito y antifermatiano de veces. Lo cual significa proporcionar una demostración, de longitud antifermatiana, de una tesis marginal cuya longitud sigue siendo finita en el sentido usual. Por comodidad, describamos la antítesis marginal constituida por su negación. Será la conjunción de los axiomas que afirman que, para a y b cualesquiera, existe un único c = a + b, un único d = a · b, y un único ab; de los axiomas de adición a + 0 = a y a + (b + 1) = (a + b) + 1 para cualesquiera a y b; de los axiomas de multiplicación a · 0 = 0 y a · (b + 1) = (a · b) + a; de los axiomas de exponenciación a0 = 1 y a(b+1) = (ab) · a, de a + 1 ≠ 0 así como de a ≠ b ⇒ a + 1 ≠ b + 1 para cualesquiera a y b, axiomas éstos que permiten reducir una igualdad entre dos sumas de 1, sea a la identidad 0 = 0, sea a un absurdo de la forma 0 = a + 1. Por fin, el último término de nuestra conjunción será el enunciado de Fermat, cuya negación resulta por lo demás de los axiomas precedentes en la metateoría antifermatiana, donde es posible efectuar un número antifermatiano de substituciones. Parece ahora normal que una metateoría antifermatiana, que es más rica en tesis y en antítesis representadas (a partir de la noción de valor de verdad) que una teoría usual, sea intolerante y rechace como inconsistentes las aritméticas fermatianas; mientras que una metateoría fermatiana, que sólo representa las tesis y antítesis usuales, tolera como consistentes tanto las aritméticas fermatianas como las antifermatianas. Nada impide, al parecer, que exista una aritmética antifermatiana representada en una primera metateoría antifermatiana con tesis lógicas marginales obtenidas mediante una demostración tan larga como para incluir un número finito antifermatiano de substituciones. Y esta primera metateoría, a su vez, estaría representada en una segunda metateoría que sería fermatiana y, en consecuencia, tolerante; entonces, las substituciones consideradas, que eran en número finito desde el punto de vista de la primera metateoría, serían en número infinito desde el punto de vista de la segunda metateoría: lo que parece estar completamente de acuerdo con la paradoja de Lowenheim aplicada a la finitud, como dijimos anteriormente. Naturalmente, no es posible efectuar directamente una aplicación de reglas de substitución «un número finito antifermatiano de veces»; tal aplicación sólo puede pertenecer a una primera metateoría, representada a su vez en una segunda metateoría que se contenta con proporcionarnos el resultado de esta sucesión de substituciones, sin que tengamos que escribirlas. Quizás el lector me replique: pero entonces, en definitiva, la última metateoría, aquélla en la que razonamos, sólo puede ser clásica, y no incluirá más que las tesis usuales. La respuesta es que es preciso llevar más lejos el realismo y decir que la última metateoría, en la cual trabajamos, sólo puede fundamentarse sobre una parte de las tesis usuales definidas teóricamente. En particular, quedan excluidas de la última metateoría las tesis cuya demostración sea
www.lectulandia.com - Página 143
tan larga como para que la historia entera del universo físico (incluso si los humanos, tras su desaparición, fueran sustituidos por otros seres pensantes) no bastara para obtenerlas; en efecto, el número de los corpúsculos físicos del universo tampoco es tan grande, y el número de sus configuraciones en el transcurso de la historia quizás sea finito (a no ser que el tiempo sea infinito, cosa que los físicos ignoran, y quizás incluso transfinito, con los años numerados por cifras finitas seguidos de años cuya cifra fuera un ordinal infinito tal como ω, ω + 1, 2ω, etc.; pero aquí entramos en la ciencia ficción). En todo caso, no es absurdo pensar que ciertas teorías que, desde hace decenios, resultan experimentalmente consistentes, como la aritmética peaniana o la teoría zermeliana de conjuntos, son teóricamente contradictorias; pero que nadie, ni un humano ni un sucesor de los humanos, tendrá tiempo nunca para obtener su contradicción. Adviértase que, por lo que hace a las aritméticas no clásicas, la fase de las previsiones ha quedado ya, sin duda, superada en beneficio del estadio de las primeras realizaciones. Hasta estos últimos años, las únicas aritméticas no clásicas y consistentes (si se suponen consistentes los axiomas de Peano) se obtenían artificialmente mediante las fórmulas indecidibles construidas por Gödel (1931), fórmulas atrozmente complicadas y desprovistas de interés matemático, de las que sólo su existencia tenía importancia para los lógicos. Desde 1976 han aparecido fórmulas que aritmetizan el teorema de Ramsey. Este teorema, clásico para los conjuntistas y relacionistas, dice que si repartimos los pares de enteros (representables por «aristas» del grafo construido sobre los enteros) en dos clases a las que resulta cómodo llamar, intuitivamente, dos «colores», entonces existe un conjunto infinito de enteros monocolor; en otras palabras, un conjunto infinito en el que todos los pares, o aristas, son de un mismo color. Los autores Paris y Harrington (1977), así como Paris (1978), han obtenido fórmulas de la aritmética, indecidibles respecto a los axiomas de Peano, que traducen el citado teorema de Ramsey ligeramente reforzado; dichas fórmulas son casi tan simples e interesantes como el enunciado de Fermat o el de Goldbach. No es absurdo que conduzcan, a su vez, a tesis y antítesis marginales, como se ha supuesto a propósito del teorema de Fermat.
Bibliografía A. Church, «An unsolvable problem of elementary number theory», «American Journal of Mathematics», vol. 58, 1936, págs. 345-363. P. J. Cohen, Set theory and the continuum hypothesis, Nueva York, Benjamin, 1966, 154 págs. El nivel del libro es el de la investigación matemática, pero contiene numerosos pasajes que resultan legibles para todo científico o filósofo cultivado.
www.lectulandia.com - Página 144
L. Couturat, Revue de métaphysique et de morale, vol. 12, 1904. W. Craig y R. L. Vaught, «Finite axiomatizability using additional predicates», «Journal of Symbolic Logic», vol. 23, 1958, págs. 289-308. Artículo técnico, para uso de lógicos matemáticos. R. Dedekind, Was sind und was sollen die Zahlen? Stetigkeit und irrationale Zahlen, con un prefacio de G. Asser, Brauschwieg, Vieweg, 1965. D. Diderot, Œuvres philosophiques, Paris, «Classiques Garnier», 1964, XL+649 págs. A. A. Fraenkel, «Untersuchungen über die Grundlagen der Mengenlehre», «Mathematische Zeitschrift», vol. 22, 1925, págs. 250-273. Para matemáticos lógicos. K. Gödel, «Die Vollständigkeit der Axiome des logischen Funktionenkalküls», «Monatsefte Mathematik und Physik», vol. 37, 1930, págs. 349-360. Nivel de investigación matemática. — «Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme», ibid., vol. 38, 1931, págs. 173-198. — On undecidable propositions of formal mathematical systems (notas de S. Kleene y J. B. Rosser), Conferencias de Princeton, 1934, 30 págs.; véase también Martin Davis (ed.), The undecidable, Nueva York, Raven Press, 440 págs. — The consistency of the axiom of choice and the generalized continuum hypothesis with the axioms of set theory, Princeton Annals of Mathematical Studies, 1940, 69 págs. Para estudiantes de matemáticas. J. Herbrand, Recherches sur la théorie de la démonstration, tesis, Paris, 1930. Véase en Écrits logiques, ed. por Van Heijenvoort, Paris, PUF, «Bibliothèque de philosophie contemporaine», 1930. Algunos pasajes resultan accesibles para estudiantes de filosofía. D. Hilbert, «Uber die Grundlagen der Logik und der Arithmetik», Verhanlungen des 3, internationalen Mathematiker-Kongress in Heidelberg von 8. bis 13. August 1904, Leipzig, Teubner, 1905, págs. 174-185. S. C. Kleene, «Finite axiomatizability of theories in the predicate calculus, using additional predicate symbols. Two papers on the predicate calculus», Memoirs of the American Mathematical Society, vol. 10, 1952, págs. 27-68. Artículo muy difícil; puede sustituirse provechosamente por la lectura del de Craig y Vaught, 1958. L. Löwenheim, «Uber Möglichkeiten im Relativkalkül», Mathematische Annalen,
www.lectulandia.com - Página 145
vol. 76, 1915, págs. 447-470. Artículo histórico; su contenido figura en numerosos cursos de lógica. J. Paris, «Some independence results from Peano arithmetic», «Journal of Symbolic Logic», vol. 43, 1978, págs. 725-731. Para investigadores matemáticos. J. Paris y L. Harrington, «A mathematical incompleteness in Peano arithmetic», en J. Barwise (ed.), Handbook of mathematical logic, Amsterdam, North-Holland, 1977, págs. 1133-1142. G. Peano, Formulaire de mathématiques, introd. y 5 vols., Turin, 1894-1908. Obra histórica, bastante legible por otra parte, pero difícil de encontrar. F, Ramsey, «The foundations of mathematics», Proceedings of the London Mathematical Society (2), vol. 25, 1926, págs. 338-384. Artículo histórico; su contenido figura en numerosas obras de combinatoria o de lógica. Th. Skolem, «Logisch-kombinatorische Untersuchungen über die Erfüllbarkeit oder Beweisbarkeit mathematischer Sätze nebst einem Theoreme über dichte Mengen» (1920). Véase en Selected Works in logic, ed. por J. E. Fenstad, Oslo, Universitetsforlaget, 1970, págs. 103-136. Artículo histórico cuyo contenido figura en numerosos cursos de lógica, por ejemplo en Cohen, 1966. A. Tarski, «Sur les ensembles finis», «Fundamenta Mathematicae», vol. 6, 1924, págs. 45-95. Artículo histórico, bastante legible incluso para no matemáticos; su contenido esencial figura en el curso de axiomática. — «Der Wahrheitsbegrift inder formalisierten Sprachen», «Studia Philosophica», vol. 1, 1936, págs. 261-404. Traducción inglesa en Logic, semantics, metamathematics, Oxford, Clarendon Press, 1956. Traducción francesa: «Le concept de vérité dans les langages formalisés», en Logique, sémantique, métamathématique, París, Armand Colin, 1972, vol. 1. Legible para no matemáticos. — The completeness of elementary algebra and geometry, Paris, Hermann, 1940, 50 págs.; cuestión vuelta a examinar en 1951: A decision method for elementary algebra and geometry, Berkeley y Los Angeles, University of California, 63 págs. Bastante legible para los no matemáticos. E. Zermelo, «Untersuchungen über die Grundlagen der Mengenlehre», Mathematische Annalen, vol. 65, 1908, págs. 261-281. Artículo histórico, cuyo contenido se encuentra, por ejemplo, en Cohen, 1966.
www.lectulandia.com - Página 146
Matemática constructiva Roger Apéry
«El ruin, para mal hacer, achaques ha menester». Para combatir una disidencia religiosa, filosófica o política, un poder empieza siempre por desacreditarla, negándole su carácter de doctrina defendida por investigadores de buena voluntad, que se apegan a sus convicciones íntimas por argumentos sólidos; la presentan como una empresa criminal (herética, asocial) condenada a desaparecer. De acuerdo con la caricatura que sus adversarios presentan bajo el nombre de intuicionismo, la concepción constructiva vendría caracterizada por destruir una gran parte de la matemática clásica, especialmente el axioma de elección y sus consecuencias; por adoptar, en oposición al carácter objetivo de la ciencia, la intuición particular de cada matemático como criterio de verdad, lo que la convertiría en una singularidad histórica, ligada a una metafísica particular destinada a desaparecer; no sería sino la expresión de la angustia de unos cuantos matemáticos. A falta de convencer, el presente texto cabe que disipe algunos malentendidos: mostraremos en él que la concepción constructiva no mutila la matemática clásica, lino que, por el contrario, la enriquece. No trataremos del axioma de elección, cuya discusión no es esencial. Indicaremos los criterios objetivos de demostración utilizados por los matemáticos constructivos. Digamos por último que ningún argumento sólido permite afirmar que L. Kronecker, H. Poincaré o H. Weyl estuvieran más angustiados que Cantor, Hilbert o Russell.
1. Las principales filosofías de las matemáticas El platonismo matemático (Bolzano, Frege, Cantor, Russell) Como toda ciencia, la matemática trata de una realidad independiente de cada matemático particular: la geometría estudia rectas y círculos ideales, y no rayas y redondeles dibujados. La concepción platónica traslada al mundo matemático el deseo de absoluto y de eternidad del espíritu humano. Las principales afirmaciones del platonismo matemático son las siguientes: 1.º Toda cuestión matemática concierne a objetos tan reales (o incluso más)
www.lectulandia.com - Página 147
como los astros, los animales o los vegetales; así pues, posee una respuesta (eventualmente desconocida) afirmativa o negativa: se trata de la lógica bivalente y de su corolario, el principio del tercio excluso. 2.º La noción de conjunto, definida por Cantor como «una agrupación en un todo de objetos distintos y definidos de nuestra intuición o de nuestro pensamiento»,[39] es simple, primitiva y constituye por sí misma el fundamento de todas las matemáticas. Por ejemplo, Russell define el número 1 como el conjunto de todos los conjuntos E no vacíos tales que x ∈ E e y ∈ E ⇒ x = y. 3.º La existencia simultánea de todos los entes matemáticos exige que todo conjunto infinito sea tratado como una unidad acabada; es la doctrina del infinito actual defendida por Leibniz y que Cantor amplió por razones metafísicas. «Estoy hasta tal punto a favor del infinito actual que, en lugar de admitir que la naturaleza lo aborrece, sostengo que por todas partes lo ostenta, para mejor hacer resaltar la perfección de su autor. Por lo tanto, creo que no existe parte alguna de la materia que, no digo ya que no sea divisible, sino que no esté de hecho dividida; y, en consecuencia, la más ínfima partícula debe considerarse como un mundo lleno de una infinidad de criaturas diferentes» (Leibniz). «A mi entender, sin un granito de metafísica no es posible fundar una ciencia exacta. Tal y como yo la concibo, la metafísica es la ciencia de lo que es, es decir, de lo que existe, y por tanto, del mundo tal y como es en sí y no tal y como nos aparece» (Cantor). «La más excelsa perfección de Dios reside en la posibilidad de crear un conjunto infinito, y su inmensa bondad le lleva a crearlo» (Cantor). Las dificultades de la teoría cantoriana se pusieron de manifiesto en forma de antinomias. El edificio se vino abajo cuando Russell mostró que el propio mundo cantoriano, es decir, el conjunto de todos los conjuntos, es contradictorio. El formalismo El formalismo, concebido por Hilbert y llevado hasta consecuencias extremas por Bourbaki, pretende crear un orden matemático cuyos mandamientos son los siguientes: www.lectulandia.com - Página 148
1.º Que la reglamentación de los métodos autorizados sea lo suficientemente rígida como para impedir toda discusión. 2.º Que no se tropiece con contradicciones y, en particular, que se eviten las paradojas. 3.º Que se conserve la mitología del transfinito que Hilbert llama el «paraíso creado por Cantor para nosotros». El objetivo se alcanza por el siguiente método: 1.º Rechazar el orden antiguo reprochándole simultáneamente el ser demasiado liberal (la consigna, lanzada por Bourbaki: «¡Abajo Euclides!») y el ser autoritario (Hilbert trató a Kronecker de Verbotsdiktator). 2.º Considerar como infranqueable el foso entre las matemáticas y las otras disciplinas. 3.º Atribuir el éxito en la aplicación de las matemáticas a las demás ciencias a la «armonía preestablecida» (Leibniz) o a un «milagro» (Bourbaki). 4.º Reducir la matemática al texto escrito, lo que significa rechazar, a la vez, el mundo platónico como inexistente y el pensamiento del matemático como epifenómeno. 5.º Rechazar los conceptos de espacio, de tiempo, de libertad como desprovistos de sentido. 6.º «Imponerle al dominio matemático límites en gran medida arbitrarios» (Bourbaki, Théorie des ensembles, pág. E IV. 67). 7.º Practicar la duplicidad de lenguaje,[40] dejando por un lado creer que sólo una escuela posee la «buena matemática» y adoptando la terminología de los platónicos; y, por otro lado, considerando las matemáticas como un simple juego, en el que, por ejemplo, «el término “existe” no posee, en un texto formalizado, más “significación” que los demás, y [en el que] no hay que considerar otros tipos de “existencia” en las demostraciones formalizadas»[41] (Bourbaki). 8.º Extirpar la intuición, principalmente al rechazar la utilización de figuras en la enseñanza. 9.º Considerar como «metamatemáticas» todas las cuestiones embarazosas que hacen referencia a la estructura de las matemáticas. 10.º Conseguir mentalidades uniformes mediante la enseñanza de las «matemáticas modernas», que consienten que los niños crean estar www.lectulandia.com - Página 149
realizando una actividad matemática al rodear unos cuantos objetos con un cordel, en lugar de enseñarles a contar, a calcular y a examinar las propiedades de las figuras. 11.º Crear un dios matemático integrado por varias personas, que trata de asegurarse la inmortalidad renovando periódicamente sus miembros y que garantiza la unidad de la comunidad matemática revelando periódicamente las buenas definiciones y las buenas teorías. Hilbert tenía la esperanza de demostrar la coherencia de su concepción; pero Gödel hizo patente el fracaso de la formalización hilbertiana, al mostrar que toda teoría que contenga al menos la aritmética elemental contiene resultados que, siendo verdaderos, no son demostrables a partir de los axiomas. Hay que distinguir entre el método formalista y la filosofía formalista. Todos los lógicos se sirven del método formalista para precisar los tipos válidos de deducción; la filosofía formalista considera el texto formalizado no como una herramienta cómoda, sino como la única realidad matemática (los físicos saben de una distinción análoga entre el método positivo, que es el método de todos, y el positivismo, que es la filosofía de unos cuantos). Una teoría matemática queda establecida al indicar las propiedades de partida (axiomas) y las reglas de deducción admitidas. El escepticismo frente a determinados principios traduce generalmente un dogmatismo subyacente que rehúsa hacer explícitos sus propios principos y someterlos a la crítica. Y es así como los formalistas, que someten las propiedades matemáticas elementales a una crítica profunda, se tragan sin chistar las reglas tradicionales de la lógica y rehúsan ponerlas en cuestión, olvidando que esas reglas, surgidas de la experiencias cotidiana como la geometría euclidiana, no poseen, al igual que esta última, más que un campo de aplicación limitado. No están seguros de la verdad de 2 + 2 = 4, y consideran como un axioma gratuito, y susceptible en consecuencia de ser rechazado, que hayan de obtenerse dos sucesiones isomorfas al quitar el último signo de dos sucesiones isomorfas; lo que da origen al «axioma» de Peano según el cual dos números naturales que tienen sucesores iguales son iguales. En cambio, consideran como evidente e incontestable el axioma lógico de Peirce según el cual, cualesquiera que sean las proposiciones p y q, es posible deducir la proposición p de la proposición (p → q) → p; todo lo que signifique poner en tela de juicio el principio del tercio excluso les parece no una opinión discutible, sino un escándalo intolerable. El matemático ideal según el constructivismo De acuerdo con la concepción constructivista, no existen matemáticas sin matemáticos. En tanto que entes de razón, los entes matemáticos sólo existen en el pensamiento del matemático y no en un mundo platónico independiente de la mente humana; en cuanto a los textos matemáticos, sólo adquieren sentido a través de una www.lectulandia.com - Página 150
interpretación que requiere un lector conocedor del lenguaje utilizado por el autor del texto. El matemático ideal queda definido por un cierto comportamiento mental del que el pensamiento efectivo del matemático concreto no constituye más que una imagen aproximada. Las hipótesis necesarias para la actividad matemática son las siguientes: 1.º Siempre se puede añadir un nuevo signo a una fórmula; en particular, a continuación de cualquier número entero siempre es posible considerar otro. 2.º El matemático razona siempre aplicando reglas de deducción especificadas explícitamente. 3.º Todo resultado demostrado queda definitivamente establecido. 4.º La capacidad de deducir no se deteriora ni se mejora. Todas estas propiedades suponen que el matemático satisface las siguientes condiciones: 1.º Es inmortal, o sea que siempre puede continuar un cálculo inacabado. 2.º Es impermeable al dolor, a las pasiones, a los sufrimientos, lo cual mantiene el necesario rigor de su pensamiento. 3.º Gracias a una memoria perfecta, no olvida ni deforma ningún resultado establecido. 4.º No se cansa y desempeña su labor sin entrenamiento previo. Los matemáticos suplen sus evidentes diferencias con el matemático ideal mediante: 1.º La ayuda mutua: el error que un matemático no alcanza ver puede ser descubierto por otro. 2.º Las memorias mecánicas (textos manuscritos o impresos) que suplen los fallos de la memoria individual. 3.º Las máquinas calculadoras que le permiten realizar en un tiempo razonable cálculos que, a falta de dichas máquinas, no hubiera podido terminar en toda su vida. Por más que extrapole la realidad, el matemático constructivo rechaza las hipótesis fantásticas de los platónicos. En efecto: 1.º No se cree eterno: la actividad matemática ha tenido un comienzo. 2.º Cree que los entes matemáticos son entes de razón: aparecen en el momento
www.lectulandia.com - Página 151
en el que el matemático los define y no con anterioridad a todo matemático. 3.º Reconoce que la matemática se desarrolla en el tiempo. Un razonamiento es un método para demostrar que si determinadas afirmaciones se suponen verdaderas de antemano, otras se convierten a continuación en verdaderas. 4.º Su inmortalidad le permite alcanzar números tan grandes como desee, pero no definir todos los números; cree en el infinito potencial, no en el infinito actual. Mientras que los matemáticos ideales son intercambiables, los matemáticos concretos son distintos unos de otros, y cada uno de ellos varía con el tiempo; esta diversidad acarrea una parte subjetiva que no puede suprimirse en la actividad matemática. Esta parte subjetiva se manifiesta en la creación, en el aprendizaje, en la reproducción. Pero, a pesar de su importancia, la diferencia entre matemática estática y matemática constructiva no radica en ella. Matemática y temporalidad Como el platónico y al contrario que el formalista, el matemático constructivo reconoce una cierta realidad a los objetos matemáticos; pero los diferencia esencialmente de los objetos materiales al no atribuirles más propiedades que las susceptibles de demostración. Una distinción análoga diferencia al personaje literario de los personajes históricos. Una cuestión relativa a Vercingétorix admite una respuesta, incluso si ésta escapa a nuestros medios de investigación; la misma cuestión relativa a Don Quijote no posee respuesta en el caso de que ésta no pueda deducirse de las afirmaciones hechas en la novela de Cervantes. En compensación, la existencia de conjuntos de números reales más numerosos que el conjunto de los enteros y menos numerosos que el conjunto de los reales no tiene respuesta, puesto que, como lo ha demostrado Paul Cohen, ni dicha existencia ni su negación pueden deducirse de las definiciones usuales de los números reales: al igual que Don Quijote, el conjunto de los reales es un ente esencialmente incompleto. El matemático constructivo rechaza el tabú filosófico que prohíbe hablar de tiempo y de libertad, puesto que toda actividad matemática exige la existencia de una inteligencia libre que opere en el tiempo. Dejando para el moralista el tiempo irreversible, ese famoso «tiempo perdido» que jamás se recupera, los matemáticos se sirven, como los músicos, de un tiempo reproductible. Una estatua, un cuadro, un monumento, situados esencialmente en el espacio, se mantienen por sí mismos; las fuerzas externas pueden desgastarlos o destruirlos, pero no son necesarias para su sostén; el examen de sus distintas partes se opera de acuerdo con un orden arbitrario y durante un lapso arbitrario de tiempo. Por el contrario, la música está esencialmente situada en el tiempo. Una melodía no es un conjunto, sino una sucesión de notas
www.lectulandia.com - Página 152
sutilmente enlazadas: al revés de los monumentos, que perduran, la melodía desaparece; para que reaparezca, es necesario reproducirla; se la conserva mediante procedimientos artificiales de memorización (partituras, discos). Conocemos las herramientas o los dibujos de nuestros antepasados prehistóricos, pero ignoramos sus palabras o eventualmente sus cantos. Del mismo modo, un razonamiento matemático, esencialmente frágil, ha de rehacerse para ser comprendido: un texto matemático se lee con la pluma en la mano. Aunque la temporalidad parezca menos apremiante que en el caso de la música, el examen de un razonamiento matemático exige que, en cada etapa, se abarquen simultáneamente las premisas, la conclusión y la regla de razonamiento utilizada; para ser auténtica, la comprensión debe estar dirigida al conjunto de las articulaciones del razonamiento, de modo que el resultado aparezca como debido a un método aplicable a otros problemas y no como fruto de una feliz casualidad. Esquemáticamente, podríamos decir que la actividad matemática comporta dos fases, humorísticamente caracterizadas por corresponder al 5% de inspiración y al 95% de transpiración. En la primera fase, la actividad es mental, subjetiva, independiente del lenguaje, ligada estrechamente a la temporalidad intuitiva. Pese a sus dos puntos flacos (fugacidad e incomunicabilidad), esta fase constituye la auténtica actividad matemática. En la segunda fase, el matemático introduce notaciones, formaliza, traduce (parcialmente) su intuición en términos comunicables; una vez se han hecho objetivos, todo el mundo puede examinar sus resultados. Las distintas ejecuciones de una obra musical nunca son rigurosamente idénticas; dependen de la personalidad del director de la orquesta. De la misma manera, la reproducción de un razonamiento contiene una parte subjetiva irreductible; al recordar que un perro que devora a una oca almacena grasa de perro y no grasa de oca, H. Poincaré ilustra la necesidad que cada cual tiene de incorporar todo conocimiento exterior a su propia personalidad. Quien domina un texto matemático sin comprender su articulación, no domina nada.
2. Algunos instrumentos y conceptos de las matemáticas constructivas Números naturales Al igual que Bourbaki (Théorie des ensembles, cap. I, § 1), empezamos las matemáticas por el estudio de colecciones de signos extraídos de un alfabeto; una tal colección es una sucesión, no un conjunto. Todos los matemáticos están de acuerdo acerca de la filosofía de los signos: todo signo es indestructible, puede reproducirse sin alteración ni desgaste tantas veces como se desee, y puede servir para construir fórmulas de una longitud arbitraria. Un texto matemático se presenta como una
www.lectulandia.com - Página 153
sucesión de argumentos deducidos correctamente, no como un conjunto de afirmaciones amontonadas sin orden ni concierto. Los agregados construidos con un alfabeto de un solo signo, denotado por |, son los números naturales. Para el agregado vacío se utiliza la notación 0, mientras que para las colecciones |, ||, |||, se utilizan las notaciones 1, 2, 3, respectivamente. Ante una cuestión matemática elemental, como por ejemplo la de buscar si existe un entero natural que satisfaga una propiedad simple (es decir, una propiedad que pueda decidirse efectivamente para cada entero dado), son tres las situaciones con las que nos enfrentamos en la práctica: a) se conoce una solución; b) se puede demostrar que la existencia de una solución lleva a una contradicción; c) no se sabe ni una cosa ni la otra. Los matemáticos están de acuerdo sobre la respuesta al problema en los casos a) y b). Las discrepancias de actitud aparecen en el caso c), que es el más interesante (recubre todos los problemas matemáticos no resueltos, es decir toda la matemática viva). Una actitud empirista no admitiría más que respuestas a cuestiones ya zanjadas. La actitud estática considera nuestra incapacidad para responder como debilidad humana, pero admite la existencia de una respuesta «en sí». La actitud constructiva es intermedia. Ante una proposición p no decidida, el matemático constructivo no siempre rehúsa enunciar p o no p. Pero no admite la validez de esta expresión lógica (aplicación del principio del tercio excluso al enunciado p) más que si posee un algoritmo que, al cabo de un número finito de etapas, haga posible la decisión, cualquiera que sea por lo demás la longitud del algoritmo. Como un algoritmo tal no existe siempre, hay en consecuencia enunciados a los que no cabe aplicarles el principio del tercio excluso. Sucesiones de números Una sucesión de enteros (o de racionales) es un proceso que asocia a cada número natural n un entero (o un racional) u(n), notado también como un. A propósito de las sucesiones de enteros es cuando aparece el punto crucial del debate: infinito actual o infinito potencial. Según la concepción constructiva, una sucesión infinita, como por ejemplo la de los números naturales, no se acaba nunca, es decir, nunca está completa: después de cualquier número entero, siempre puede construirse otro; se trata de la concepción del infinito potencial que defendieron Gauss y Poincaré. No existe ningún conjunto efectivamente infinito. Una propiedad que exige la
www.lectulandia.com - Página 154
comprobación de todos los elementos de una sucesión, no cae bajo la competencia de la ley del tercio excluso. Se llama sucesión fugaz a una sucesión cuyos elementos efectivamente calculados son todos nudos, pero de la que se ignora si el cálculo de nuevos elementos dará siempre cero como resultado. Existen importantes problemas que se les plantean a los matemáticos y que equivalen a la cuestión de saber si una sucesión fugaz es o no es nula (conjeturas de Fermat o de Riemann). La comparación de dos sucesiones un, vn equivale a examinar si la sucesión |un − vn| es nula. La existencia de sucesiones fugaces pone de manifiesto que, contrariamente a lo que sucede con los números (naturales, enteros relativos o racionales), dos sucesiones no son necesariamente iguales o distintas. Lógica constructiva Platónicos y formalistas utilizan una misma lógica «clásica», que vamos a comparar con la lógica constructiva. La lógica proposicional, que estudia las proposiciones complejas construidas mediante proposiciones elementales y conectivas (generalmente ¬, ⋀, ⋁, ⇒, ⇔), se distingue de la lógica de predicados (con uno o varios argumentos), que utiliza sobre todo los cuantificadores ∀, ∃. La lógica clásica precisa sólo de las conectivas ⋁, ¬ y del cuantificador ∀; las conectivas ⋁, ⇒ y el cuantificador ∃ son, según los clásicos, abreviaturas: p ⋁ q significa ¬(¬p ⋀ ¬q) p ⇒ q significa
¬(p ⋀ ¬q)
∃x Px significa
¬∀x ¬Px.
Determinados enunciados complejos construidos con proposiciones elementales indeterminadas constituyen tesis lógicas, es decir, se les considera «verdaderos» cualesquiera que sean las proposiciones consideradas; por ejemplo, éste es el caso de: p ⇒ (q ⇒ p). Todas las tesis de la lógica clásica son verdaderas en lógica constructiva; en otras palabras, y contrariamente a lo que afirma la leyenda, la matemática constructiva añade algo a la matemática clásica y no le suprime nada. La originalidad de la lógica constructiva reside en la introducción de conectivas que denotaremos por ⋁, ⇒, y de un cuantificador que denotaremos por ∃, que no pueden expresarse en términos de la lógica clásica.
www.lectulandia.com - Página 155
p ⋁ q significa:
existe un procedimiento regular que permite, o bien afirmar p, o bien afirmar q.
∃x P(x) significa:
existe un procedimiento regular que permite construir un elemento que verifique la propiedad P.
Se plantea un falso problema si se pregunta quién tiene razón: el clásico al afirmar la tesis p ⋁ ¬p, que para él no representa más que la abreviatura de ¬(¬p ⋀ ¬¬p) y que se deduce del principio de no contradicción; o el constructivista que niega la tesis p ⋁ ¬p, que supondría la existencia de un método para resolver todos los problemas matemáticos. En estricto rigor, el matemático clásico que acepta el principio del tercio excluso y el matemático constructivo que lo rechaza, no hablan de lo mismo. Incluso con las conectivas constructivas, existen proposiciones a las que cabe aplicar el principio del tercio excluso. Los argumentos que acusan de ligereza a las afirmaciones corrientes no justifican el rechazo del tercio excluso: la matemática exige la existencia de enunciados que puedan afirmarse o negarse necesariamente. El tercio excluso deja de aplicarse para el caso de proposiciones cuya demostración o refutación exigiría decidir una infinidad de preguntas. A veces ocurre que un método adecuado permite zanjar un problema mediante un razonamiento finito, pero no siempre es éste el caso. Los símbolos constructivos ⋁, ⇒, ∃ no adquieren sentido preciso más que mediante una definición precisa de lo que es un procedimiento regular. Las diversas definiciones de la calculabilidad propuestas por los lógicos han demostrado ser equivalentes.[42] El continuo constructivo Son tres las ilusiones que contribuyen a adoptar la idea clásica del continuo: la «continuidad» de las magnitudes físicas, la intuición geométrica y las construcciones matemáticas de Cauchy, Weierstrass, Dedekind o Cantor. Una magnitud física nunca es un número real, sino que presenta una cierta indeterminación; por ejemplo, no tiene sentido definir la longitud de una regla con un error inferior al radio del átomo. La recta real posee propiedades que están en contra de la intuición: existe un abierto de medida <ε en el cual, contra todas las apariencias, están contenidos todos los racionales. La definición de los números reales por las cortaduras de Dedekind o por las sucesiones de Cauchy es insuficiente, puesto que, según el teorema de Cohen, es posible añadir como axioma tanto la hipótesis del continuo como su negación sin crear ninguna contradicción. En lugar del continuo «clásico», vamos a presentar el continuo constructivo. La noción primitiva no es ya el número real, cuya definición mediante las cortaduras de Dedekind exige una cuestión decidible para todo número www.lectulandia.com - Página 156
racional, sino el dúplex constituido por una sucesión de racionales y un regulador de convergencia. Un dúplex está constituido por una sucesión de racionales y un regulador de convergencia, es decir por una sucesión de racionales u(n) y una sucesión de enteros c(n) tales que: m, m' ≥ c(n) ⇒ |u(m) − u(m')| < 2−n. Se define el valor absoluto de un dúplex, su máximo, su mínimo, la suma, la diferencia y el producto de dos dúplex y, para todo dúplex no nulo, su inverso. Estas operaciones poseen todas ellas las propiedades clásicas. Se escribe x = 0 si existe una sucesión d(n) tal que: m ≥ d(n) ⇒ n(m) < 2−n. Hay que distinguir entre x ≠ 0 (x distinto de 0), que significa simplemente que x no puede ser nulo, y x # 0 (x separado de 0), que significa que existe un entero m tal que . La noción de dúplex equivale a la de sucesión en contracción de intervalos racionales y a la de cortadura constructiva. Números irracionales y trascendentes Ya en 1899 Emile Borel subrayaba el carácter no constructivo de las demostraciones de irracionalidad y de trascendencia, proporcionando la primera medida de la trascendencia de e. Desde entonces, uno no puede contentarse con afirmar la irracionalidad o la trascendencia de tal o tal constante del análisis, sino que hay que indicar una medida de dichas irracionalidad o trascendencia. Por ejemplo, no basta con decir que π o eπ son trascendentes, sino que es necesario precisar que, para cada racional ,
Para casi todo número real α > 1, es decir salvo en un conjunto de medida nula, los αn están «bien repartidos» sobre el grupo aditivo de ℝ/ℤ; existe, sin embargo, un problema importante y no resuelto que es el de nombrar un α tal que los αn estén bien repartidos. Los tratados de teoría de números plantean, y resuelven eventualmente, numerosos problemas de efectividad que, dentro de un enfoque no constructivo, no
www.lectulandia.com - Página 157
podrían plantearse. Esperamos haber puesto de manifiesto que la escuela constructivista, lejos de renegar de ningún resultado de las matemáticas clásicas, plantea los problemas de una manera más fina; y en concepto de ello solicita que sea reconocido el interés de sus métodos y la importancia de sus resultados.[43]
Bibliografía J.-P. Azra y B. Jauliri, Récursivité, París, Gauthier-Villars, 1973. E. Bishop, Foundations of Constructive Analysis, Nueva York, MacGraw Hill, 1967. G. S. Boolos y R. C. Jeffrey, Computability and Logic, Cambridge University Press, 1967; 2.ª ed. revisada y aumentada: 1980. N. Bourbaki, Théorie des ensembles, Paris, Hermann, 1954-1960. M. Davis, Computability and Unsolvability, Nueva York, MacGraw Hill, 1958. R. L. Goodstein, Recursive Analysis, Amsterdam, North-Holland, 1961. H. Hermes, Enumerability, Decidability, Computability, Heidelberg, Springer, 1965. A. Heyting, Les fondements des mathématiques. Intuitionnisme. Théorie de la démonstration, Paris, Gauthier-Villars, 1955. D. Hilbert, «Auf das Unendliche», Mathematische Annalen, vol. 95, 1926, págs. 161190. N. D. Jones, Computability theory, Nueva York, Academic Press, 1973. S. C. Kleene, Introduction to Metamathematics, Amsterdam, North-Holland, 1952. S. C. Kleene y R. E. Vesley, The Foundations of Intuitionistic Mathematics, Amsterdam, North-Holland, 1965. J. Loeckx, Computability and decidability, Heidelberg, Springer, 1976. P. Lorenzen, Einfuhrung in die operative Logik und Mathematik, Heidelberg, Springer, 1955, 1959. A. I. Malcey, Algorithms and Recursive Functions, Groningen, Wolters-Noordhoff, 1970. A. A. Markov, Theory of Algorithms, Jerusalen, Israel Program for Scientific Translations, 1961.
www.lectulandia.com - Página 158
V. A. Ouspensky, Leçons sur les fonctions calculables, Paris, Hermann, 1966. R. Peter, Recursive Functions, Nueva York, Academic Press, 1967. H. Poincaré, La science et l’hypothèse, Paris, Flammarion, 1902. — La valeur de la science, Paris, Flammarion, 1905. — Science et méthode, Paris, Flammarion, 1908. H. Rogers, Theory of Recursive Functions and Effective Computability, Nueva York, MacGraw Hill, 1967. N. A. Shanin, «Constructive real numbers and constructive function spaces. Translations of mathematical monographs», American Mathematical Society, vol. 21, 1968. H. Weyl, Das Kontinuum, Leipzig, 1918. Reimp. Nueva York, Chelsia, s. a. A. Yasuhara, Recursive Functions and Logic, Nueva York, Academic Press, 1971.
www.lectulandia.com - Página 159
La semántica recursiva de Davidson y de Montague Paul Gechet
1. Los argumentos que se esgrimen contra la aplicación a la lengua natural de los métodos utilizados en el estudio de los lenguajes formales Desde que en 1934 apareció la obra de Carnap, Logische Syntax der Sprache, es bien sabido el modo de construir la sintaxis de un lenguaje formalizado. Las exigencias que debe satisfacer el lógico se resumen en cuatro puntos. Es preciso: 1.º enumerar los símbolos primitivos; 2.º definir la noción de expresión bien formada, o sea enunciar las reglas de formación; 3.º especificar los axiomas; 4.º formular las reglas de inferencia. En cada caso, debe respetarse la exigencia de efectividad. Lo que significa, en términos técnicos, requerir la recursividad para las etapas 1.º y 2.º, y la enumerabilidad recursiva para 3.º y 4.º. El modo de construir la semántica de un lenguaje formalizado es igualmente bien sabido. Hace más de cuarenta años, Tarski demostró que puede darse una definición rigurosa de las nociones semánticas de verdad, consecuencia lógica y de validez para un lenguaje formalizado tal como el álgebra de Boole o el cálculo de predicados. Los creadores de la sintaxis y de la semántica formales fueron los primeros en preguntarse si los métodos que habían inventado para estudiar la sintaxis y la semántica de las lenguas artificiales podían aplicarse a las lenguas naturales. Su respuesta es negativa. En Logische Syntax der Sprache, Carnap afirma que «la exposición de las reglas formales de formación y de transformación de las lenguas naturales sería tan complicada que resultaría poco menos que imposible llevarla efectivamente a cabo».[44] Tarski comparte el escepticismo de Carnap por lo que hace a la semántica. Excluye la posibilidad de extender su definición de verdad al lenguaje natural.[45] Resulta que es igualmente imposible definir la noción de consecuencia lógica para la lengua natural. Lo cual lleva a Kemeny a afirmar que «el lenguaje ordinario no concuerda con los argumentos lógicos».[46]
2. Competencia verbal y recursividad
www.lectulandia.com - Página 160
En 1970 un lógico americano, formado en la escuela de Tarski, tomó una postura diametralmente opuesta: «Rechazo, escribe R. Montague, la tesis de quienes pretenden que existe una diferencia teórica importante entre los lenguajes formales y las lenguas naturales. […] Como Donald Davidson, considero que la construcción de una teoría de la verdad —o mejor, de la noción más general de verdad en una interpretación arbitraria— es el objetivo principal de la sintaxis y de la semántica que se tengan por serias».[47] Para comprender el alcance de las tesis de Davidson, conviene partir del problema que él intentó resolver y que puede formularse así: «Todo sujeto hablante conoce el significado de un número finito de palabras y sabe aplicar un número finito de reglas de formación. Con este equipo, ¿cómo puede comprender un número virtualmente infinito de frases?». Este problema es la trasposición a la semántica del problema que los gramáticos generativistas se plantearon en sintaxis: «Todo hablante reconoce como miembros del léxico de su lengua un número finito de palabras y sabe aplicar un número finito de reglas de formación. En estas condiciones, ¿cómo es capaz de reconocer el carácter “bien formado”, “gramatical” o “con sentido” de un número infinito de frases?». Limitándose a las lenguas formales, el problema de la competencia sintáctica es fácil de resolver. Basta con introducir entre las reglas de formación un número determinado de reglas recursivas. En compensación, resulta difícil formular las reglas de formación de una lengua natural puesto que, mientras un «lenguaje artificial posee todas las propiedades que le quiera comunicar su creador»[48] —y, a veces, propiedades que su creador no quería comunicarle—, una lengua natural es un conjunto infinito de frases bien formadas que preexiste a las reglas de formación formuladas por el lingüista. Supongamos, sin embargo, que se haya resuelto el problema de la competencia sintáctica. La cuestión que se plantea es la de saber si basta con añadirle a la sintaxis una interpretación de las expresiones atómicas para resolver el problema de la competencia semántica. Davidson ha dado una respuesta negativa a esta cuestión crucial: «Si la semántica, tal y como pensamos, ha de contener una teoría de la significación, el conocimiento de las características estructurales que dan cuenta de la gramaticalidad [meaningfulness] de una frase más el conocimiento de la significación de las partes últimas de las frases, no dan como resultado el conocimiento de lo que la frase en cuestión significa…».[49] Un poco más adelante, todavía es más explícito: «La sintaxis recursiva enriquecida con un diccionario no nos da necesariamente una semántica recursiva».[50]
3. Carácter insuficiente de las reglas de proyección
www.lectulandia.com - Página 161
¿Es necesaria la advertencia de Davidson? ¿Existen semánticos que hayan creído que la sintaxis recursiva enriquecida con un diccionario daba necesariamente una semántica recursiva? Katz y Fodor, a quienes debemos la primera semántica recursiva, fueron conscientes del problema ya que introdujeron en semántica un mecanismo dedicado a explicar cómo los significados de las palabras combinadas sintácticamente se «amalgaman» semánticamente: la regla de proyección.[51] Sin embargo, al examinar las cosas más de cerca uno se da cuenta de que las reglas de proyección desempeñan un papel puramente negativo, a saber: el de seleccionar acepciones cuando palabras aisladamente polisémicas se combinan mediante una construcción sintáctica. Por ejemplo, en la frase inglesa analizada por el árbol de la página 104, la regla de proyección que amalgama las acepciones de colorful y de ball tiene como único efecto el de descartar el sentido de «subido de color» cuando el sentido de ball es el de «pelota» y no el de «baile»; por su parte, la eliminación del sentido de «baile» se produce por la combinación de ball con hit. Por lo demás, un lingüista de la misma tendencia, Langendoen, ha reconocido explícitamente este papel puramente negativo. En «On selection, projection, meaning and semantic content»,[52] dice: «Recientes investigaciones en el campo de la gramática generativa permiten ahora considerar como un único y mismo fenómeno lo que antes se trataba como dos cuestiones diferentes: la selección gramatical y la proyección semántica».
Está claro que Katz y Fodor no formularon reglas de composición del significado que resulten verdaderamente satisfactorias. ¿Qué significa, por ejemplo, el verbo «engarzar» aplicado por Katz a «lecturas», es decir a significaciones?[53]
4. Contribución de la definición de la verdad al estudio de la www.lectulandia.com - Página 162
competencia semántica ¿Qué hay que añadirle a la sintaxis recursiva para obtener una semántica recursiva que describa positiva y técnicamente, y no negativa y metafóricamente, el fenómeno de la composición del significado? Hay que añadir, contesta Davidson, una definición recursiva de la verdad al estilo de Tarski: «Una teoría del significado para una lengua L muestra “cómo depende el significado de las frases del significado de las palabras” si contiene una definición (recursiva) de la verdad en L».[54] Como la palabra «significado» no es sinónima de la palabra «verdad», una definición de la verdad no constituye ipso facto una definición del significado. La tesis de Davidson no cae, pues, por su propio peso. Sin embargo, es posible demostrarla bastante fácilmente. Empecemos por identificar el sentido de las frases declarativas con sus condiciones de verdad, tal y como lo hace, por ejemplo, Creswell, cuando afirma en «Semantic competence» que «comprender el sentido de la frase “la nieve es blanca”, quiere decir, entre otras cosas, conocer en qué condiciones (o circunstancias) es verdadera y en qué condiciones es falsa».[55] La tesis de Creswell no es nueva. Los partidarios de la filosofía del lenguaje corriente ya la habían suscrito. En 1952, Strawson afirmaba: «Conocer el significado de una frase enunciativa quiere decir saber en qué condiciones quien la use emitirá un enunciado verdadero».[56] Una vez que se ha admitido la ecuación «significado de una frase declarativa = condiciones de verdad», debe admitirse —por una aplicación trivial del principio de subtituibilidad de los idénticos— que una definición que dice cómo dependen las condiciones de verdad de una frase compleja de las condiciones de verdad de las frases elementales que la componen «nos dice también cómo depende el significado de una frase compleja del significado de las frases elementales que la componen». Ahora bien, esto es precisamente lo que hace la definición recursiva de la verdad de Tarski, en la que encontramos, para cada conectiva proposicional, una cláusula que especifica las condiciones de verdad de la frase compleja en términos de las condiciones de verdad de las frases elementales. Por ejemplo, la cláusula que estipula que «S1 y S2» es verdadero si y solo si S1 es verdadero y S2 es verdadero. Sin embargo, es más lo que se le exige a una definición recursiva del significado. Se le exige, en efecto, que diga también cómo depende el significado de una frase elemental, o sea, sus condiciones de verdad, del significado de las palabras que la integran. No obstante, aquí aparece una dificultad importante: el significado de un elemento constituyente sintáctico que no es una frase y no puede identificarse con sus condiciones de verdad, puesto que únicamente de las frases se puede decir que son verdaderas o falsas. Se puede hablar de las condiciones de verdad de la frase «todos quieren a alguien», pero no de las del predicado «quiere» o de la fórmula abierta «x1
www.lectulandia.com - Página 163
quiere a x2», ya que un predicado no puede ser verdadero o falso, como tampoco puede serlo un nombre propio. El principal descubrimiento de Tarski consistió en superar esta dificultad. Lo hizo en dos etapas. En un principio, definió recursivamente una noción más general que la de verdad: la noción de cumplimiento, la cual se aplica tanto a las fórmulas abiertas (los predicados) como a las fórmulas cerradas (las frases). A continuación, definió la noción de verdad mediante la noción de cumplimiento. Enunciando las condiciones de cumplimiento de los predicados atómicos que son en número finito, y añadiendo a esas condiciones reglas recursivas que especifiquen cómo depende el cumplimiento de un predicado complejo del cumplimiento de sus elementos constituyentes, se puede, pues, mostrar, como dice B. Partee, «cómo contribuyen las condiciones de cumplimiento de la fórmula abierta a las condiciones de verdad de la frase completa». [57] Por ejemplo, puede mostrarse cómo contribuye el significado de los predicados
«quiere» y «aborrece» al significado de la frase «todos quienes o aborrecen a alguien». Davidson ponía en tela de juicio que una sintaxis recursiva combinada con un diccionario constituyera una semántica re cursiva. Tarski le aporta lo que faltaba en Katz y Fodor: una semántica recursiva autónoma. Esta semántica recursiva es autónoma, pero con todo paralela a la sintaxis recursiva: a cada regla sintáctica de formación de una expresión compleja de un tipo determinado le corresponde una regla semántica que especifica las condiciones de cumplimiento de ésta. Pero Davidson se propone limitar esta teoría recursiva de la verdad a un cálculo de predicados de primer orden. El pasaje antes citado lo dice claramente: «Durante el proceso, se confiere a determinadas expresiones la función de actuar como referencias —las variables—, pero no debe considerarse que ninguna expresión nombre o denote nada, a excepción de los términos singulares no reducidos».[58]
5. Las innovaciones de Montague Inspirado por escrúpulos metafísicos de carácter nominalista, Davidson ha tratado de recoger el guante arrojado por Tarski, o sea, ha intentado extender a la lengua natural los conceptos rigurosos forjados para la descripción de los lenguajes formales. Pero más que ajustar la lógica a la lengua natural, lo que hace es lo contrario: hace marchar a la lengua natural al son del formalismo del cálculo de predicados, al igual que Quine, pero por motivos distintos. También Montague cree que los métodos de la semántica formal pueden aplicarse a la lengua natural; pero abandona el cálculo de predicados de primer orden en beneficio de una gramática categorial que incorpora las categorías utilizadas tradicionalmente por los gramáticos para la descripción de la
www.lectulandia.com - Página 164
lengua natural, como por ejemplo las categorías de adverbio o de proposición. Al contrario de Davidson, Montague confiere una denotación autónoma a las expresiones de todas las categorías y, rechazando todo escrúpulo nominalista, apela sistemáticamente a la teoría de conjuntos para construir las denotaciones de las expresiones categoremáticas de la lengua estudiada. Montague se distingue igualmente de Davidson por el hecho de sustituir la noción absoluta de verdad por la de verdad relativa a un modelo, lo que le permite definir las nociones de «verdad lógica» y de «consecuencia» para el fragmento de lengua natural que formaliza. Por último, Montague reconoce la necesidad de completar la lógica extensional con una lógica intensional. En compensación, Montague conserva una exigencia que es fundamental para Davidson: la de que exista una correspondencia perfecta entre la sintaxis y la semántica. Montague exige, en efecto, que cada regla de combinación sintáctica esté emparedada con una regla de combinación semántica de las denotaciones. Así pues no cree, como tampoco Davidson, que una sintaxis recursiva surtida con una interpretación de las expresiones atómicas constituya una semántica recursiva. Incluso desarrolla una concepción de la correspondencia mucho más técnica que la de Davidson. Vamos a estudiarla sobre un ejemplo, haciendo por lo demás abstracción de la intensión. Sea, por ejemplo, la frase elemental «Juan canta», cuyo árbol se presenta así:
Aquí estamos en presencia de tres expresiones sintácticas distintas: «chante» es aquí un verbo intransitivo, «Jean» es un término singular, y «Jean chante», que resulta de la combinación de ambos, es una frase. Esas tres expresiones sintácticas pertenecen a categorías sintácticas y su denotación, a tipos semánticos distintos. Los verbos intransitivos como «canta» pertenecen a la categoría sintáctica Ct/e nombres propios, a la categoría sintáctica Ct/(t/e); las frases, a la categoría sintáctica Ct. Las denotaciones de los verbos intransitivos pertenecen al tipo semántico Tt/e que reagrupa a las funciones que asignan un valor veritativo a los individuos del dominio De. En otros términos: Tt/e = {f : De → {0, 1}}.
www.lectulandia.com - Página 165
Las denotaciones de los términos singulares como «Jean» pertenecen al tipo semántico que reagrupa a las funciones que asignan un valor veritativo a las funciones del conjunto precedente. En otros términos: Tt/(t/e) = {g : {f : De → {0, 1}} → {0, 1}}. Las denotaciones de las frases pertenecen al tipo semántico Tt que reagrupa los valores veritativos: Tt = {0, 1}. Aquí se ve, por consiguiente, que, contrariamente a Davidson, Montague concede una denotación a las expresiones de todas las categorías sintácticas. Nada hay de raro en dar a «chante» como denotación la función que asigna el 1, es decir el valor verdadero, a algunos individuos del dominio De, —a saber, los que cantan— y que asigna a los demás el 0, es decir el valor falso. Esta función, en efecto, no es otra que la llamada «función característica de un conjunto», en este caso, la de la clase de los cantores. Ahora bien, se dice corrientemente que la extensión de un verbo intransitivo, como la de un nombre común, es una clase. Nada hay de raro tampoco en darles a los términos singulares una función característica de clase como denotación. Con ello no se hace sino retomar la idea leibniziana del individuo concebido como una colección de propiedades. Por lo demás, la elección de Montague viene motivada por consideraciones lingüísticas y no por argumentos metafísicos. No sólo existe correspondencia entre categoría y tipo, sino que también hay correspondencia entre las operaciones sintácticas que combinan expresiones de categoría diferente y las operaciones semánticas que combinan denotaciones de tipo diferente. Así, por ejemplo, para engendrar una frase (de categoría) Ct como «Jean parle», debe emplearse una regla sintáctica de aplicación funcional que estipula que si «Jean» ∈ Ct/(t/e) y si «parle» ∈ Ct/e, entonces «Jean parle» ∈ Ct. Paralelamente, para engendrar la denotación de una frase, es decir un objeto de tipo Tt, debe emplearse una regla semántica de aplicación funcional que estipula que la denotación de «Jean parle» es el valor de la función denotada por «Jean» para el argumento denotado por «parle». Al igual que Davidson, Montague reconoce pues la necesidad de operaciones semánticas y de combinaciones de denotación que son paralelas pero distintas de las operaciones sintácticas de combinación de las expresiones. Aplicando esas reglas semánticas de aplicación funcional, se puede en consecuencia calcular la denotación (y por tanto el valor veritativo) de una frase una vez que se conoce la denotación de sus partes. Por ejemplo, si «chante» denota a la función f que asigna el valor Verdadero a los cantores y el valor Falso a los no
www.lectulandia.com - Página 166
cantores; y si «Jean» denota a la función g que asigna el valor Verdadero a una clase de funciones, entre las que se cuenta la susodicha función f; entonces «Jean chante» denota al valor Verdadero. En otras palabras: el valor de la función g aplicada a f es 1. Por regla general, no conocemos la extensión (denotación) de los componentes de la frase, sino sólo su intensión (comprensión). Por eso podemos comprender la frase «Jean chante» sin saber si es verdadera. A los ojos de Montague, las intensiones (con «s») son funciones que tienen sus argumentos en la clase de los mundos posibles (w1, …, wn) y sus valores en las extensiones. Para calcular la extensión de «chante» en nuestro mundo, a partir de la intensión h, o sea de h : {w1, …, wn} → {f : D2 → {0, 1}}, es preciso saber cuál, de entre los mundos posibles, es el mundo real. Ahora bien, ese saber es fáctico y no lingüístico. Sin embargo, existe un vínculo entre los dos, y ese vínculo queda mejor explicado por Montague que por Fodor y Katz.
6. El tratamiento de las preposiciones en una semántica de tipo montaguista La lengua natural cauciona la inferencia «Jean chante dans le jardin, done Jean est dans le jardin», así como «Jean voit Marie dans le jardín, done Marte est dans le jardín»; pero no «Jean voit Marie dans le jardín, done Jean est dans le jardín». ¿Cómo captar la generalidad de la preposición locativa, que tanto puede combinarse con un verbo transitivo como con uno intransitivo, y dar cuenta, a la vez, de las diferencias de dotación inferencial que presentan las dos construcciones? Una sintaxis categorial combinada con una semántica conjuntista está en condiciones de hacerlo, tal y como lo pone de manifiesto un reciente trabajo de Keenan y Faltz que, en cierto modo, es una prolongación original de las gramáticas de Montague. En sintaxis, Keenan y Faltz tratan los sintagmas preposicionales como funciones que tienen como argumentos verbos transitivos o intransitivos, y que toman como valores sintagmas verbales transitivos o intransitivos. Por ejemplo, el sintagma preposicional «dans le jardín» combinado con el verbo intransitivo «chante» nos da el sintagma verbal intransitivo «chante dans le jardín»; mientras que, combinado con el verbo transitivo «voit», nos dará el sintagma verbal transitivo «voit dans le jardin». Como, por otra parte, los verbos intransitivos han quedado subsumidos en la categoría sintáctica de las funciones que tienen términos definidos como argumentos y que toman como valores frases, mientras que los verbos transitivos han quedado
www.lectulandia.com - Página 167
subsumidos en la categoría de las funciones que tienen términos definidos como argumentos y toman como valores verbos intransitivos, se ve enseguida que el argumento de un verbo intransitivo no tendrá en absoluto la misma función gramatical que el de un verbo transitivo. El término definido «Jean», por ejemplo, tomado como argumento del verbo «chante» o del sintagma verbal «chante dans le jardín», es el sujeto del verbo; mientras que el término «Marie», tomado como argumento del verbo transitivo «voit» o del sintagma verbal transitivo «voit dans le jardín», es el complemento directo del verbo. El cálculo de predicados escamotea completamente la diferencia de función gramatical que acabamos de mencionar. En efecto, dicho cálculo sólo es sensible a la diferencia de n-adicidad de los predicados; reconoce que los verbos intransitivos son predicados monádicos, que los verbos transitivos son predicados diádicos, que los verbos ditransitivos son predicados triádicos, etc., pero borra totalmente la distinción entre sujeto y complemento directo, como ha observado Church: «Por el momento, no disponemos aún de una lógica correcta y adecuada que mantenga la distinción del lenguaje corriente entre el sujeto y el objeto del verbo».[59] La formulación del principio a partir del cual Keenan y Faltz han podido deducir, respectivamente, la validez y la no validez de las inferencias mencionadas al comienzo de esta sección, exige algunos preámbulos terminológicos. Sea δ un verbo (intransitivo o transitivo) y f un sintagma preposicional, siendo f la función y δ el argumento; sean, por último, los términos definidos Ih1 … Ihn. Designemos por 1VP el verbo «existe», que recibe el tratamiento de una constante lógica: su interpretación es una función que asigna el valor Verdadero a todos los individuos. Finalmente, designemos por 0δ(Ib) el elemento 0 del álgebra de los verbos intransitivos (más adelante volveremos a hablar de esta noción). Ahora podemos formular el principio que rige las inferencias. Se presenta como una constricción impuesta al modelo o, más exactamente, impuesta, en el modelo al tipo semántico de las preposiciones. Se dirá que el tipo semántico de los sintagmas preposicionales es el conjunto de las funciones que preservan los tipos —efectivamente, un sintagma preposicional combinado con un verbo intransitivo da de nuevo un verbo intransitivo; mientras que, combinado con un verbo transitivo, vuelve a dar un verbo transitivo— y que satisfacen la siguiente exigencia: (1)
∀Ib (f(δ))Ib = δ(Ib) si
(f(1VP))Ib = 1,
(2)
∀Ib (f(δ))Ib = 0δ(Ib) si (f(1VP))Ib = 0.
Si en esta fórmula se sustituye Ib por «Jean», δ por «chante» y f por «dans le jardín», la primera línea del principio dice así: «El valor —es decir, la denotación— de “Jean chante dans le jardín” = el valor de “Jean chante” si “Jean existe dans le
www.lectulandia.com - Página 168
jardín” tiene el valor veritativo Verdadero. Si sustituimos a δ por “voit” e Ib por “Marie”, la primera línea del mismo principio nos dirá que “voit-dans-le-jardin Marie” tiene la misma denotación que “voit Marie” si “Marie existe dans le jardín” tiene el valor veritativo Verdadero». Así pues, el mismo principio produce efectos diferentes merced a la diferencia de input producida por la representación de los verbos transitivos y de los verbos intransitivos en una gramática categorial capaz de reflejar la simetría entre el sujeto de los verbos intransitivos y el objeto de los verbos transitivos, simetría que viene expresada por el hecho de que son, tanto el uno como el otro, el argumento δ de la función f(δ). Para demostrar la inferencia «Jean a vu Marie dans le jardín, done Marie est dans le jardín», es decir ((f(δ))Ib0)Ib1 = (f(1PV))Ib0 basta con una demostración muy simple por reducción al absurdo. Se postula que el antecedente es verdadero y el consecuente falso y, mediante transformaciones algebraicamente triviales, se deduce la negación de la premisa de la negación de la conclusión, es decir ((f(δ))Ib0)Ib1 = 0, lo que constituye una contradicción con la hipótesis:
El tipo semántico que Keenan y Faltz asocian a la categoría sintáctica del verbo intransitivo, no es, como lo era en el caso de Montague, el conjunto de las funciones con argumentos en el dominio De y que toman valores en el conjunto de los valores veritativos {0,1}; solamente es un subconjunto propio de dichas funciones, a saber el conjunto de los homomorfismos con argumentos en el dominio de los individuos Ib1 … Ibn y que toman valores en el álgebra de las proposiciones. En otros términos, se trata del tipo TVP = {b : {Ib1 … Ibn} → {0,1}, ⋁, ⋀, ¬, 0, 1,≤)}.
www.lectulandia.com - Página 169
El tipo semántico de los verbos transitivos será el conjunto de los homomorfismos que tienen sus argumentos en el dominio de los individuos y que toman sus valores en el álgebra de los verbos intransitivos. Para apreciar la fecundidad de esta definición, más estructurada, de los tipos, consideremos las siguientes inferencias que, a excepción de la tercera, son válidas: Jean n’est pas dans le jardín, donc Jean ne chante pas dans le jardín Marie n’est pas dans le jardín, done jean ne voit pas Marie dans le jardín Jean n’est pas dans le jardín, donc personne ne chante dans le jardín Maríe n’est pas dans le jardín, done personne ne voit Marie dans le jardín. ¿Por qué es válida la cuarta inferencia, siendo así que la tercera no lo es? ¿Cómo explicar la diferencia de dotación inferencial entre «voir» y «chanter» combinados con el sintagma preposicional «dans le jardín»? Las propiedades algebraicas de los tipos permiten dar cuenta de estas particularidades de la lógica inscrita en la lengua natural. Veamos cómo. En sustancia, Keenan y Faltz dicen que, si Juan no está en el jardín, entonces «chante dans le jardín» asignará a «Jean» el mismo valor (denotación) que le asignaría el elemento 0 del álgebra de los verbos intransitivos. Ahora bien, el elemento 0 del álgebra de los verbos intransitivos es el homomorfismo que envía a todos los individuos sobre el elemento 0 del álgebra de proposiciones, es decir, sobre el Falso. Por otra parte, si María no está en el jardín, entonces «voit dans le jardin» asignará a «Marie» el mismo valor (denotación) que le asignaría el elemento 0 del álgebra de los verbos transitivos envía todos los individuos (y no sólo a Juan) sobre el elemento 0 del álgebra de los verbos intransitivos y por consiguiente, en definitiva, sobre el Falso. Se alcanza así el objetivo, consistente en dar cuenta del hecho de que, si María no está en el jardín, verla en el jardín no solamente es falso para el caso de Juan, sino para el de todos. En otras palabras, queda justificada la conclusión de que nadie ve a María en el jardín. La obra de Keenan y Faltz (Logical types of natural language), inédita todavía pero en curso de edición (Reidel), es una excelente ilustración de la siguiente afirmación del Baldwin, que nos servirá como conclusión.[60] «Aquello para lo que nos capacita la teoría de modelos es para mostrar cómo una concepción de la verdad de frases de alguna especie transporta consigo una concepción de las inferencias válidas en las que figuran esas frases y viceversa».[61]
www.lectulandia.com - Página 170
Algunas reflexiones sobre las relaciones entre lingüística y matemáticas Jean-Pierre Desclés
1. Naturaleza y objeto de la lingüística Como disciplina constituida, la lingüística es una ciencia con base empírica que trata de sistemas simbólicos significantes separables de una realidad concreta y vivida. ¿Qué significa este aserto? Si la lingüística reposa sobre un fundamento empírico, hay que precisar cuál es e indicar cómo aprehenderlo. Existen datos observables (como en física y en biología) que el lingüista debe aprender a constituir y dominar; «hechos» que hay que descubrir y apreciar, integrándolos en problemas organizados según una serie de preguntas a las que es necesario responder si se pretende constituir una teoría; aproximaciones y reajustes necesarios entre los datos observados y los datos construidos. Así pues, hay que aprender a constituir problemas lingüísticos. Quienquiera que «sepa» una lengua no sabe, forzosamente, observarla.[62] En lingüística, como en toda disciplina con base empírica, la observación se aprende, se prepara, se controla… La ilusión de estar al mismo nivel que nuestra propia lengua puede llevar, a quien no está preparado, a creer que, en lingüística, la observación es inmediata. Pero no hay nada de eso. Es necesario proporcionarse una teoría de la observación y caracterizar los tipos de observables. Tal parece que los objetos más directamente observables para el lingüista (al menos, actualmente) sean los enunciados producidos en contexto significante. El enunciado es más directamente observable que la palabra (ligada esencialmente a lo escrito) y que la frase (relativa a esquemas canónicos ligados explícitamente a una norma), pero no es un objeto puro y simple; su forma le viene impuesta por quien lo observa y lo manipula, dejando aparte la curva melódica, la prosodia, la segmentación… otras tantas decisiones que, ciertamente, hacen más manipulable al enunciado observado, pero que también lo idealizan más y más; como unidad teórica, el enunciado es un producto construido por un acto de enunciación, es la unidad mínima de enunciación. Nótese igualmente que no existe un «hecho lingüístico» en sí. Un hecho sólo se convierte en significativo al relacionarse con un conjunto de otros hechos. Por ello, las más de las veces, cuando se quiere estudiar por ejemplo el problema de las categorías gramaticales, se procura constituir familias paradigmáticas de enunciables (sucesiones de signos susceptibles de convertirse en enunciados a condición de que se
www.lectulandia.com - Página 171
añadan algunas precisiones complementarias) como la siguiente:
donde es preciso explicar: ¿por qué al conmutar ciertos signos (sa/la en (2)) se obtienen sucesiones que ya no poseen el mismo estatuto de enunciabilidad? ¿Cuál es el significado de la oposición est/a (être/avoir) en (3) por ejemplo? ¿Por qué la disposición de (4) necesita de sa con chemise y no con nez o front, etc.? Hemos dicho que la lingüística trataba de sistemas simbólicos significantes separables de una realidad vivida. En efecto, una lengua natural es un sistema de representaciones que el usuario utiliza para representar sucesos o estados de un mundo aprehendido por los sentidos; sin embargo, las representaciones se han hecho autónomas. Ello significa que los signos y las combinaciones de signos permanecen independientes de lo que representan: pueden producirse y utilizarse sin que aquello que designa esté obligatoriamente presente. Un enunciado producido no está necesariamente vinculado al suceso o al estado que designa o que suscita. De hecho, el objeto de la lingüística es doble, puesto que es, a la vez, el lenguaje y las lenguas naturales; o, mejor, «el lenguaje aprehendido a través de la diversidad de las lenguas naturales» (A. Culioli). El lingüista se interesa por el lenguaje a partir de la observación del funcionamiento de las lenguas, las cuales, ciertamente, pueden parecer irreductibles las unas a las otras, pero son, con todo, realizaciones múltiples y diversas de invariantes verbales que el lingüista debe reconstruir mediante procedimientos repetitivos. Esta búsqueda de invariantes (los invariantes más interesantes son formales) se lleva a cabo a partir de observaciones numerosas, variadas y controladas. Cada reconstrucción es una hipótesis que hay que verificar por medio de una validación apropiada, imaginando protocolos experimentales capaces de dominar mejor la riqueza y la complejidad de las lenguas.
2. Una proposición fundamental acerca de la complejidad de las
www.lectulandia.com - Página 172
lenguas Hablar de lingüística y de matemáticas tiene como inmediata consecuencia la de recordar los papeles desempeñados por el lingüista americano Noam Chomsky [1] y por el matemático francés Marc-Paul Schützenberger [2], que son verdaderos pioneros, aunque haya que considerar también otros trabajos importantes (los de S. Marcus, Y. Bar-Hillel, S. K. Shaumyan, Z. S. Harris…) [3, 4]. N. Chomsky tiene la reputación de haber formulado, hará cosa de veinticinco años, una proposición que vamos a enunciar, y de la que luego haremos comprender el significado antes de discutir su alcance. PROPOSICIÓN
(lingüística): Cada lengua natural posee una sintaxis que no puede describirse de un modo efectivo por medio de una gramática independiente del contexto (en términos técnicos: ninguna lengua natural pertenece a la clase de los lenguajes context-free). No es posible dar una explicación completa del significado de esta proposición, que apela a la «teoría de las gramáticas y lenguajes formales», desarrollada para dar respuesta a determinados problemas lingüísticos e informáticos (estudio de la sintaxis de los lenguajes de programación y de su compilación [5]). Un LENGUAJE FORMAL L es una parte de un monoide libre sobre un alfabeto.[63] Una GRAMÁTICA FORMAL G es un conjunto finito de reglas que caracterizan exactamente a las sucesiones (de símbolos del alfabeto) que pertenecen al lenguaje. Así pues, una gramática formal introduce una restricción en la combinatoria libre de los símbolos de un alfabeto. Una gramática formal limita las disposiciones en que pueden presentarse los símbolos al proporcionar reglas imperativas de ordenación. Una frase de un lenguaje formal es una «sucesión (de símbolos) bien formada» (según las reglas de la gramática) tal que todos sus símbolos pertenezcan a un subconjunto (llamado terminal) del alfabeto prefijado. Se trata, pues, de caracterizar una lengua natural (considerada, en una primera aproximación, como un conjunto de enunciados) poniéndola en correspondencia biyectiva con un lenguaje formal (es decir, un conjunto de «frases») engendrado por una gramática formal explícita. Para ello, se utiliza un alfabeto que es unión disjunta de dos alfabetos (más bien llamados vocabularios): VT ⋃ VA. VT es un conjunto de símbolos terminales interpretados como entradas del léxico de un diccionario; VA es un conjunto de símbolos auxiliares interpretados como etiquetas de categorías (nombre, verbo, adjetivo, …, sintagmas nominales o verbales…). Una gramática formal G = consta entonces de: un alfabeto de base VT ⋃ VA (o vocabulario); un conjunto finito R de reglas de reescritura que
www.lectulandia.com - Página 173
transforman una subsucesión de símbolos, extraída de una sucesión, en otra subsucesión; un símbolo distinguido P de VA, llamado axioma de la gramática. Una tal gramática G es, por consiguiente, un sistema formal cuyas «sucesiones bien formadas» se engendran todas ellas a partir del axioma P aplicando únicamente las reglas de transformación de G. Por ello, al símbolo P se le llama «símbolo de frase», puesto que una «sucesión bien formada», engendrada a partir del axioma P, es una frase del lenguaje formal. Una gramática formal se dice independiente del contexto cuando cada regla de R puede aplicarse a un único símbolo de VA con independencia del contexto en que aparece dicho símbolo. Se demuestra entonces que todo historial de producción (o conjunto estructurado de las «sucesiones bien formadas» obtenidas a partir del axioma P) de una «frase» engendrada por una gramática independiente del contexto, puede representarse por un grafo arborescente y que la sucesión de terminales —o «frase» engendrada— está canónicamente «bien encorchetada». El ejemplo más simple lo proporciona el lenguaje Lnn = {an bn; n ≥ 1}, integrado por sucesiones de n símbolos a seguidos de otros tantos símbolos b. Para cada n, la sucesión anbn está «bien encorchetada»: (a(a … (ab) … b)b). Puede verificarse inmediatamente que toda expresión aritmética (o lógica) bien formada es encorchetable. Por ejemplo: ((2 + (5 × 7)) × (6 − 7)). Las gramáticas independientes del contexto (llamadas asimismo de Chomsky o, también, algebraicas) formalizan adecuadamente el análisis estructural desarrollado por la lingüística norteamericana durante los años 1930-1950 (Bloomfield, Wells, Harris…) y por la europea (Tesniére…). Este tipo de análisis es taxonómico, ya que cada «historial de producción» de una frase permanece en un nivel clasificatorio: los símbolos de las categorías (sintagmáticas) representan clases de equivalencia de objetos observables (ítems o sucesiones de ítems léxicos). El «historial de producción» es de hecho una jerarquía de particiones cada vez más finas, cada una de las cuales representa una segmentación clasificatoria de la frase. El estudio algebraico de la clase de los lenguajes independientes del contexto[64] consiste en asociar a cada lenguaje formal una serie formal de variables no conmutativas; ello lleva a desarrollar una parcela matemática que ha conseguido conquistar su autonomía. ¿Cuál es la pertinencia lingüística de la proposición antes enunciada? Consideremos algunos ejemplos:
www.lectulandia.com - Página 174
En (5), vemos un ejemplo en el que las relativas se ensartan una tras otra, mientras que (6) presenta un ejemplo de encaje de una relativa en el enunciado: Jean est parti. La estructura de encaje aparece en el esquema (7'); es esencialmente una estructura encorchetada que admite una definición recursiva.[65] Nótese que, si bien es posible enlazar cuantas relativas se desee según una constricción markoviana[66] (ejemplo (5), esquema (5’)), el encaje de relativas no es enteramente recursivo, puesto que, por ejemplo, (7) es mucho menos aceptable (al menos, oralmente, que (6). Otros ejemplos muestran que la estructura de buen encorchetamiento queda rota por determinados indicadores de remisión o de repetición. Así, la introducción de pronombres (se les llama más bien anafóricos) permite hacer más aceptable a(7); en lenguaje oral, se emplearía más bien la construcción:
Representemos mediante enlaces de identificación las relaciones asociadas a los anafóricos. Poco más o menos, tenemos:
El enlace anafórico que representa a la relación asociada a le en elle l’a vu «rompe» la estructura encorchetada, puesto que Jean, por un lado, y elle l’a vu, por el otro, no están situados en el mismo nivel jerárquico ni, por consiguiente, en el mismo paréntesis: en efecto, le remite a una término que se encuentra en un nivel jerárquico muy diferente. Existen enunciados cuya estructura sintáctica no es representable mediante una expresión bien encorchetada. Citemos, por ejemplo:
o también, en francés hablado (por lo tanto, con una curva melódica adecuada): www.lectulandia.com - Página 175
donde se ve el encabalgamiento de los distintos enlaces anafóricos. Así pues, en los enunciados (9) y (10) tenemos constricciones de entrecruzamiento del tipo:
Muchos enunciados poseen estructuras con un orden de complejidad comparable al entrecruzamiemo. Este fenómeno se hace directamente aparente, por ejemplo, en el caso de reduplicación de complementos en las lenguas balcánicas (rumano, albanés, griego moderno, algunos dialectos búlgaros…); viene ilustrado por el ejemplo francés (10) expuesto más arriba. La estructura del «buen encorchetamiento» asociada intrínsecamente a las gramáticas independientes del contexto no es lo suficientemente compleja como para describir determinadas ordenaciones sintácticas de las lenguas. Por otra parte, está demostrado el teorema matemático siguiente: «Todos los lenguajes formales que poseen recursivamente el tipo de constricción con entrecruzamiento no pueden ser exactamente engendrados por una gramática independiente del contexto». Así, el lenguaje formal Lnnn = {anbncn; n ≥ 1} integrado por todas las sucesiones formadas por n a, seguidas de exactamente n b y, luego, de n c, no puede ser en absoluto engendrado por ninguna gramática independiente del contexto. Cada sucesión de ese lenguaje está sometida a una constricción subyacente (en entrecruzamiento); por ejemplo, para la sucesión a3b3c3 = aaabbbccc:
www.lectulandia.com - Página 176
De todo lo que precede resulta la proposición anteriormente enunciada. Esta significa que ninguna descripción efectiva de las constricciones sintácticas de las lenguas naturales puede ser provista adecuadamente de un modelo por medio de una gramática formal independiente del contexto. La discusión de la proposición lingüística puede tratar de dos puntos: 1.º Las lenguas naturales ¿poseen vínculos recursivas de entrecruzamiento? 2.º Si se admite la no recursividad del entrecruzamiento ¿es posible describir efectivamente la totalidad de una lengua mediante una gramática independiente del contexto? Las observaciones empíricas llevan más bien a dar una respuesta negativa a la primera pregunta. En cuanto a la segunda, se puede mostrar que, si se quiere describir una lengua mediante una gramática independiente del contexto, entonces el número de reglas sería demasiado grande para resultar manipulable de un modo «efectivo» (es decir, mediante un programa informático). Además, toda mejora de la «aproximación» (adición de reglas, categorizaciones sintáctico-semánticas más finas) aumentaría de manera exponencial el número de reglas de la gramática. De la proposición precedente, se deduce un corolario: toda lengua natural posee una complejidad estructural igual al menos a la complejidad de los lenguajes producidos por gramáticas independientes del contexto; y toda descripción que quiera ser efectiva deberá recurrir a medios para sacar la lengua en cuestión de la clase de los lenguajes formales engendrados por las gramáticas de ese tipo. Nótese que la mayoría de los lenguajes de programación de alto nivel (tipo FORTRAN o ALGOL 60, o también PL1) no son enteramente descriptibles por una gramática independiente del contexto. Existen, en efecto, declaraciones e identificaciones de objetos, realizadas por lo general al principio del programa; y, al utilizar los objetos en el transcurso del programa, se hace entonces necesario recurrir a un enlace anafórico que vincule la aparición de un objeto con su identificación de tipo (¿se trata de un entero, de un número real, de una cadena de caracteres?), cuyo enlace «rompe» la estructura encorchetada caracterizada por el núcleo sintáctico de los lenguajes de programación. Este hecho introduce una semejanza entre estos lenguajes y las lenguas naturales, al menos cuando se examina la complejidad estructural de las ordenaciones sintácticas.
3. Relaciones de aplicación y de constitución entre lingüística y matemáticas Las relaciones entre lingüística y matemáticas que aparecen en el resultado www.lectulandia.com - Página 177
(enteramente no trivial) mencionado más arriba, pueden caracterizarse como relaciones de aplicación. En efecto, N. Chomsky ha formalizado el «análisis de los constituyentes» de los estructuralistas norteamericanos utilizando un lenguaje algebraico: el de las transformaciones de palabras (formales), de los sistemas de reescritura, de los sistemas semi-thüenianos estudiados algunos años antes por los matemáticos Thüe y Post. Chomsky ha desplazado el problema lingüístico introduciéndolo en el ámbito de las funciones recursivas, lo que explica el lugar central que ocupa la noción de recursividad en el dispositivo chomskyano.4 Resulta en efecto obligado introducir una dicotomía teórica competencia/actuación para «justificar» la aplicación de los sistemas de reescritura al dominio lingüístico. Citemos otros ejemplos de aplicaciones. A menudo se utiliza el cálculo de predicados para representar las lenguas naturales (por ejemplo, en inteligencia artificial). El cálculo de predicados «crea» implícitamente una teoría lingüística, la única que podría justificar tal aplicación. Sin embargo, la teoría lingüística subyacente no se conoce y, por esto, el cálculo de predicados no tiene validez como sistema metalingüístico de representaciones. S. K. Saumjan [6] critica el enfoque chomskyano en numerosos aspectos y, en particular, por lo que hace al formalismo utilizado (sistema de reescritura de las palabras formales). Utiliza la lógica combinatoria como sistema de representaciones, recuperando dos categorías fundamentales (las de los «nombres» y las «proposiciones») heredadas de los lógicos S. Lesniewski y K. Adjukiewicz y utilizadas asimismo por H. B. Curry [7] o por Y. Bar-Hillel [8]. Saumjan considera el sistema de la lógica Combinatoria con tipos como un sistema universal de representaciones de las propiedades invariantes de las lenguas naturales, de lo que deriva su dicotomía: lenguaje genotipo/lenguas fenotipos. El lenguaje genotipo viene engendrado por un determinado sistema de la lógica combinatoria. Este lenguaje genotipo se concreta en diversas lenguas fenotipos, que se distinguen entre ellas por ciertas particularidades específicas e irreductibles. La teoría lingüística se construye, pues, a partir del aparato matemático, lo que implica determinadas consecuencias. Al aplicar una teoría matemática y su formalismo, se produce (a menudo, de un modo implícito) una teoría lingüística que queda así bajo el gobierno del formalismo que la expresa. Sin embargo, algunas opciones, de naturaleza matemática (continuo/discreto; global/local; intrínseco/extrínseco; asociatividad/no asociatividad; simetría/asimetría…) permanecen presentes en toda la utilización del formalismo y de los teoremas demostrados, sin que reciban necesariamente por ello una justificación que valide completamente la aplicación. En efecto, a menudo, para justificar una aplicación, un autor esgrime «argumentos de autoridad» extraídos de varias corrientes dispersas; raramente se trata de conceptos forjados, sino tan sólo tomados en préstamo sin que en toda oración se haya examinado su génesis ni se pretenda su organización en sistemas consistentes. A veces, la aplicación supone incluso el cambio de las reglas del comportamiento científico por una reconstrucción temática www.lectulandia.com - Página 178
de la ciencia o por un recurso (no validado) a otros dominios; recurso, por ejemplo, a lo biológico o a lo psicológico cuando se trata de una teoría lingüística. Tampoco es raro que se privilegien determinadas clases de fenómenos juzgados como paradigmáticos, en perjuicio de otros hechos que se declaran como «poco importantes». Las relaciones de constitución entre lingüística y matemáticas son de otra naturaleza. Se trata, en este caso, de partir de un dominio tematizado y organizado. La teoría intuitiva se desarrolla entonces de acuerdo con su propio paradigma, aislando sus problemas, constituyendo sus datos y organizando su campo conceptual. El recurso a las matemáticas se hace necesario para formular, de un modo operativo, los conceptos conectados entre sí en un sistema del cual se verifica la coherencia, a reserva de recomponer o modificar la teoría inicial en cuanto surja una contradicción. Ciertamente siempre existe un trasfondo filosófico, que a veces puede ser declarado pero que, en la mayoría de ocasiones, permanece oculto (neopositivismo, por ejemplo, o logicismo, o también la negativa a recurrir a una conceptualización demasiado compleja, privilegiando en cambio las simples estructuras taxonómicas…). Globalmente, uno se sitúa en un marco ya dado (sin perjuicio de modificarlo desde el interior), guarda para sí sus opciones filosóficas y sus compromisos ontológicos, y hace del recurso a la actividad científica su única y exclusiva justificación. Lo que cuenta es el despliegue teórico, la adecuación a los datos observables, la coherencia interna, la validación por medio de montajes experimentales… El ejemplo más típico de este tipo de postura lo proporciona el conjunto de los trabajos del lingüista americano Z. S. Harris [9]: nada de digresiones filosóficas (como en el caso de Chomsky o de Saumjan), pocas reflexiones sobre qué debe ser la actividad científica ni sobre sus cánones, y nada de recurrir a una historia de las ideas o a cualquier gran tema filosófico. Por el contrario, las estructuras matemáticas aparecen a partir de una manipulación controlada de los datos. En efecto, por equivalencia y paso posterior a los conjuntos cocientes, Harris edifica un álgebra de operadores componibles entre ellos (mediante operaciones de composición), cuya estructura puede estudiarse. Esta álgebra de operadores se presenta luego bajo la forma de un sistema deductivo, lo que hace posible entonces la validación. Sin embargo, cuando se restringe la matematización a no ser más que «la construcción de un sistema formal» que debe «hacerse cargo» de la teoría intuitiva, se está procediendo a una reducción substancial. Un sistema formal se presenta sintácticamente en forma de un conjunto de axiomas y de reglas deductivas. Ahora bien, la eventual pretensión, para el caso de un dominio que esté ya bien constituido, de reconstruir un sistema global que formalice adecuadamente a la teoría, sólo tiene sentido a posteriori; ésta es la tarea del epistemólogo, que trabaja «a la zaga de los demás» y reflexiona sobre lo que hay maravillándose de que «sea tal cual es». En una ciencia que está desarrollándose, casi nunca se procede de esta manera. Para una
www.lectulandia.com - Página 179
teoría de gran envergadura, no es posible construir un sistema deductivo global; lo que de hecho se construyen son sistemas locales que han de ensamblarse luego, a condición de que sean, sin embargo, compatibles. La formalización de estos sistemas locales permite verificar su compatibilidad y, si se tercia, ensamblarlos.
4. Matematización de los conceptos lingüísticos La matematización de la lingüística supera la mera empresa de formalización mediante la construcción de sistemas formales, incluso locales. Ya hemos dicho que uno de los cometidos de la lingüística consiste en la búsqueda de los invariantes fundamentales del lenguaje. Al trabajar con lenguas que no están emparentadas, uno se da cuenta pronto de que las categorías lingüísticas y gramaticales no son invariantes. Hay que mostrar en consecuencia cómo está organizada tal o tal otra categoría de una cierta lengua. ¿A partir de qué invariantes? ¿Por medio de qué operaciones? Ahora bien, dichos invariantes no pueden ser sino abstractos y venir expresados formalmente [10]. Para dar una forma operativa a esos invariantes, para establecer su notación (por medio de una escritura) y para manipularlos en sistemas coherentes, se hacen necesarios conceptos matemáticos (no sólo lógicos, sino también algebraicos y topológicos). Toda construcción de un sistema de representación metalingüístico pasa por una condición previa: delimitar mejor los conceptos dándoles una forma matemática. En algunos casos, se trata de una verdadera matematización de los conceptos lingüísticos ya integrados en una teoría lingüística. Daremos dos ejemplos, que aquí se tratarán de manera alusiva e informal. Primer ejemplo: la tematización Un sujeto que enuncia procura a menudo tematizar uno de los términos de su enunciado llamando la atención del oyente sobre dicho término, el cual, a continuación, puede encontrarse inserto en una relación predicativa. Así, en el enunciado oral: moi, mon pére, il est ministre, observamos una doble tematización: en moi, y luego en mon pére. Ahora bien, la definición de la tematización varía de un autor a otro, y los lingüistas se contentan con una caracterización poco operativa («información nueva» opuesta a «información antigua»). Al analizar lo que se entiende por tematización, puede mostrarse que en ella están presentes varias operaciones elementales: 1.º establecimiento de una relación entre el término a tematizar y un sujeto enunciante; 2.º sea por repetición anafórica del término para insertarlo a continuación en la relación predicativa, sea estableciendo otra relación (de posesión o de localización, por ejemplo) entre ese término y otro que, a su vez, o www.lectulandia.com - Página 180
bien se repetirá anafóricamente para insertarlo luego en una relación predicativa, o bien se enlazará a un tercer término… Así es como en francés (hablado) tenemos: je suis ministre (sin tematización del tipo indicado); moi, je suis ministre (tematización en moi); moi, mon, pére, il est ministre (tematización en moi, y luego en mon pére, con mon que asegura la relación entre moi y pére); moi, mon pére, son bras, il est cassé (tematización en moi, luego en pére, y finalmente en bras…). Estos problemas se observan en lenguas diversas, ya sea en chino, como en camboyano, o… en bretón. En japonés, por ejemplo, el enunciado: Kazuko iva me ga ooki (desu), se traduciría en francés por: «il y a Kazuko (o: “quant á Kazuko”), ses yeux, ils sont grands» [11]. Análogamente, el análisis del estatuto de la frase nominal en árabe y de los enunciados deformados de una misma familia: Zaydum qama? abuhu ≃ «Zayd, son pére s’est levé» (frase nominal), qama? abu Zaydin ≃ «le pére de Zayd s’est levé» (frase verbal), ?inna Zaudan? abuhu ≃ «il y a Zayd, son pére, il s’est levé» (frase tematizada), haría intervenir operaciones de tematización, lo cual permitiría proporcionar un estatuto operatorio a lo que los antiguos gramáticos árabes denominaban categoría del mubtada. Si, con objeto de manipularlas, se desea introducir una notación para este tipo de operaciones en que un término tematizado está inserto en varias relaciones, es necesario inventar un formalismo adecuado para la representación de esos enunciados en sistemas metalingüísticos. En efecto, la representación arbórea es usual en los análisis sintácticos puramente clasificatorios, o también como notación de la estructura (sintáctica) subyacente en las «expresiones bien formadas» de la lógica clásica (cálculo de proposiciones o de predicados) y en las frases engendradas por toda gramática formal independiente del contexto (véase más arriba); pero dicha estructura se revela por completo inadecuada para la tematización, ya que, en la arborescencia, todo término (nudo de la arborescencia) está inserto en una sola relación (salvo clausura transitiva). ¿Cómo representar formalmente la intrincación de dos o más relaciones? ¿Cuáles son las propiedades algebraicas de la operación de intrincación? ¿Cuál es la estructura engendrada? El análisis de los fenómenos lingüísticos observados nos lleva a la definición de estos problemas matemáticos, lo cual constituye una verdadera matematización del concepto de intrincación.[67] Más en general, de lo que se traía es de dar forma matemática a los conceptos extraídos de la observación y el análisis (teórico) de los datos lingüísticos [12]. Segundo ejemplo: matematización del dominio aspecto-temporal En el dominio del tiempo y del aspecto, la terminología lingüística sigue siendo
www.lectulandia.com - Página 181
muy vaga. Términos como terminativo, logrado, anterior, perfectivo, perfecto, por no mencionar otros, son considerados por algunos como intercambiables, mientras que otros los oponen más o menos explícitamente. En nuestra opinión, el lenguaje de la topología general se presta bastante bien a dar una descripción finita de estos conceptos. Más precisamente: dado un metalenguaje de representaciones formales (de tipo algebraico), determinados operadores de este lenguaje se interpretan como operadores topológicos (construcción del interior, de la clausura, del exterior, de la frontera, construcción de una cortadura continua en el sentido de Dedekind, construcción de una distancia en un espacio métrico…). Dado un enunciado, se le representa por una fórmula interpretada luego en un espacio topológico [15], [16]. Tomemos el perfecto (en líneas generales, el pretérito perfecto [«passé composé»] francés). Se le describe como «un estado resultante o estado adquirido por el autor de la acción expresada por el verbo». Esta definición es demasiado imprecisa. Vamos a describir sucintamente las operaciones (temporales y aspectuales) que intervienen en la descripción de: Jean a écrit une lettre. En el momento ζ0 en que el anunciador enuncia, puede decirse que: 1.º existe un instante t' < ζ0 tal que f es una cortadura continua que separa el conjunto de los instantes que están a la izquierda de ζ0 en dos partes: A1 = {u; u < t' tal que, en u, «Jean» no hace toda válida la relación predicativa}, A2 = {u'; t' < u' tal que, en u', «Jean» hace válida o ha hecho ya válida la relación predicativa}; 2.º existe un instante t'', con t' < t'' < ζ0, tal que t'' es una cortadura continua que separa al conjunto A2 en dos partes conexas: B1 = {v; v < t tal que, en v, «Jean» hace válida la relación predicativa}, B2 = {v'; t'' < v' tal que, en v', «Jean» no hace válida la relación predicativa}. Supongamos que el conjunto de los instantes situados a la izquierda de ζ0 sea ordenado totalmente y continuo; cada uno de los instantes t' y t'' se presenta como una frontera que marca el paso de un estado a otro. El dominio de la validación (al menos, por lo que se refiere a los instantes) de Jean a écrit une lettre es el complementario B2 de B1 respecto de A2. Afirmar Jean a écrit une lettre equivale a decir que, en el momento ζ0 de la enunciación, «Jean ya no escribe una carta, pero que ha habido un instante t' en el que Jean se ha puesto a escribir una carta, y este proceso se ha llevado a su término en t'' para adquirir el estado resultante que se predica de Jean». En el www.lectulandia.com - Página 182
conjunto A2, provisto de la topología del orden, B1 es un cerrado y B2 es un abierto sin punto inicial, pero adyacente a B1 (como consecuencia del hecho de que t'' es una cortadura continua). La adyacencia es lo que caracteriza a lo «perfecto». Para el caso del griego antiguo, es sabido que los estoicos oponían un tiempo determinado (ώρισμένοι) a un tiempo no determinado (άοριοτοι). En el primero se oponían, por una parte el presente y el imperfecto (παρατατιϰοί) por otra parte el perfecto y el pluscuamperfecto (συτελίϰοί); en el segundo se encontraban el aoristo y el futuro. Estas oposiciones pueden describirse en términos topológicos muy simples. Sirviéndose del lenguaje de la topología general es posible organizar las categorías aspectuales y temporales de las lenguas naturales y definir, mediante operaciones topológicas, un gran número de conceptos que tienen que ver con el aspecto. Entonces pueden delimitarse tres dominios provistos de estructuras topológicas: el dominio de lo realizado (el conjunto de instantes a la izquierda del instante ζ0 de enunciación), provisto de la topología del orden; el dominio de lo prospectivo, de orientación opuesta al de lo realizado; el dominio de lo aorístico, provisto de una topología particular (los únicos intervalos validables son cerrados, acotados y disjuntos). Este último dominio es el de la narración, del relato, de la sucesión de acontecimientos que se sitúan los unos con relación a los otros. Así se recuperan, aunque a un nivel más general, las distinciones entre historia y discurso de E. Benveniste, o entre enunciación (besprochene Welt) y narración (erzählte Welt) de H. Heinrich. Podría mostrarse [17], mediante operaciones precisas, cómo se oponen los tiempos morfológicos «pasados» del francés: imperfecto/pretérito perfecto [«passé composé»]/pretérito indefinido [«passé simple»]. Este último tiempo remite a valores del dominio aorístico, mientras que los dos primeros poseen valores que pertenecen a los dominios de lo realizado y de lo aorístico. Para la oposición perfectivo/imperfectivo de las lenguas eslavas, se haría necesario recurrir a un análisis más complejo. En efecto, en búlgaro, el doble valor de Jean a écrit une lettrese traduce por un perfecto imperfectivo (Ivan e pisal pismo, en el sentido de estado resultante) o por un aoristo perfectivo (Ivan napisa (edno) pismo, en el sentido de un acontecimiento inserto en una sucesión), según la interpretación que se le dé al enunciado; mientras que (aujourd’hui) Jean a écrit la lettre (pour sa mère) se traduce mediante un perfecto perfectivo (Ivan e napisal pismoto…) o un aoristo perfectivo (Ivan napisa pismoto…). Así pues, la organización del «tiempo lingüístico» no puede abordarse en un sentido global y en términos absolutos (según un eje isomorfo al de los números reales), sino que más bien se la debe considerar como recompuesta a partir de tiempos locales construidos por cada enunciador.
www.lectulandia.com - Página 183
Bibliografía Para los términos lingüísticos, véase por ejemplo B. Pottier, Comprendre la linguistique, París, «Marabout-Universités», 1975. [1] N. Chomsky, L’étude formelle des langues naturelles, La Haya, Mouton/París, Gauthier-Villars, 1968. [2] N. Chomsky, M. P. Schützenberger, «The algebraic Theory of Contextfree Languages», Computer programming and formal Systems, Amsterdam, North-Holland, 1963; en francés en Langages, 9, 1968 [3] J.-P. Desclés, «Linguistique mathématique en France (bibliographie)», en B. Pottier (éd.), Linguistique en France, París, SELAF, 1980 (bibliografía completa sobre el tema). [4] Structure of Language and its mathematical Aspects, Providence, American Mathematical Society, «Proceedings of Symposia in Applied Mathematics», vol. XII, 1961. [5] M. Gross, A. Lentin, Notions sur les grammaires formelles, París, GauthierVillars, 1970, 2.ª ed. [6] S. K. Saumjan, Applicational Grammar as a semantic Theory of natural Language, Edinburgh Ubiversity Press, 1977. [7] H. B. Curry et al., Combinatory Logic, Amsterdam, North-Holland, 1958 [trad. cast, de M. Sacristán: Lógica combinatoria, Madrid, Tecnos, col. «Estructura y Función», n.º 24, 1967). [8] Y. Bar-Hillel, Language and Information, Reading (Mass), AddisonWesley, 1963. [9] Z. S. Harris, Structures mathématiques du langage, Paris, Dunod, 1971. [10] A. Culioli, «Commententer de construire un modèle logique adéquat à la description des langues naturelles?», Modèles logiques et niveaux d’analyse linguistique, Paris, Klincksieck, 1976. [11] A. Culioli, J.-P. Desclés, «Considérations sur un programme de traitement automatique du langage», Mathématiques et sciences humaines, Centre de mathématiques sociales, École des hautes études en sciences sociales, 1981. [12] J.-P. Desclés, Opérateurs/opérations: méthodes intrinsèques en informatique fondamentale. Applications à la linguistique et aux bases de données, tesis de Estado (matemáticas), Université René Descartes, 1980. [13] J. Benabou, «Structure algébrique dans les catégories», Cahiers de topologie et géométrie différentielle, Paris, Dunod, 1968. www.lectulandia.com - Página 184
[14] F. W. Lawvere, «Functorial Semantics of algebraic Theories», PNAS, vol. 50, n.º 5, 1963. [15] J.-P. Desclés, «Construction formelle de la catégorie grammaticale de l’aspect», Notion d’aspect, Paris, Klincksieck, 1980. [16] J.-P. Desclés, «Mathématisation des concepts linguistiques», Modèles linguistiques, 2, 1, 1980, PUL, Lille. [17] É. Benveniste, Problèmes de linguistique générale, Paris, Gallimard, 1963; H. Weinrich, Tempus Besprochene und Erzàhtte Welt, Stuttgart, Kohlhammer, 1964.
www.lectulandia.com - Página 185
Rigor y ambigüedad Maurice Loi
1. Los progresos del rigor Matemáticas y rigor son, tradicionalmente, sinónimos; lo fueron ya desde Euclides y lo son, sobre todo, desde el final del siglo XIX, con los trabajos de Hilbert y el advenimiento de la matemática formal y axiomática. Entre los griegos, constituía ya una preocupación predominante: ¿no fueron ellos, con Pitágoras, quienes inventaron la demostración? Ahora bien, ¿qué es una demostración sino rigurosa? Es cierto que el rigor tiene una historia: gran parte de las demostraciones que se hacían en los siglos XVIII y XIX resultan hoy inaceptables. Hay ejemplos bien sabidos de faltas de rigor, y los más grandes matemáticos, como Riemann o Lebesgue, los han cometido. En general, las responsables de estos errores son las concepciones intuitivas del objeto matemático que se toma en consideración, en cuanto llevan al matemático a introducir proposiciones basadas exclusivamente en la intuición: en lugar de exigir que los axiomas sean evidentes y traduzcan inmediatamente las propiedades de objetos preexistentes, se les considera tan sólo como afirmaciones cuyo único interés reside en sus consecuencias. La adecuación a la realidad como criterio de verdad se ha abandonado; la verdad es la de los objetos que cumplen con los axiomas y, por lo tanto, satisfacen todas las propiedades que de ellos se derivan. [68] Los modos de razonamiento no dependen de ninguna arbitrariedad, pues la lógica matemática los ha precisado y clasificado. Leibniz tuvo ya esta visión de las matemáticas formalizadas y presintió la noción de verdad que les es solidaria: es verdadero aquello que es demostrable.[69]
2. Rigor y creatividad Esta preocupación contemporánea por hacer más rigurosas a las matemáticas no ha sido un obstáculo para su desarrollo. Muy por el contrario, el formalismo ha constituido la fuente principal de progreso para las matemáticas contemporáneas y debe ilustrarnos acerca de la verdadera naturaleza. Una filosofía que opusiera el rigor a la creatividad sólo podría estar basada en una
www.lectulandia.com - Página 186
concepción de las matemáticas ya superada, ya que el incremento del rigor y las investigaciones lógicas han hecho posible aumentar los medios de invención de la inteligencia humana. En 1912, Bertrand Russell observaba, en sus Problémes de philosophie, que la lógica se ha convertido en la gran liberadora de la imaginación, y que presenta innumerables alternativas que resultan inaccesibles para el sentido común rutinario, del que Piaget pretende, sin embargo, hacer surgir la ciencia sin esfuerzo. Es menester también denunciar el desprecio que hoy sienten demasiadas personas por la deducción y la demostración. Porque las conquistas esenciales de la ciencia se han obtenido con la intervención dominante de la deducción. Ya el propio Galileo reconoció la imposibilidad de alcanzar esas conquistas mediante meras inducciones basadas en la observación directa. Por desgracia, a raíz de la obra de Henri Poincaré, el a priori se convirtió en signo de lo arbitrario, lo convencional; y no es poco lo que este sabio insigne contribuyó a propagar tal idea. En tal caso, la ciencia experimental equivale a la ciencia objetiva. Tales prejuicios no deben hacernos olvidar la fecundidad de la deducción, que a menudo constituye un medio de investigación mucho más eficaz que la observación directa o la experiencia. Más aún: leyes y principios ocultos se nos revelan gracias a ella, y, sin su ayuda, la ciencia moderna no hubiera podido constituirse. El desprecio y la ignorancia de la deducción no permiten juzgar correctamente a las matemáticas, que quedan así reducidas a unas cuantas recetas o procedimientos de cálculo cuyo alcance no va más allá de los ejercicios y problemas de un examen o de un concurso. El interés de las matemáticas es muy diferente y hoy en día conocen un desarrollo impetuoso y acelerado. Uno queda impresionado por el número de problemas resueltos y la variedad de resultados obtenidos, por la floración de teorías audaces, por la cantidad de libros y la diversidad de las publicaciones. Jean Dieudonné se ha sentido autorizado a escribir: «Puede afirmarse, sin exagerar, que se han resuelto más problemas matemáticos fundamentales a partir de 1940 que desde Tales a dicha fecha».[70] La edad de oro, que para las matemáticas comenzó a principios del siglo XIX, no parece acercarse a su fin. Lo cual pone de manifiesto la actividad creadora en matemáticas de la inteligencia humana, que elabora nuevos métodos y nuevas teorías que permiten resolver problemas planteados desde hace mucho tiempo; nuevas teorías que, a su vez, dan origen a preguntas inéditas cuya formulación era antes imposible. El grado de abstracción cada vez más avanzado de las matemáticas no impide, muy al contrario, su utilización por parte de los más diversos sectores, donde a veces las teorías e ideas más recientes y elaboradas son las que resultan ser más necesarias. Así, por ejemplo, a principios de este siglo Einstein hubo de recurrir a la teoría de grupos, la geometría riemanniana y el cálculo tensorial para elaborar su teoría de la relatividad. Obrando así, no procedió en absoluto del modo en que todavía lo imaginan demasiadas personas, utilizando un lenguaje, un simple medio de expresión para una idea preexistente. Gracias a las matemáticas formales más elaboradas y más alejadas de la experiencia, nociones tan fundamentales como el www.lectulandia.com - Página 187
espacio y el tiempo cambiaron completamente. Conclusiones sorprendentes, como la de la equivalencia entre masa y energía, se obtuvieron como consecuencia matemática del principio de invariancia por las transformaciones de Lorentz de todas las ecuaciones que rigen los fenómenos físicos. El punto de vista del matemático triunfó, en esta ocasión, sobre el de los empiristas. Todavía con demasiada frecuencia, el papel de las matemáticas en el pensamiento científico no se estima en su justo valor; a menudo el eje de los descubrimientos lo constituye el esfuerzo matemático. Muchas veces, lo que permite pensar un fenómeno es su expresión algebraica, su ecuación; es como si, al manejarla, el entendimiento adquiriera nuevas facultades que hiciesen posible el movimiento intelectivo del descubrimiento. Porque la conquista de verdades importantes no puede llevarse a cabo mediante la mera observación pasiva, sino que exige el ejercicio de actividades mentales mucho más elevadas y complejas. En la mayoría de los casos, las experiencias son simples verificaciones de conclusiones a las que los experimentadores han llegado ya con independencia de aquéllas: «Fui primero persuadido por la razón antes de asegurarme por los sentidos», escribió Galileo (Diálogo sobre los dos máximos sistemas del mundo, segunda jornada). Dos siglos más tarde, Pasteur definió precisamente la experimentación como una observación guiada por ideas preconcebidas; es decir, en otras palabras, una observación precedida y acompañada por procedimientos deductivos.
3. Descartes precursor de Burbaki Descartes se preocupó por elaborar una lógica fecunda que no solamente sirviera para exponer, sino también para descubrir. Las matemáticas le sedujeron justamente por la evidencia de sus razones y el encadenamiento de sus conclusiones. De ellas obtuvo sus ideas clave: toda verdad es un peldaño, al que se accede a partir del precedente y que, a su vez, da acceso al siguiente. A partir de entonces, la ciencia se presenta como una creación de la inteligencia, una composición sintética, en lugar de ser una contemplación de objetos ideales, como creyeron los antiguos. Por consiguiente, el cometido esencial del científico no consistirá en aportar una numerosa colección de resultados, sino en erigir buenos instrumentos de combinación y en construir un método poderoso y eficaz. Las vías de la síntesis algebraica quedaron así abiertas: mediante el álgebra, un álgebra clarificada y perfeccionada, se hizo posible resolver los problemas relativos a las magnitudes y figuras siguiendo un camino seguro y regular. Para Descartes, en la seguridad y el rigor del método está lo que debe distinguir a la ciencia moderna de la geometría antigua, ese palenque donde sólo los virtuosos de la intuición podían desenvolverse y ejecutar sus proezas; en este sentido, Descartes puede considerarse como un precursor de Burbaki: para él, el www.lectulandia.com - Página 188
álgebra no es una colección de resultados sino una técnica, un método de combinación y de construcción. Por el simple funcionamiento del mecanismo algebraico, hacemos surgir un mundo geométrico ilimitado que la intuición directa de la figura no nos hubiese revelado nunca. AI rehabilitar el cálculo, que los griegos dejaron de lado en beneficio de la geometría, Descartes preparó el camino a la matemática formal. Con él se desvanecen todos los escrúpulos que los geómetras griegos experimentaron respecto a la definición de las curvas, y los rodeos que utilizaron para librarse de ellos pierden su razón de ser. La teoría de la construcción geométrica se torna inútil al quedar reemplazada por esta síntesis creadora, mucho más fecunda que ella. En realidad, todo el problema de la intuición cambió de arriba abajo, puesto que conceptos tan primitivos como los de «punto», «recta», «plano», «espacio», «número», etc., se enriquecieron hasta tal punto que hoy presentan múltiples facetas. Se han hecho complejos; y una tal variedad de aspectos exige que se acabe con la estúpida rigidez de la que hacen muestra demasiados profesores al sostener que, so pena de ambigüedad, una noción debe siempre notarse de la misma manera. No se dan cuenta de que, precisamente, la elección del buen formalismo, del lenguaje adecuado al objetivo perseguido, se ha convertido en la característica del pensamiento matemático contemporáneo, de su inteligencia y su soltura. Característica ésta que un eminente epistemólogo contemporáneo no ha alcanzado a comprender cuando, en una obra sobre el estilo matemático,[71] reduce a este último al uso de un lenguaje determinado allí donde habría que distinguir la actuación de una multiplicidad de lenguajes. La estilística se basa en la noción de sinonimia; recíprocamente, los efectos de estilo postulan una pluralidad de formas susceptibles de expresar un mismo concepto. «El hecho de que sean posibles diversas expresiones de una misma esencia», escribe Yvon Belaval en Leibniz, critique de Descartes (Gallimard), «no debe hacernos desdeñarlas en beneficio de una supuesta intuición evidente. Por el contrario, esas expresiones son otros tantos puntos de vista sobre la esencia… En cierto modo, esta variedad de expresiones permite desnudar la cosa de que se habla: sin dicha variedad, la fecundidad de la tautología matemática se haría incomprensible» (pág. 185). Se comprende entonces mejor por qué los matemáticos conceden tanta importancia no sólo al resultado, sino también al estilo y la elegancia; por eso la belleza, es decir la exacta concordancia entre los medios empleados y los fines que hay que alcanzar, ocupa un lugar tan destacado entre las motivaciones profundas de los matemáticos. Si las relaciones entre el pensamiento y el lenguaje matemático fueran tan rígidas y simples como pretenden los ignorantes, todo el mundo haría y escribiría matemáticas de un modo uniforme. Por fortuna, no es éste el caso. Tanto más cuanto que, en esas investigaciones, la inteligencia adquiere nuevas capacidades, aprende a pensar con nuevos lenguajes que son otros tantos instrumentos que centuplican sus posibilidades. A menudo, ello es ocasión para el www.lectulandia.com - Página 189
surgimiento de una nueva teoría o para una renovación completa de la problemática tradicional. Ahí está lo que Louis Couturat y Albert Lautman supieron ver en las matemáticas: una de las más elevadas manifestaciones de la potencia productiva de la inteligencia. La oposición entre espíritu de sutileza y espíritu geométrico, tan del gusto de Pascal en el siglo XVII, ya no se corresponde en nada con la índole de las matemáticas modernas, que se sirven tanto del uno como del otro. Esta constatación tiene importancia, pues pone de manifiesto que, en la ciencia, hubo primeramente que superar el dogmatismo. Es ésta una lección que Bachelard supo tener en cuenta, pero sobre la que muchos filósofos contemporáneos deberían meditar. Este viraje decisivo del pensamiento matemático era indispensable para darle toda la flexibilidad que exige la copiosa riqueza de la creación matemática.
4. La emergencia del concepto de función La noción general de función no ha constituido únicamente un perfeccionamiento de las matemáticas: de hecho, marcó un cambio radical en su orientación, que no siempre se ha apreciado en su justo valor. ¿No está dicha noción en la raíz del cálculo diferencial e integral, del análisis y de la mecánica? Algunos filósofos, como Hegel, Marx y Engels, estimaron después que el interés filosófico del descubrimiento era fundamental: para ellos, marcó el paso del pensamiento de Parménides al de Heráclito. De acuerdo con el primero, todo ente inteligible por la razón debe considerarse como invariable; mientras que, según Heráclito, el cambio es la ley que domina el universo. La constitución de la matemática griega vino a ser, en cierto modo, el triunfo de Parménides; la filosofía de Heráclito, que no dejaba sitio para fijeza ninguna, hubiera conducido a negar el valor de la matemática, impidiendo el desarrollo de la ciencia. Desde luego, el pensamiento griego es mucho más complejo que lo que pueda dar a entender esta esquematización. Platón, pongamos por caso, se sintió tan fascinado por Heráclito como por Parménides, puesto que la suya era ya una concepción rica y flexible de la razón, que sabía inspirarse en la ciencia que se estaba elaborando. Para la matemática griega, todo problema se reducía a buscar uno o varios números, completa aunque implícitamente determinados por los datos de la pregunta. Esta determinación, manifiesta por lo que hace a los problemas de aritmética, no era por ello menos cierta en el dominio geométrico, puesto que las figuras consideradas por los antiguos (puntos, rectas, planos, círculos, etc.) dependían siempre de un número finito, e incluso poco alto, de parámetros. Hasta el siglo XVII, lo que se propusieron los matemáticos no fue sino estudiar las relaciones entre los
www.lectulandia.com - Página 190
determinados números que se dejaban invariables a lo largo de todo el razonamiento, así como la manera de servirse de esas relaciones para calcular algunos de dichos números, en el supuesto de que los demás fueran conocidos. Eudoxo y Arquímedes constituyeron la excepción y no tuvieron sucesores directos. Los límites de la geometría antigua no quedaron realmente superados más que cuando se tomó en consideración la variación continua de determinados elementos numéricos o geométricos —lo que viene a ser lo mismo— ligados unos a otros: así fue como se sentaron las bases del edificio que Newton y Leibniz habían de rematar. Ese estadio, sin embargo, debía ser también pronto superado. No constituyó sino el comienzo de una evolución que luego ha proseguido sin interrupción. Cuando las nuevas nociones deducidas de la de función se aplicaron a la física y pusieron de manifiesto la legitimidad del nuevo punto de vista, la ciencia ya no pudo ignorar el cálculo infinitesimal. Tan pronto como se acometió el estudio del movimiento y se empezó a captar lo invisible, es decir el cambio —lo que no había sido posible antes de disponer de los instrumentos matemáticos adecuados—, y en cuanto sus leyes comenzaron a introducirse como fundamento de la física, resultó que, al estudiar la naturaleza, no era posible seguir considerando al número determinado o a sus equivalentes geométricos (punto, recta, círculo, etc.) como objeto único de las investigaciones. En una palabra, el ente matemático dejó de ser el número: la ley de variación, la función, se convirtió en el centro en torno al cual se organizó la ciencia. La matemática no sólo se enriqueció con nuevos métodos, sino que su objeto y sus fundamentos quedaron transformados. La transformación no fue total de primera entrada. La noción de función no adquirió su sentido moderno y todo su alcance hasta el siglo XIX, con Fourier, Dirichlet, Cauchy, Riemann. A partir de éstos, una función y = f(x) ya no se obtiene necesariamente a través de un cierto número de operaciones tomadas de entre las de una lista determinada, cualquiera que sea; sino que es una correspondencia cualquiera establecida entre cada uno de los valores atribuidos a x y un valor y que no se supone determinado más que cuando se da el primero, pero sin obligarse para ello a utilizar tal o tal modo de determinación mejor que otro. De esta manera, definir una función arbitraria consiste en definir su valor para cada valor de x; si la función viene representada por una curva, ésta es, también, cualquiera, y no queda determinada más que cuando se conoce cada punto. Así pues, conocer la función o la curva ya no equivale a conocer determinada más que cuando se conoce cada punto. Así pues, conocer la función o la curva ya no equivale a conocer determinados números, sino una infinidad de números; de hecho, una infinidad de pares de números. Los nuevos problemas se seguían planteando en esta forma, en la cual ninguna imagen simple se presentaba ya al entendimiento. La intuición geométrica no podía ya enseñarnos nada. Para poner remedio a esta ignorancia, la razón sólo podía proceder analíticamente: había que crear y desarrollar la teoría de conjuntos. Desde luego, en www.lectulandia.com - Página 191
el mismo orden de ideas, habría que hablar del cálculo de variaciones, de la topología, de las ecuaciones diferenciales e integrales, del cálculo funcional, de la teoría del potencial y de muchas otras cosas para poner verdaderamente de manifiesto por qué el concepto de función señala el comienzo de una nueva era de la cual constituye el nudo esencial. Si insisto sobre esta noción fundamental no es sólo porque haya abierto nuevas puertas al pensamiento, sino también y sobre todo porque ha cambiado el espíritu de las matemáticas, un tanto oscurecido en la enseñanza secundaria por un entusiasmo exagerado e ingenuo en favor de los conceptos de conjunto o de relación concebidos de un modo dogmático. Se ha dicho y repetido, claro está, que «la matemática moderna es la ciencia de las relaciones», olvidando precisar que la relación fundamental del edificio sigue siendo la función. Russell lo comprendió perfectamente y, en The Principies of Mathematics, le asignó el papel principal: incluso un concepto se convierte allí en una función de un argumento cuyo valor es un valor veritativo. También consagró un capítulo a la noción de variable, noción clave de la nueva matemática; pero, en este caso, la ambigüedad concierne a la esencia misma del concepto y no ya sólo a las dificultades de notación. Ahora bien, esta ambigüedad característica se ha comprendido en muy pocas ocasiones, aunque en ella hicieran hincapié no sólo Russell, sino también Tarski y, de un modo profético, Leibniz. En 1910 Russell escribió: «El problema de la naturaleza de una función[72] no es, en modo alguno, una cuestión fácil… Este tipo de ambigüedad constituye la esencia de una función. Cuando hablamos de “φx, donde x no está determinado”, designamos un valor de la función, pero no un valor definido. Podemos expresar esto diciendo que “φx denota ambiguamente a φa, φb, φc, etc.”, donde φa, φb, φc, etc., son los diversos valores de “φx”… De ello se desprende que “φx” no posee un sentido bien definido (entendamos bien definido siempre con la reserva de que la ambigüedad le es esencial) más que si los objetos φa, φb, φc etc., están bien definidos». En The Principies of Mathematics Russell consagra todo el capítulo VIII a la noción de variable. Al principio del capítulo, dice: «La variable es quizás la noción más matemática de todas las nociones de las matemáticas; y también es, por cierto, una de las más difíciles de comprender». Hermann Weyl fue de la misma opinión: «Nadie puede decir lo que es una variable». También Quine subrayó el papel fundamental que desempeña en lógica la noción de variable. La dificultad proviene del hecho de que, aquí, la ambigüedad es fundamental y concierne a la esencia de los conceptos de variable y de función. Hoy en día la dificultad es aún más grave, puesto que f y x se consideran, a menudo, ambas como variables; incluso, a veces, x permanece fija y f se convierte en el objeto que varía. En la notación de una variable, una letra ya no designa a un elemento determinado de un cierto conjunto, sino a cualquier elemento de una colección infinita que, en la mayoría de las ocasiones, no es numerable. Además, es necesario que se pueda hacerla variar arbitrariamente: hasta el punto de que su principal www.lectulandia.com - Página 192
carácter reside en esa posibilidad. Estas nociones de variable y de función no pudieron clarificarse definitivamente más que con el desarrollo de la teoría de conjuntos y de las propias matemáticas; y aunque pocas veces se ha advertido su ambigüedad, su papel esencial se ha reconocido con frecuencia. En su tratado de álgebra, Birkhoff y MacLane proclaman así la consigna: «Todo es función». Desde luego, se trata del concepto moderno tomado en toda su amplitud y no en su forma más pobre, como sucede en demasiados manuales de enseñanza que sólo ofrecen una imagen escolástica desprovista de sus atributos esenciales. El concepto de función, en el que tuvieron su origen los trabajos de Cantor, no solamente se ha convertido en el verdadero objeto del cálculo funcional con el mismo derecho exactamente que un punto o un número, sino que puede adoptarse como noción básica para expresar las propiedades de determinados conjuntos sin recurrir a sus elementos. Lo encontramos utilizado con nombres diversos en todas las matemáticas contemporáneas: aplicación, homomorfismo, transformación, correspondencia, interpretación, representación, operador, functor, etc. Estos distintos sinónimos sugieren una actividad fecunda que entreteje la unidad profunda de las matemáticas. Así pues, el concepto de función se ha convertido en la clave de bóveda de todo el edificio y, en calidad de tal, mereció ya la atención en el siglo XIX de matemáticos como Lejeune-Dirichlet y Dedekind. Este último escribió a Cantor: «En el principio era la aplicación». Desde 1855 utilizó la noción de homomorfismo de grupos, subrayando en Was sind und was sollen die Zahlen? hasta qué punto resulta fundamental la noción de isomorfismo; y, a partir de 1890, se dedicó a investigar las estructuras y los morfismos entre estructuras de conjuntos puestos en correspondencia por ellos.[73] En épocas más próximas, Roger Godement ha escrito en su Cours d’algèbre (pág. 19): «En matemáticas, no es posible hacer nada sin las nociones de conjunto y de función; con ellas, todo puede hacerse». Habría que hablar también de las numerosas ramas de la teoría de funciones de variable real y de la de variable compleja. Desde el siglo XVIII se han realizado inmensos progresos en multitud de direcciones. Por referirnos solamente a la teoría de funciones de variable real, que tanto debe a la escuela francesa, hay que decir que el grado de generalidad que ha alcanzado en su objeto, en el texto de sus proposiciones y en sus métodos no admite parangón en la matemática anterior. Innumerables problemas, que eran inabordables antes de dichos progresos, se han hecho fáciles de resolver.
5. El advenimiento del álgebra
www.lectulandia.com - Página 193
Lo que resulta más notable es que el desarrollo de esta teoría moderna no deba su éxito a la adquisición de técnicas delicadas y complejas, de reglas astutas, sino al descubrimiento de nociones generales cuya fecundidad se debe a que se amoldan estrechamente a la naturaleza de los fenómenos numéricos y corresponden con mucha exactitud al problema planteado. Con este regreso al racionalismo, la ciencia ha ganado enormemente en capacidad y extensión. En el tomo II de su Science de la logique (Aubier, pág. 319), Hegel ya había denunciado la manía matemática de su época de buscar presuntos métodos, es decir reglas de toda índole, y de hacer un misterio de aquéllas que se creía haber hallado; lo cual no sólo resultaba fácil, sino que era necesario, ya que siempre se trataba de una regla empírica exterior y no de un método deducido a partir de principios reconocidos. Y elogió a Lagrange por haber rechazado tal simulación para internarse en una vía verdaderamente científica. Evariste Galois confirmó ese juicio. Se hizo famoso por sus trabajos sobre las ecuaciones algebraicas; pero los descubrimientos que realizó en el campo del análisis son, como mínimo, de igual importancia. En su carta a Auguste Chevalier, escrita la víspera de su muerte y que constituye una especie de testamento científico, escribió Galois: «Desde hace algún tiempo, mis principales meditaciones se dirigían a la aplicación de la “teoría de la ambigüedad”[74] al análisis trascendental. Se trataba de ver a priori qué intercambios podían llevarse a cabo en una relación entre cantidades o funciones trascendentes, por qué cantidades era posible sustituir las cantidades dadas sin que pudiera dejar de cumplirse la relación. Ello hace que se reconozca enseguida la imposibilidad de muchas de las expresiones que cabría buscar. Pero me falta tiempo, y mis ideas no han madurado suficientemente todavía en ese terreno, que es inmenso». Se advierte aquí hasta qué punto Galois estaba convencido de la conexión entre el pensamiento y el lenguaje, teniendo siempre presente que elucidar no significa permanecer prisionero del empirismo de la escritura sino, por el contrario, esforzarse en proporcionarle espesor y sustancia con objeto de llegar al corazón del pensamiento: la idea. El moderno enfoque formal no implica en absoluto que un sistema formal no posea significación ni aplicación, incluso si, momentáneamente, uno se interesa sólo por la estructura del sistema, por su sintaxis. Por lo demás, un lenguaje preciso no alcanza su desarrollo completo más que cuando la teoría correspondiente ha cobrado vigor suficiente. Siempre es indispensable un mínimo de dicha teoría para utilizar con provecho el lenguaje considerado. También me parece indispensable reflexionar sobre el lenguaje matemático tal y como lo utilizan los propios grandes matemáticos en sus investigaciones, sus publicaciones o su enseñanza. Dicha reflexión resulta tanto más urgente cuanto que el formalismo de las matemáticas actuales produce demasiado a menudo la ilusión de ser autosuficiente. Siendo como es un lenguaje escrito antes que nada, el lenguaje matemático no www.lectulandia.com - Página 194
deja de acarrear determinados inconvenientes importantes que tienen consecuencias considerables para su buen uso. Es cierto que la escritura hace visible lo impensable, desde lo irracional hasta el cambio, pero también fija definitivamente, en cierto modo inmoviliza el pensamiento y no puede retener más que algunos aspectos del concepto. [75] Así pues, lo limita pese a todos los progresos que proporciona. Ahora bien, al igual que la realidad, el pensamiento está siempre en movimiento y los conceptos matemáticos son nociones en perpetuo devenir, constantemente enriquecidas y reorganizadas por nuevas abstracciones. Con ello queda dicho hasta qué punto el lenguaje matemático debe ser flexible y dócil, incluso una vez axiomatizado: de la misma manera en que lo hace la lengua natural, se vale de homónimos y de sinónimos sin los cuales no podría funcionar. El símbolo nunca designa un objeto aislado; con frecuencia sirve para designar una infinidad de objetos, o un objeto salvo transformaciones; a veces, incluso se le utiliza en dominios muy distantes entre sí. Es un gran cruce de vías de circulación a diferentes niveles —y no es un abuso de lenguaje— que reúne en profundidad las zonas más diversas de las matemáticas y proporciona toda su potencia al pensamiento. Por otra parte, existen problemas difíciles y naturales que provienen precisamente de la desproporción entre los medios de notación y de expresión, muy limitados, y la producción inagotable de objetos matemáticos y de sus relaciones, que hay que expresar. Esta contradicción solo puede superarse adaptando continuamente nuestros medios de expresión al aspecto útil de la realidad matemática estudiada, con lo que el signo más simple puede utilizarse para designar la idea más compleja. Así pensaba Henri Poincaré al declarar: «Las matemáticas son el arte de llamar por el mismo nombre a cosas diferentes». Otra muestra más reciente en igual sentido la proporciona Artin, quien comienza su libro de álgebra geométrica explicando lo interesante que es disponer de diferentes notaciones para hablar de una función. Por ejemplo, hay ocasiones en que se considera como más importante conocer la imagen de la función que la propia función. Cuando es éste el caso, la terminología y la notación experimentan transformaciones radicales en el caso de las sucesiones, por ejemplo, el índice ocupa el lugar de la variable. En el prefacio de su Lógica matemática. S. C. Kleene insiste también en la necesidad de trabajar con flexibilidad, utilizando varias formulaciones para una misma idea y pasando de una a otra según lo exijan nuestros propósitos. En resumidas cuentas, el prejuicio de que una palabra o símbolo haya de poseer un único sentido, fijado de una vez por todas y que se conserve exactamente idéntico a sí mismo donde y cuando quiera que sea, aunque es frecuente entre los profesores de matemáticas, es peligroso para la matemática. «Una lengua matemática fundamentalmente unívoca es imposible», escribió Heyting. Y Tarski, en Le concept de vérité dans les langages formalisés (traducción francesa de 1972), insiste: «Debemos resignarnos a admitir que no nos enfrentamos a un concepto único, sino a una pluralidad de conceptos distintos, que vienen designados por una única y misma palabra». Hay, pues, que liberar a la inteligencia www.lectulandia.com - Página 195
de la tiranía del hábito e impregnarla del pensamiento de nuestra ciencia, de la cultura de nuestra época.
Bibliografía G. Bachelard, Le matérialisme rationnel, Paris, PUF, 1953. — La formation de l’esprit scientifique, Paris, Vrin, 1938. — Le nouvel esprit scientifique, Paris, Félix Alean, 1934. J. Cavaillés, Méthode axiomatique et formalisme, Paris, Hermann, 1938. C. Chevalley, «Variations du style mathématique», «Revue de métaphysique et de morale», vol. 42, 1935, págs. 375-483. — «Rigueur et méthode axiomatique», «Recherches philosophiques», t. II, 19321933. H. B. Curry, «Some Aspects of the Problem of mathematical Rigor», «Bulletin of the American Mathematical Society», n.º 47, 1941. É. Galois, CEuvres mathématiques, Paris, Gauthier-Villars, 1951. J. Hadamard, «Le calcul fonctionnel», L’Enseignement mathématique, 1912. P. R. Halmos, Initiation à la thhéorie des ensembles, Paris, Gauthier-Villars, 1967, 2.ª ed. S. C. Kleene, Logique mathématique, Paris, Armand Colin, 1971. A. Lautman, Essai sur Vunité des mathématiques, Paris, Union générale d’éditions, col. «10/18», 1977. M. Loi, «Le langage mathématique», «L’Education», n.º 175, 10 de mayo de 1973. — «Mathématiques et philosophie», «L’Education», n.º 214, 30 de mayo de 1974. — «Langage mathématique et ambiguïté», «Bulletin de l’APMEP», n.º 301, diciembre de 1975. — «Le nouvel esprit mathématique», «Revue internationale de philosophie», n.º 130, 1979. W. W. Quine, «The variable», Logic Colloquium (Boston 1973), Heidelberg, Springer, col. «Lecture Notes», n.º 453, 1974.
www.lectulandia.com - Página 196
B. Russell, The Principies of Matheamtics, Londres, George Allen and Unwin Ltd., 1903; 2.ª ed. 1937. — «La théorie des types logiques», Revue de métaphysique et de morale, vol. 18, 1910, págs. 263-301. B. Spinoza, Éthique. — Traité de la réforme de Ventendement. W. W. Sawyer, Initiation concrète à l’algèbre abstraite, Paris, Dunod, 1968. H. Weyl, Philosophy of Mathematics and natural Science, Princeton University Press, 1949.
www.lectulandia.com - Página 197
Apéndices
www.lectulandia.com - Página 198
Apéndice 1
Tesis, deducción, axiomática y fuerza de una teoría Roland Fraïssé
Una fórmula conectiva está integrada por símbolos llamados átomos, que se notan a, b, c, y por conectivas ¬ (no), ⋁ (o), ⋀ (y), ⇒ (implica, también llamada «si … entonces»), ⇔ (si y sólo si), etc. Cada conectiva es una función de los valores veritativos «verdadero» y «falso»; por ejemplo, a ⇒ b es verdadero cuando a es falso o cuando b es verdadero. Una fórmula conectiva se llama una tautología cuando siempre toma el valor «verdadero», cualesquiera que sean los valores (verdadero o falso) que se atribuyan a los átomos. Ejemplo: a ⋀ (¬a) o también la tautología silogística ((a ⇒ b) ⋀ (b ⇒ c)) ⇒ (a ⇒ c). Una fórmula lógica está integrada por símbolos llamados individuos, que se notan x, y, z, …; y por predicados, que se notan α, β, cada uno de los cuales está afectado de un entero que se llama su ariedad: un predicado monario α seguido de un individuo x da una fórmula atómica αx; igualmente para el caso de un predicado binario β seguido de dos individuos, idénticos o distintos: βxy, o βxx, etc. Para constituir las fórmulas lógicas se añade: el símbolo de identidad = que une dos individuos; las conectivas antes consideradas, que conectan entre ellas fórmulas atómicas para formar fórmulas compuestas; y por fin, los dos cuantificadores∀ (para todo) y ∃ (existe algún), afectado cada uno de ellos de un índice que reproduce a uno de los individuos. El valor veritativo (verdadero o falso) de una fórmula lógica, introducido por Tarski (1936) con toda su generalidad, depende de un conjunto E llamado base, en el que los individuos toman sus valores; a continuación, depende de las relaciones que, sobre E, se atribuyen a cada predicado; y, por fin, depende de los elementos de E atribuidos como valores a los individuos libres (no sujetos al cuantificador ∀ ni al ∃). Por ejemplo, sea la fórmula ∀y αxy; tomemos como base el conjunto de los enteros naturales; como α, la relación binaria ≤ sobre dichos enteros; y, finalmente, substituyamos a x, que es libre, por 0; la fórmula es, entonces, verdadera, puesto que 0 es menor o igual que todo entero; si substituimos a x por un entero no nulo, la fórmula se convierte en falsa. Una tesis es una fórmula que siempre es válida, sean cuales sean la base, las
www.lectulandia.com - Página 199
relaciones atribuidas a los predicados y los elementos atribuidos a los individuos libres. Por generalización, llamemos tautología a toda tautología conectiva en la que los átomos han sido sustituidos por fórmulas lógicas: por ejemplo, αxy ⋁ (¬αxy). Toda tautología es una tesis; pero la inversa no es cierta, puesto que, por ejemplo, la fórmula (αx ⋀ x = y) ⇒ αy es una tesis no tautológica. Incluso antes de que se conociera el valor veritativo, los lógicos ya utilizaban la noción de tesis en el sentido de construcción mediante reglas; el teorema de compleción de Gödel (1930), obtenido por Herbrand (1930) con otra forma, dice que las reglas de construcción permiten hallar todas las tesis; dicho de otra forma, la noción semántica de tesis considerada como una fórmula que siempre es verdadera, se confunde con la noción sintáctica de tesis definida por un número finito de reglas formales. Para que se juzgue la complejidad de la noción de tesis, añadamos a los anteriores ejemplos evidentes el ejemplo, algo menos evidente, de la tesis: ∃x ∀y ∃z (¬αxy) ⋁ αyy ⋁ (αyz ⋀ y ≠ z), que el lector podrá verificar; y el ejemplo siguiente, más difícil: ∃y ∃z ∀t ∃v (αxy ⋀ ¬αxz ⋀ ¬αyz) ⋁ (¬αyy) ⋁ αty ⋁ (αtv ⋀ ¬αyv)). La deducción entre fórmulas se expresa inmediatamente por medio de la noción de tesis: en efecto, por el lema de deducción, que data de los comienzos de la moderna lógica formal, decir que la fórmula Q se deduce de P, o que P deduce Q, equivale a decir que la fórmula compuesta (P ⇒ Q), o equivalentemente (¬P) ⋁ Q, es una tesis. La noción de teoría se sigue inmediatamente: una teoría es un conjunto de fórmulas que es cerrado para la deducción y la conjunción: si P pertenece a la teoría y si P deduce Q, entonces Q pertenece a la teoría; si P y Q pertenecen a la teoría, lo propio sucede con su conjunción P ⋀ Q; esta última cláusula es independiente de la primera: por ejemplo, dado P, el conjunto reunión de las consecuencias, o fórmulas deducidas de P, y de las consecuencias de su negación ¬P, no es una teoría, aunque es cerrado para la deducción. Dada una teoría ζ, un conjunto de fórmulas de ζ se llama una axiomática, o un conjunto de axiomas de ζ, cuando engendra a la teoría ζ en su totalidad a través de deducciones y conjunciones. Una teoría ϒ se llama más fuerte axiomáticamente, o menos general que ζ, cuando se obtiene de ζ por la adición de nuevos axiomas; evidentemente, ζ se llama más débil o más general que ϒ. Por ejemplo, de entre los axiomas usuales de la teoría de conjuntos, quedémonos tan sólo con el de extensionalidad (dos conjuntos que tienen los mismos elementos son idénticos), el axioma del par (dados a y b, existe un conjunto que consta de los elementos a y b), el axioma de reunión (dado a, existe un conjunto formado por los elementos de los elementos de a), el axioma de existencia del conjunto de las partes; www.lectulandia.com - Página 200
y, por fin, la infinidad de axiomas, o esquema de axiomas, de separación, que dice que, para cada condición C expresable por una fórmula, y cada conjunto a, existe el conjunto de los elementos de a que verifican C (lo que da, en particular, la existencia del conjunto vacío, tomando C inconsistente). Así obtenemos una teoría más débil, o más general, que la teoría cantoriana usual. En particular, no se afirma ni niega nada sobre la existencia de un conjunto infinito. Recordemos que el axioma del infinito, en su forma más simple y practicable, consiste en afirmar la existencia de un conjunto u que tiene al vacío como elemento; además, u es cerrado por paso al sucesor: si x es elemento de u, también lo es el sucesor de x, definido como reunión de x y de su singulete. La teoría sin axioma del infinito se designará como teoría tronco común de conjuntos. A partir de esta teoría tronco común, que llamaremos T, se obtiene por una parte la teoría cantoriana usual ϒ con el axioma del infinito ya mencionado; y, por otra parte, añadiendo a T un axioma que diga que todo conjunto es finito, se obtiene la teoría combinatoria C. Como definición de la finitud se toma la de Dedekind (1888): inexistencia de una biyección del conjunto sobre una de sus partes estrictas; o, mejor, la definición de Tarski (1924): a es finito cuando todo conjunto b de partes x de a contiene a un x0 minimal por inclusión, en el sentido de que no existe ningún elemento x de b que esté estrictamente incluido en x0. Las dos teorías C y ϒ son consistentes, al menos experimentalmente, por el hecho de que, desde hace varias décadas, su utilización no ha llevado nunca a ninguna contradicción; y, por supuesto, ambas se contradicen entre sí, como lo hacen por ejemplo la geometría euclidiana, la de Riemann y la de Lobachevski. En el apéndice 3: «Teoría, metateoría…» (pág. 303 y sigs.), hablaremos de una noción que, en ciertos aspectos, se parece a la de fuerza axiomática —la potencia representativa de una teoría— y volveremos a ocuparnos a su propósito del ejemplo de las tres teorías precedentes.
www.lectulandia.com - Página 201
Apéndice 2
Recursividad Roland Fraïsé
La noción de relación recursiva (sobre los enteros naturales) se debe a Gödel (1931, completada en 1934), quien se inspiró en una sugestión de Herbrand. Viene a aportar precisión a la noción usual, aunque vaga, de relación calculable; la afirmación «recursividad = definición rigurosa de la calculabilidad» se debe a Church (1936) y se la conoce, además, como tesis de Church; está verificada por la experiencia: desde hace más de cuarenta años, todas las relaciones calculables han resultado ser recursivas. Por ejemplo, el conjunto de los enteros primos, o relación monaria verdadera para los enteros primos y falsa para los demás, es calculable por la criba de Eratóstenes. La relación binaria de comparación <, las relaciones ternarias suma, producto, o también «z es el m.c.d de x e y» son calculables y, por tanto, recursivas. En la práctica, ello significa que es posible programar un ordenador que diga, para cada entero, si es o no primo; para cada triplete de enteros x, y, z, si z es o no el m.c.d. de x e y. Se dice también que se dispone de un algoritmo de decisión, o procedimiento mecánico que proporciona siempre la respuesta «sí» o «no», después de un número finito de cálculos. Nótese que los conjuntos finitos son casos muy particulares de conjuntos recursivos; y que lo mismo sucede con los complementarios de conjuntos finitos (respecto del conjunto de los enteros). La noción de relación recursivamente enumerable, debida al mismo autor, viene a precisar la noción de una relación que solamente es calculable en los casos de respuesta afirmativa. Dicho de otra forma, es posible programar un ordenador que enunciará, en desorden, una sucesión completa de los enteros que pertenecen al conjunto recursivamente enumerable. Por lo que respecta a un entero que no pertenezca al conjunto, quedamos indefinidamente en la incertidumbre respecto de dicha pertenencia, salvo si disponemos de informaciones complementarias aparte del programa del ordenador. Un entero que no ha sido enunciado quizás no pertenezca al conjunto, pero podría ser que se tratara de un elemento del conjunto que el ordenador aún no ha tenido tiempo de calcular y enunciar. Se dice que se dispone de un algoritmo de enumeración, o procedimiento mecánico que proporciona solamente «sí» como respuesta. Todo conjunto recursivo es recursivamente enumerable, pero la recíproca es falsa. www.lectulandia.com - Página 202
Resulta muy largo definir un conjunto de enteros del cual se esté seguro de que no es recursivo. Más adelante damos un ejemplo de un conjunto no recursivo de fórmulas lógicas; basta entonces con numerarlas de acuerdo con las longitudes crecientes y, para cada longitud, lexicográficamente, para obtener un conjunto no recursivo de enteros. Sin embargo, la aritmética abunda en ejemplos sencillos de conjuntos que, con toda seguridad, son recursivamente enumerables y que posiblemente no son recursivos: veamos uno, relacionado con el enunciado del gran teorema de Fermat. Llamemos conjunto de Fermat al conjunto de los enteros n para los cuales existen tres enteros no nulos x, y, z que verifican xn + yn = zn. Este conjunto es recursivamente enumerable: un ordenador puede llevar a cabo, sucesivamente, todas las pruebas posibles con x, y = 1, después con x, y ≤ 2, luego con x, y ≤ 3, etc., e irnos enunciando de paso los exponentes que dan una respuesta «sí». Entonces, el exponente 1 se obtiene ya en la primera etapa, con 11 + 11 = 21; el exponente 2 se obtiene en la cuarta etapa, con 32 + 42 = 52. Hasta ahora, no se ha obtenido ningún otro exponente, ni siquiera con los mejores ordenadores. Ahora bien, aunque los aritméticos han demostrado que 3 y muchos otros enteros no se obtendrán jamás, estamos pese a todo en la incertidumbre por lo que se refiere a una infinidad de valores. Si la conjetura de Fermat es verdadera, el conjunto se reduce a 1 y a 2, y por lo tanto es recursivo e, incluso, finito. En el estado actual de nuestros conocimientos, ignoramos si el conjunto de Fermat es finito, o hasta si es recursivo. En lógica, la deducción inmediata de una fórmula a partir de una o dos fórmulas dadas (véase el apéndice 3: «Teoría, metateoría…», pág. 303 y sigs.) puede verificarse mecánicamente, con una respuesta «sí» o «no», mediante el examen de las reglas de deducción que son el número finito: así pues, disponemos de un algoritmo de decisión para la deducción inmediata. Mientras que la deducción de una fórmula B a partir de una fórmula A, posiblemente a través de una sucesión finita de deducciones inmediatas, sólo puede verificarse mecánicamente en el caso afirmativo: no podemos demostrar, en general, que B no se deduce de A. Sólo disponemos de un algoritmo de enumeración, es decir, que podemos programar un ordenador que enumere, en desorden (y no en orden de longitud creciente), la sucesión infinita de todas las fórmulas que se deducen de una fórmula dada A. De hecho, el ordenador no enunciará las consecuencias de A en el orden definido por su longitud, sino en el orden de longitud de su demostración más corta. Ahora bien, es sabido que determinadas consecuencias de enunciado breve y elegante precisan de una demostración atrozmente larga y complicada. Cuando una fórmula no está todavía enunciada, y salvo que dispongamos de alguna información complementaria debida al trabajo de los matemáticos, ignoramos si dicha fórmula es una no-consecuencia de A, o si es una consecuencia tan lejana que el ordenador no ha tenido tiempo todavía de obtenerla.
www.lectulandia.com - Página 203
Algunas teorías muy particulares admiten un algoritmo de decisión: para cada fórmula, un ordenador puede decir al cabo de un tiempo, largo a veces pero finito, si pertenece o no a la teoría. Una teoría así se llama decidible; éste es el caso, por ejemplo, de la geometría elemental formalizada por Tarski; una tal teoría constituye el equivalente de una relación recursiva y, por lo demás, una numeración adecuada de las fórmulas transforma a dicha teoría en un conjunto recursivo. Basta, por ejemplo, con numerar las fórmulas según sus longitudes crecientes y, para cada longitud, según el orden lexicográfico definido a partir de una numeración de los símbolos lógicos. Las teorías más usuales, como la aritmética de Peano o la teoría de conjuntos de Zermelo-Fraenkel, admiten un algoritmo de enumeración: un ordenador puede enumerar los axiomas (en número finito o infinito) y luego las consecuencias de los axiomas (siempre en número infinito), pero sin poder pronunciarse sobre la no pertenencia de una fórmula dada a la teoría. Una tal teoría se llama axiomatizable, y, al numerar las fórmulas según las longitudes crecientes y lexicográficamente, proporciona un ejemplo de un conjunto de enteros que es recursivamente enumerable y no recursivo. Volvamos a ocuparnos de la condición del enunciado de Fermat y digamos que si un lógico, sin resolver la conjetura, llegase algún día a demostrar que, para cada entero n, la fórmula ∀xyz, xn + yn ≠ zn ⋁ x · y = 0 o bien es demostrable por los axiomas de Peano, o bien es falsa y por tanto invalidable a través de un cálculo largo pero sencillo, habría demostrado así que el conjunto de Fermat es recursivo y no tan sólo recursivamente enumerable. Para acabar, señalemos un progreso importante que hace referencia a la axiomatizabilidad de las teorías, debido a Kleene (1952) y mejorado por Craig y Vaught (1958). Una teoría es axiomatizable si y sólo si se cumple lo siguiente: al añadirle un número finito de predicados sujetos sólo a un número finito de axiomas, para constituir así lo que llamaremos la teoría reforzada, ha de ser posible recuperar la teoría de partida como conjunto de las fórmulas de la teoría reforzada que sólo incluyen a los antiguos predicados. La aritmética de Peano, cuyos dos predicados son la suma y el producto, puede así reforzarse con predicados adicionales pero sólo con un número finito de axiomas; al considerar exclusivamente los teoremas que sólo hacen referencia a la suma y el producto, nos encontramos de nuevo con nuestra aritmética. El mismo resultado se obtiene con la teoría de conjuntos de ZermeloFraenkel, cuyo único predicado es el símbolo de pertenencia.
www.lectulandia.com - Página 204
Apéndice 3
Teoría, metateoría y existencia de fórmulas indecibles Roland Fraïssé
La actividad lógica más elemental consiste en una formalización de las teorías matemáticas, es decir, en una representación de cada frase del discurso matemático por medio de una fórmula lógica. Esta representación exige que se enuncien reglas de construcción para las fórmulas, que consisten en sucesiones finitas de símbolos; y exige, además, que se enuncien reglas de deducción inmediata de una fórmula a partir de una o dos fórmulas en general: por ejemplo, la regla de separación, llamada también modus ponens, la cual dice que, a partir de las dos fórmulas P y P ⇒ Q, o equivalentemente ¬P ⋁ Q, se deduce Q. La deducción se define por la aplicación, un número finito de veces, de deducciones inmediatas. La actividad así descrita se llama la sintaxis lógica. Esta sintaxis no puede desarrollarse siquiera un poco rigurosamente más que sumergiéndola en una teoría matemática, llamada la metateoría o teoría representante. En particular, es indispensable prever la aparición de fórmulas lógicas con longitudes finitas arbitrariamente grandes, así como, para definir la deducción, de sucesiones finitas arbitrariamente largas de deducciones inmediatas. Ello sólo es posible si existe la noción de entero natural en la metateoría, y si está acompañada de las relaciones y funciones más elementales, tales como la comparación <, la función «entero siguiente, o consecutivo», y la adición, útiles por ejemplo para establecer la longitud de una fórmula que es el resultado de la concatenación de otras dos, P y Q, así como la de una conexión tal como P ⋀ Q. Por lo demás, la metateoría no es de una naturaleza distinta a la de las otras teorías matemáticas; en particular, es susceptible de representarse, a su vez, en una segunda metateoría, y así sucesivamente. Diversas observaciones, bastante elementales, exigen la consideración de dos metateorías consecutivas; y los lógicos utilizan a veces la existencia de sucesiones infinitas de metateorías encajadas unas en otras. El desarrollo de la semántica, o estudio de los valores veritativos y de los modelos, ha supuesto una renovación para la noción de metateoría representante. Históricamente, la semántica hizo ya su aparición en la obra de Hilbert (1904) con los primeros intentos de demostrar la consistencia, o no contradicción, de determinadas teorías sencillas. Experimentó un desarrollo con Herbrand (1930), que demostró la consistencia de una aritmética desprovista de los axiomas generales de inducción o www.lectulandia.com - Página 205
recurrencia. Estos éxitos y fracasos a medias quedaron aclarados por el teorema de incompleción de Gödel (1931), que demuestra la existencia de fórmulas indecidibles, es decir, ni demostrables ni invalidables a partir de los axiomas, para el caso de la aritmética usual, definida por ejemplo por los axiomas de Peano (ver la nota: «La axiomática de Peano», pág. 67). En términos más precisos, la fórmula indecible afirma la consistencia de la aritmética (se trata de una fórmula expresada tan sólo por medio de las nociones o predicados de suma y producto, estando cada fórmula representada por un número). El hecho de que esta fórmula de consistencia sea fácilmente demostrable en la metateoría que representa a la aritmética revela la superioridad de la metateoría sobre la teoría representada. Por otra parte, hay que hacer notar que el teorema de Gödel no impide la existencia de una aritmética completa en la que se dispusiera de suficientes axiomas, además de los de Peano, como para que cada fórmula en términos de «más» y «multiplicado por» fuera demostrable o invalidable (su negación fuera demostrable). Sólo que, entonces, el teorema toma la forma de un enunciado de no axiomatizabilidad recursiva: una tal aritmética completa no puede obtenerse ni con un número finito de axiomas, ni tampoco siquiera con una infinidad recursiva de axiomas, susceptibles de ser enunciados sucesivamente, en el transcurso de un porvenir infinito, por un ordenador (véase el apéndice 2: «Recursividad», pág. 299 y sigs.). La noción de valor de verdad de una fórmula para un sistema de relaciones y de elementos se ha considerado ya en el apéndice 1: «Tesis, deducción…» (pág. 295 y sigs.). Su formulación en términos precisos y generales se debe a Tarski (1936); pero, en la práctica, había sido utilizada ya por Hilbert, Herbrand e, incluso, se la había usado intuitivamente en el enunciado del teorema del modelo numerable de Löwenheim (1915), ampliado por Skolem (1920): toda teoría consistente admite un modelo numerable, es decir, un sistema de relaciones de base a lo más numerable, que la verifica. La representación de una teoría en otra puede adoptar diversas formas que, al parecer, nunca se han clasificado ni han sido estudiadas desde un punto de vista general por los lógicos, si se exceptúa la representación directa llamada interpretación, obtenida al definir cada predicado, o noción, de la teoría interpretada en el seno de la teoría interpretante; o, en otras palabras, obtenida al construir un modelo de la teoría interpretada en el marco de la teoría interpretante. Éste es ya el caso para las geometrías. Y es también el caso, en Gödel (1940), de la teoría de conjuntos con axioma de elección, interpretada en una teoría de conjuntos privada de este axioma: todo conjunto viene interpretado como un conjunto constructible. A menudo, la interpretación es simétrica: cada una de ambas teorías puede interpretarse en la otra; mientras que la representación propiamente dicha, por metateoría, siempre tiene lugar en un único sentido. Aparte de las interpretaciones, las dos representaciones más conocidas son: la
www.lectulandia.com - Página 206
numeración de las fórmulas, debida a Gödel (1931) y llamada numeración gödeliana; y la representación mediante valores veritativos, debida a Tarski (1936) y llamada representación tarskiana. En la primera, cada fórmula queda numerada, por ejemplo, ordenando el conjunto de las fórmulas según su longitud creciente, y lexicográficamente las de igual longitud, a partir del alfabeto finito de los símbolos lógicos; cada fórmula es una sucesión finita de dichos símbolos. De esta manera, a cada teoría representada le corresponde el conjunto de los números de las fórmulas que la integran. A cada procedimiento de construcción de fórmulas le corresponde una función de los números enteros. Por ejemplo, a la conjunción (y) le corresponde la función f que, para cada par de enteros p, q, toma el valor f(p, q) = número de la conjunción de la fórmula número p con la fórmula número q. En la representación tarskiana, la metateoría encargada de representar la aritmética, por ejemplo, empezará por definir el conjunto E de los enteros. Luego, a cada fórmula lógica que conste de los símbolos suma y producto, además de los símbolos lógicos, y de los símbolos de los enteros, la metateoría le asociará un valor veritativo que siempre está definido (incluso si no siempre se puede calcular). Este valor veritativo es evidente para el caso de una fórmula libre, es decir desprovista de cuantificadores, tal como 2 + 3 = 5 ó 2 · 4 = 8. Cuando se introduce el cuantificador «para todo», el valor de ∀x P(x) es «verdadero» si y sólo si P(0), P(1), P(2), poseen todas el valor «verdadero»; y cuando se introduce el cuantificador «existe alguno», el valor de ∃x P(x) es «verdadero» si y sólo si una al menos, de las P(0), P(1), P(2), … toma el valor «verdadero». Así pues, es preciso que la metateoría sea suficientemente rica en axiomas y definiciones como para poder representar, para cada fórmula P, la función que asocia a cada entero x el valor veritativo de P(x). Diremos que una teoría U es más potente que T, o que tiene una potencia representativa superior, cuando, o bien T es interpretable en U mediante definiciones, o bien existe una representación gödeliana o tarskiana de T en U. Esta noción de potencia representativa, aunque nunca se haya definido hasta ahora con precisión, es mucho más útil y sutil que la de fuerza axiomática ya considerada en el apéndice 1, «Tesis, deducción…» (pág. 295 y sigs.). Así, la teoría cantoriana usual U de conjuntos es a la vez más fuerte y más potente que la teoría tronco común T, obtenida a partir de U por supresión del axioma del infinito. Pero la combinatoria U obtenida a partir de T añadiendo el axioma «todo conjunto es finito», aunque es más fuerte axiomáticamente que T, equivale a T en potencia representativa: para representar C en T, basta con relativizar cada fórmula a los conjuntos finitos, o sea, sustituir cada cuantificador «para todo x» por «para todo x, si x es finito, entonces…», y cada «existe algún x» por «existe algún x finito tal que…». Otro ejemplo: la teoría cantoriana de conjuntos con axioma de elección, aunque es estrictamente más fuerte que aquélla que no lo posee, sigue teniendo la misma potencia representativa. El trabajo de Gödel (1940) es una representación de la teoría con axioma de elección en la teoría sin axioma de elección, por relativización de las
www.lectulandia.com - Página 207
fórmulas a los conjuntos constructibles. Acabemos con una argumentación sencilla, que se remonta al procedimiento diagonal de Cantor y permite demostrar que, cuando una metateoría incluye la noción de función numérica, es estrictamente más potente que las teorías que representa por numeración gödeliana o por utilización tarskiana de los valores veritativos. Una tal metateoría permite enumerar si que pueden definirse en la teoría representada; por consiguiente, la sucesión numérica si(i) puede definirse en la metateoría; así pues, también puede definirse una sucesión t(i) ≠ si(i) para todo entero i, sucesión que es evidentemente distinta de todas las si; de aquí resulta la imposibilidad de representar la metateoría en la teoría.
www.lectulandia.com - Página 208
Apéndice 4
El décimo problema de Hilbert Nota del Editor
El décimo problema de Hilbert, que éste formuló con ocasión del segundo congreso internacional de matemáticas, celebrado en París en 1900, es el siguiente: ¿existe un algoritmo que permita decidir si una ecuación diofántica (es decir, una ecuación cuyos coeficientes son números racionales, aunque basta con limitarse al caso de las ecuaciones con coeficientes enteros) posee o no soluciones (enteras)? En 1970 Matijasevic, prosiguiendo los trabajos de H. Putnam, M. Davis y J. Robinson, proporcionó una solución negativa (no existe algoritmo) del problema (Chudnovsky anunció haber obtenido, por la misma época, una solución independiente, pero, hasta la fecha, no la ha publicado). Así pues, las ecuaciones diofánticas constituyen una clase indecible. Con todo, el resultado publicado por Matijasevic no es puramente negativo. Establece, en efecto, un resultado importante e inesperado, a saber, la identidad de dos nociones que pertenecen a dominios de la matemática que no tenían relación ninguna antes de la resolución de dicho problema: la primera noción atañe a la lógica («ser recursivamente enumerable»; cf. Fraïssé, supra, pág. 182), y la otra es de la incumbencia de la teoría de números («ser diofántico», es decir, ser un conjunto de k-tuplas de enteros (a1, …, ak) cuyos elementos son las soluciones de una ecuación diofántica con k parámetros y n incógnitas). En otras palabras: la clase de los conjuntos recursivamente enumerables es idéntica a la de los conjuntos diofánticos. Por lo demás, el resultado de Matijasevic posee curiosas consecuencias que conciernen a los niveles de mayor profundidad de las matemáticas. En efecto, muchos problemas interesantes pueden reducirse a la determinación de la solubilidad o insolubilidad de una ecuación diofántica. Como ejemplo de propiedad que puede reducirse a la existencia de soluciones de una ecuación diofántica, mencionemos la posibilidad de representar el conjunto de los números primos como el conjunto de los valores positivos de un polinomio diofántico (es más, de un polinomio con doce incógnitas). Como ejemplos de propiedades equivalentes a la no existencia de soluciones de una ecuación diofántica, citemos: — la conjetura de Fermat (así pues, una respuesta positiva al décimo problema de Hilbert hubiera proporcionado un medio de hacer desaparecer su carácter conjetural); www.lectulandia.com - Página 209
— la conjetura de Goldbach (véase Fraïssé, pág. 60); — la hipótesis de Riemann; — el problema de la consistencia de una teoría formal; — los enunciados independientes: un enunciado A es independiente (o indecidible) respecto a una teoría T si y sólo si las teorías T + A y T + no-A son no contradictorias o consistentes; de ello resulta que a tales enunciados (como el axioma de elección o la hipótesis del continuo) les corresponden dos ecuaciones diofánticas insolubles (véase el apéndice 6: «La hipótesis del continuo y el axioma de elección», pág. 311 y sigs.). Sin embargo, no todas las conjeturas se prestan a esta traducción diofántica; éste es el caso, por ejemplo, de la conjetura acerca de la existencia de una infinidad de números primos gemelos (o sea, de la forma p y p + 2, con p primo). El interés de traducir las conjeturas matemáticas en términos diofánticos radica en incitar a la búsqueda de clases decidibles de ecuaciones diofánticas. Si la clase de las ecuaciones diofánticas es indecidible, debe ser posible determinar subclases de la misma que sean decidibles. El descubrimiento de clases decidibles de ecuaciones diofánticas permitiría verificar a mano, como quien dice (eventualmente, con la ayuda de un ordenador), que la traducción de tal conjetura o tal otra figura en una de esas clases. Lo que proporcionaría un método para resolver determinadas conjeturas. Mencionemos al respecto que el problema de los cuatro colores, susceptible de una traducción diofántica, se resolvió en 1976 mediante técnicas de la teoría de grafos, con la ayuda de un ordenador. Con ello queda dicho hasta qué punto el resultado de Matijasevic, aunque aparentemente negativo, ha contribuido a inaugurar un vasto campo de investigaciones, entre las que destacan: 1.º el estudio de las clases decidibles de ecuaciones diofánticas, dominio acerca del cual no se conoce, ahora, más que muy poca cosa; 2.º la determinación de la cota uniforme del número de incógnitas al que puede reducirse una ecuación diofántica: Matijasevic y J. Robinson demostraron en 1974 que toda ecuación diofántica (con un número cualquiera de incógnitas) puede reducirse a una con nueve incógnitas; es el mejor resultado que se conoce actualmente, pero no se sabe el valor exacto de dicha cota. El lector interesado por la cuestión puede consultar el artículo de M. Morgenstern, «Le théorème de Matijasevic et résultats connexes» (Springer, col. «Lecture Notes in Mathematics», vol. 890, 1981), el de M. Davis, Y. Matijasevic y J. Robinson, «Hilbert’s tenth problem diophantine equations: positive aspects of a negative solution», Mathematical Arising from Hilbert Problems, ed. por E. Browder, Providence, American Mathematical Society, col. «Proceedings of Symposia in Pure www.lectulandia.com - Página 210
Mathematics», vol. XXVIII, 1976, págs. 323-378, así como la ponencia mecanografiada presentada sobre el tema por B. Jaulin en el Seminario de filosofía y matemáticas de la École Normale Supérieure.
www.lectulandia.com - Página 211
Apéndice 5
La axiomatización de la teoría de conjuntos Nota del Editor
La primera axiomatización de la teoría de conjuntos la proporcionó Zermelo en 1908. En los años veinte, Fraenkel y Skolem añadieron axiomas al sistema (el esquema de axiomas de sustitución y el axioma de fundamentación) y precisaron, cada uno a su estilo y de diferente manera, algunos conceptos vagos e inoperantes, en particular la noción de propiedad definida, con objeto de tratar correctamente los problemas metamatemáticos relativos a la teoría de conjuntos. A este sistema reformado se le llama «sistema Zermelo-Fraenkel» y se le designa por la abreviatura ZF (olvidándose, injustamente, de Skolem). A Skolem se debe la idea de edificar la axiomática conjuntista sobre el lenguaje de la lógica de predicados con identidad: ello hizo posible la formalización de la teoría ZF, aunque Skolem, iniciador de la teoría de modelos, nunca fue partidario de la formalización a ultranza; su iniciativa permitió, sobre todo, clarificar los conceptos sobre los que hoy en día se basa la teoría axiomática de conjuntos, así como establecer relaciones naturales y aceptables para todos entre la lógica y la teoría de conjuntos, asegurando un buen equilibrio entre lo que es competencia de la lógica propiamente dicha y lo que le corresponde a la teoría de conjuntos. No era éste el caso ni de la axiomática original de Zermelo, que creía equivocadamente poder prescindir de todo recurso a la lógica, ni de la teoría de los tipos propuesta por Russell en la misma época, que pensaba abusivamente poder reducir todas las matemáticas a conceptos lógicos. Durante mucho tiempo, el sistema ZF ha sido asunto solamente de los lógicos: cuando Fraenkel y Skolem reformaron la teoría de conjuntos zermeliana, fue para plantear correctamente y resolver cuestiones de orden metamatemático (por ejemplo, el problema de la independencia de los axiomas), más que para edificar explícitamente las matemáticas de la época sobre cimientos conjuntistas sólidos.
www.lectulandia.com - Página 212
Apéndice 6
La hipótesis del continuo y el axioma de elección Nota del Editor
Entre aquellos enunciados que son independientes (indecidibles) con respecto a la teoría ZF y tales que tomar partido por lo que hace a su verdad acarrea consecuencias importantes en matemáticas, podemos citar la hipótesis del continuo y el axioma de elección (abreviadamente: AC). La hipótesis del continuo consiste en afirmar que el cardinal del continuo (el cardinal del conjunto de los números reales, o lo que es igual, el del conjunto integrado por todas las partes del conjunto de los números racionales) es el primer cardinal no numerable, que se nota ℵ1 (alef uno), utilizándose para el infinito numerable (el del conjunto de los números enteros, por ejemplo, o de los números racionales) la notación ℵα. La hipótesis generalizada del continuo (abreviadamente: HGC) consiste en afirmar que 2ℵα = ℵα+1 para todo ordinal α (2ℵα equivale al conjunto de las partes de ℵα o al conjunto de las aplicaciones de ℵα en 2, considerando a este último como un conjunto cuyos únicos elementos son 0 y 1: el lector reconocerá aquí las funciones características…). La hipótesis del continuo fue formulada por Cantor como un problema del que esperaba proporcionar una solución positiva. Por esto se empeñó en demostrarlo durante la última parte de su vida, pero sus esfuerzos fueron infructuosos. La obstinación de Cantor es fácil de comprender: la demostración del problema hubiera constituido, sin ningún género de duda, el más bello resultado de la teoría de conjuntos, y habría representado la culminación de sus trabajos sobre el tema. Mucho más tarde, los lógicos explicaron por qué las tentativas de Cantor de resolver la hipótesis del continuo hubieron de resultar en balde; la hipótesis del continuo es independiente de la teoría ZF, al igual que lo es, por otra parte, el axioma de elección. Un enunciado A es independiente (o indecible) con respecto a una teoría T si no es ni demostrable ni refutable en T. En términos generales, las demostraciones de independencia utilizan la siguiente propiedad lógica, susceptible de formularse de dos maneras equivalentes: sintácticamente, en términos de demostrabilidad, o semánticamente, en términos de realizabilidad o de modelos (véase el apéndice 1: «Tesis, deducción…», pág. 295 y sigs.). Sintácticamente, un enunciado A es demostrable a partir de una teoría T si y sólo www.lectulandia.com - Página 213
si la teoría T+(no A), constituida por los axiomas de T y la negación de la fórmula A, es contradictoria. Semánticamente, un enunciado A es consecuencia lógica de una teoría T (es decir, que todo modelo que satisface a los axiomas de T satisface también a la fórmula A) si y sólo si la teoría T+(no A) no admite ningún modelo. La equivalencia entre las dos formulaciones, sintáctica y semántica, es una de las maneras de expresar el teorema de compleción de Gödel para las teorías de primer orden (véase el apéndice 1: «Tesis, deducción…», pág. 295 y sigs.). La mayoría de las demostraciones de independencia se hacen semánticamente, por el método de los modelos. Para demostrar que un enunciado A no es demostrable formalmente en la teoría T, basta con encontrar un modelo de la teoría T+(no A); y para demostrar que un enunciado A es independiente relativamente a la teoría T, basta con encontrar un modelo de T+A y, luego, un modelo de T+(no A). Sin embargo, el teorema de incompleción de Gödel (véase el apéndice 3: «Teoría, metateoría…», pág. 303 y sigs.) trae aparejado que no puedan crearse ex nihilo modelos de la teoría ZF que satisfagan eventualmente a otros enunciados. Hay que contentarse con exhibir modelos relativos (en semántica) o con demostrar la consistencia relativa (en sintaxis). En la práctica, para demostrar que un enunciado no A es irrefutable en la teoría ZF, se demuestra el enunciado siguiente: «Si la teoría ZF admite un modelo, entonces la teoría ZF+A admite también un modelo». Entre 1938 y 1940, K. Gödel demostró que la hipótesis generalizada del continuo así como el axioma de elección eran consistentes relativamente a la teoría de conjuntos, digamos a ZF. En realidad, Gödel tomó en consideración otro sistema axiomático, hoy llamado sistema de von Neumann, Bernays y Gödel, abreviadamente NBG. Pero luego se demostró que las dos teorías ZF y NBG eran equiconsistentes: el resultado demostrado por Gödel para el sistema NBG vale también, por ello, para el sistema ZF. Dicho resultado quiere decir que, si ZF es consistente o, equivalentemente, si ZF admite un modelo, ZF+AC+HGC (es decir, la teoría de conjuntos que tiene como axiomas: 1.º los de la teoría ZF; 2.º el axioma de elección; 3.º la hipótesis generalizada del continuo) es asimismo consistente (también se dice coherente o no contradictoria en lugar de consistente). La demostración de Gödel consiste en construir, a partir de un modelo de ZF, un modelo llamado de conjuntos constructibles que verifica los axiomas de ZF+AC+HGC. De ahí resulta inmediatamente que la hipótesis del continuo y el axioma de elección son irrefutables en el sistema ZF. En 1963, P. J. Cohen demostró que la negación de la hipótesis generalizada del continuo así como la negación del axioma de elección eran consistentes relativamente a ZF; la demostración hace uso del método del forzamiento (en inglés: forcing),[76] que ha demostrado ser muy fecundo, aún más que el método de los conjuntos constructibles de Gödel, para resolver muchas otras cuestiones metamatemáticas, algunas de las cuales tienen consecuencias nada banales para las matemáticas cotidianas. Del resultado se desprende inmediatamente que ni la hipótesis del www.lectulandia.com - Página 214
continuo ni el axioma de elección pueden demostrarse a partir del sistema ZF. Así pues, la hipótesis del continuo y el axioma de elección son ejemplos (importantes) de enunciados indecidibles relativamente a la teoría ZF. Este fenómeno de independencia explica a posteriori que las investigaciones de Cantor y de sus sucesores para decidir la hipótesis del continuo no hayan llegado a ningún resultado. Otra situación parecida a ésta (véase el artículo de J. Dieudonné, págs. 186 a 189) es la de aquellos matemáticos que, a partir de Cardano, en el siglo XVI, buscaron en vano fórmulas que proporcionaran las soluciones por radicales de las ecuaciones de quinto grado; al crear la teoría de grupos, Lagrange y Galois demostraron por qué no existían tales soluciones. Pero estos enunciados que son indecidibles relativamente a la teoría ZF, ¿son indecidibles en sí? Tal cuestión le parecerá ridícula al formalista y desprovista de sentido al constructivista (véase el texto de R. Apéry, págs. 222-225). Sin embargo, posee un sentido profundo para aquel matemático (y éste es el caso general) que piensa que la ciencia matemática no se reduce a un puro juego de manipulación de símbolos de acuerdo con determinadas reglas (véase el texto de R. Fraïssé, págs. 211 y sigs.), sino que existen entes matemáticos que están tras las teorías formales que los aprehenden. También Gödel (cf. «What is Cantor’s continuum problem?», 1947 y 1964) estaba persuadido de que un día se llegaría a decidir la hipótesis del continuo, una vez que se hubieran encontrado los buenos axiomas de la teoría de conjuntos. Sin embargo, es imposible resolver todas las cuestiones indecidibles dentro de un sistema único; en efecto, del teorema de incompleción de Gödel resulta que toda teoría axiomática de conjuntos, como toda teoría de primer orden más fuerte que la aritmética, comprende enunciados indecidibles y no es posible axiomatizar la teoría de conjuntos de manera que se la haga completa. Al tener consecuencias decisivas en matemáticas, la independencia de enunciados crea una situación particular, que a un constructivista o a un platónico le resulta incómoda. En teoría, deja al matemático en completa libertad de tomar esos enunciados o sus negaciones como axiomas suplementarios, o bien, de rechazar a los unos y las otras. Esta última actitud, tanto en el caso del constructivista como del platónico, refleja una prudencia ontológica. Para el constructivista, admitir uno u otro de dichos enunciados contrarios vendría a ser lo mismo que hacer intervenir en matemáticas —¡actividad humana por excelencia!— un deus ex machina. Para el platónico, las consecuencias de esos enunciados —las matemáticas que reposan sobre tales enunciados—, son cosa de ciencia-ficción, puesto que aquéllos no poseen verdad ontológica intrínseca. En la práctica, la riqueza de consecuencias guía y determina la elección de los matemáticos, y puede ser que el futuro les lleve a cambiar de actitud con respecto a las teorías conjuntistas. Entre los enunciados que ya poseen consecuencias interesantes sobre las matemáticas cotidianas y que son susceptibles de ser adoptados algún día como verdaderos axiomas de la teoría de conjuntos, hay que señalar el www.lectulandia.com - Página 215
axioma de Solovay (véase a continuación, pág. 87 y sigs.), los axiomas de determinación (en particular, el axioma de determinación proyectiva), los axiomas que postulan la existencia de cardinales muy grandes, la hipótesis ◊ («diamante») de Jensen, los enunciados «0 (0 sostenido) existe» y «x (x sostenido) existe» (siendo x un conjunto de enteros) y el axioma de Martin. Estos axiomas son verdaderamente hipotéticos: la mayoría de esos enunciados traen, en efecto, aparejada la consistencia de ZF. Así pues, es imposible demostrarlos en ZF en el caso de que sean verdaderos; pero si algunos de entre ellos son falsos, puede esperarse que un día se caiga en la cuenta de ello (¡antes del juicio final!) a fuerza de extraer consecuencias de los mismos (véase el artículo de R. Fraïssé, pág. 64). El lector que desee conocer más sobre el tema puede consultar la obra colectiva, dirigida por J. Barwise, Handbook of mathematical Logic (Amsterdam, NorthHolland, 1978), verdadera biblia de lo que se ha hecho en lógica matemática durante los últimos veinticinco años.
www.lectulandia.com - Página 216
Apéndice 7
El axioma de Solovay Nota del Editor
Entre los axiomas que engendran una teoría de conjuntos más fuerte que ZF, cabe mencionar el axioma de Solovay: «Todo subconjunto de números reales es mensurable para la medida de Lebesgue». R. M. Solovay demostró en 1964 (la demostración se publicó en 1970) que este axioma es consistente relativamente a la teoría ZF, módulo no obstante la hipótesis de que existen cardinales inaccesibles. Esta hipótesis es más fuerte que ZF y, por lo tanto, no puede demostrarse en ZF, pues su verdad implica la consistencia de ZF; ahora bien, el teorema de incompleción de Gödel (véase más arriba, R. Fraïssé, pág. 189) tiene como consecuencia que, si ZF es intuitivamente consistente (hipótesis metamatemática que siempre se hace), ZF no es capaz de demostrar formalmente su propia consistencia. En términos precisos, el resultado de Solovay es el siguiente: «Si la teoría ZF+AC+existe un cardinal inaccesible es consistente (posee un modelo), entonces la teoría ZF4+axioma de elección dependiente+axioma de Solovay es asimismo consistente (posee también un modelo)». El axioma de elección dependiente es más débil que el axioma de elección general, pero implica al axioma de elección numerable. Se sabe (teorema de Vitali) que, gracias al axioma de elección, es posible demostrar que existen conjuntos de números reales que no son mensurables para la medida de Lebesgue. El resultado de Solovay pone de manifiesto que, de hecho, es indispensable un axioma suplementario, tal como el axioma de elección, para obtener conjuntos de números reales que no sean mensurables: sin axioma suplementario, no se puede demostrar que existan conjuntos no mensurables de números reales para la medida de Lebesgue. El resultado de Solovay resuelve un problema interesante relativo a la teoría de la medida: la compatibilidad de la hipótesis de la mensurabilidad de todas las partes de ℝ con los axiomas de la teoría de conjuntos. La lección que cabe extraer de ello es la siguiente: es inútil gastar fuerzas y tiempo en demostrar que una parte dada de ℝ es mensurable para la medida de Lebesgue —demostración a menudo muy larga y fastidiosa—, puesto que si ZF y la hipótesis de la existencia de cardinales inaccesibles son simultáneamente no contradictorias, tampoco es contradictorio admitir que todas las partes de ℝ son mensurables (en el sentido de Lebesgue). Pero, como la hipótesis de la existencia de cardinales inaccesibles es más fuerte que ZF, pudiera ser muy bien que esta última hipótesis, así como el axioma de www.lectulandia.com - Página 217
Solovay, fueran contradictorios, sin que lo fuera la teoría ZF. Mientras que, si dicha hipótesis no es contradictoria, no existe en ZF medio ninguno para cerciorarse de ello. Así pues, con la demostración de Solovay resultaba que existía un mayor riesgo en postular que todos los conjuntos de números reales son mensurables para la medida de Lebesgue, que no en la admisión pura y simple de la teoría ZF. La mayoría de matemáticos preocupados por este problema estaban convencidos de que el defecto que presentaba el teorema de Solovay no era ineluctable. Por esto, durante tiempo se procuró mejorar la demostración de Solovay y eliminar el uso de un cardinal inaccesible. A finales de 1979, S. Shelah demostró que dichas tentativas no podían conducir a ningún resultado, proporcionando una solución negativa para el problema de la eliminación de la hipótesis de un cardinal inaccesible en la construcción de un modelo que satisfaga al axioma de Solovay: «Si la teoría ZF+axioma de elección dependiente+axioma de Solovay es no contradictoria, entonces la teoría ZF+AC+existe un cardinal inaccesible es igualmente no contradictoria». Por lo tanto, y contrariamente a lo que se creía o se esperaba, el axioma de Solovay es más fuerte que la teoría ZF. Además de su carácter incompatible, hay que señalar dos diferencias esenciales entre el axioma de elección y el axioma de Solovay; diferencias que no dejan de determinar la actitud de los matemáticos a su respecto. 1.º En primer lugar, el axioma de elección no tiene la misma fuerza que el axioma de Solovay. No hay más riesgo en admitir ZF+AC que en quedarse con ZF, pura y simplemente. En cambio, es mucho más arriesgado postular ZF+axioma de elección dependiente+axioma de Solovay, que suponer la verdad de ZF+AC. 2.º En segundo lugar, ¿tiene interés teórico postular el axioma de Solovay? Indiscutiblemente, el axioma de Solovay posee consecuencias prácticas interesantes en cuanto que permite demostrar mucho más fácilmente determinadas propiedades que, en su ausencia, han de demostrarse a través de métodos mucho más largos: en el modelo de Solovay, la mensurabilidad (en el sentido de Lebesgue) de cualquier conjunto de números reales se cumple automáticamente. Pero tiene todo el aspecto de ser un axioma estéril o, al menos, no indispensable: hasta la fecha, no se conocen resultados verdaderamente originales, interesantes matemáticamente (el resultado de Shelah posee más bien un carácter metamatemático), que puedan demostrarse a partir del axioma de Solovay pero que sean indemostrables sin dicho axioma. Además, el axioma de Solovay no resulta demasiado utilizable para los grandes consumidores de mensurabilidad que, como es el caso de los estudiosos de la probabilidad, se interesan por medidas a las que no se aplica el axioma, bien porque sobre ℝ (o ℝn) la medida sea diferente de la de Lebesgue, bien porque el propio www.lectulandia.com - Página 218
espacio sobre el que se define la medida no admita representación en términos de números reales. Con el axioma de elección, la situación es distinta: si se renuncia a este axioma, uno se ve obligado a abandonar todo un vasto campo matemático, aunque, en la mayoría de los casos, no sea necesario recurrir a toda la fuerza del axioma, como explica J. Dieudonné (véase pág. 16). En estas condiciones, se comprende el resultado del sondeo realizado por G. Müller con ocasión de un congreso de matemáticas en Japón, luego de que él mismo hubiera especificado a los matemáticos presentes las respectivas consecuencias de ambos axiomas (el resultado de Shelah no se conocía todavía). Todos contestaron que preferían el axioma de elección general en lugar del axioma de Solovay acompañado solamente del axioma de elección dependiente. Pero esta posición desfavorable al axioma de Solovay quizás proviene del hecho de que aún no se han estudiado suficientemente las propiedades del modelo de Solovay. De hecho, cuando Gödel introdujo en 1938 el modelo de los conjuntos constructibles para demostrar la no contradicción relativa de la hipótesis del continuo, dicho modelo no poseía más interés que esa utilización metamatemática. Hasta los años sesenta no se cayó en la cuenta de que el modelo posee propiedades muy fuertes, que genera resultados matemáticos (y metamatemáticos) importantes, y que, por esas razones, merece ser estudiado por sí mismo. Podría ser muy bien que al axioma de Solovay le estuviera reservado un destino análogo.
www.lectulandia.com - Página 219
Notas
www.lectulandia.com - Página 220
[1]
A. Einstein, Mi visión del mundo, Tusquets Editores, Cuadernos Infimos 91, Barcelona, 1980. (N. del E.) <<
www.lectulandia.com - Página 221
[2] Se llama conjunto perfecto a un conjunto cerrado sin puntos aislados. En el caso
del conjunto ℝ de los números reales, una parte A de ℝ se llama cerrada si, para toda sucesión (xn) de puntos de A que es convergente en ℝ, el límite de la sucesión pertenece a A. Esto equivale a decir que, para todo punto x del complementario de A en ℝ, que se nota Ac, existe un intervalo abierto ]a,b[ que contiene a x y está incluido en Ac; en este caso, se dice que Ac es abierto. Un punto x de A se llama aislado en A si existe un intervalo abierto de ℝ que lo contiene y que no contiene ningún otro punto de A. Intuitivamente, conexo significa «de una sola pieza», es decir, que no puede dividirse en dos partes abiertas disjuntas no vacías. En el caso de ℝ, las partes conexas son los intervalos (así pues, el propio ℝ es conexo, y las únicas partes de ℝ que son cerradas y abiertas a la vez son ∅ y ℝ). Desde el punto de vista moderno, se dice continuo un conjunto compacto conexo. Los compactos de ℝ son los intervalos cerrados acotados, es decir, de la forma [a,b], con a, b ∈ ℝ. Se trata desde luego de conjuntos perfectos conexos; pero [0, +∞[ es un conjunto perfecto conexo que no es compacto: no es un continuo en el sentido moderno del término. En el plano (o en el espacio ℝ3), un continuo es un conjunto perfecto conexo acotado. La razón por la que no se ha conservado la caracterización del continuo como perfecto conexo, reside en su carácter no intrínseco. En efecto, hemos visto que un conjunto perfecto es un cerrado sin puntos aislados. El hecho de que un conjunto A sea cerrado hace referencia a otro espacio que lo contiene. Por el contrario, la noción de compacidad es intrínseca y sólo depende de la topología del conjunto, esté o no definida como traza, sobre dicho conjunto, de la topología de otro conjunto. Es por supuesto incómodo que la definición moderna se aparte así de la noción tradicional, puesto que ℝ deja de ser un contenido; pero, hasta la fecha, nadie ha encontrado una definición intrínseca mejor. Todavía quedan sobre el tema muchos problemas abiertos, lo que hace pensar que el continuo no es una idea tan intuitiva como algunos matemáticos gustan de dar a entender. (N. del E.) <<
www.lectulandia.com - Página 222
[3] Cf. Stetigkeit und Irrationale Zahlen, 1905, pág. 11 (véase pág. 214). <<
www.lectulandia.com - Página 223
[4] Con el nombre de «recta», los griegos nunca significaron otra cosa que segmentos,
es decir, intervalos cerrados de la recta; no consideraron las semirrectas o las rectas «ilimitadas» más que de manera «potencial» (cf. nota 5 a continuación). Nota del editor: En este sentido, la definición moderna del continuo (cf. nota 2) está más cerca del pensamiento griego que de las primeras definiciones de Cantor y de Dedekind: los compactos de ℝ (y, más en general, los de ℝn) son las partes cerradas y acotadas: son finitas (en el sentido de acotadas), pero tan grandes como se quiera; se trata, pues, de un infinito potencial (cf. nota 6). Sin embargo, no hay que dejarse engañar por esta apariencia de potencial: la concepción moderna de los compactos hace uso abundante del infinito actual, tanto en las definiciones abstractas generales que se utilizan («todo ultrafiltro es convergente»; la existencia de los ultrafiltros se basa en el axioma de elección, pero este último axioma puede evitarse en el caso de los compactos de ℝn) como en las construcciones de ℝ. En resumen, si bien la definición moderna del continuo está de acuerdo con la idea que de él tenían los griegos, está formulada con la intención que guió los trabajos de Cantor y de Dedekind. <<
www.lectulandia.com - Página 224
[5] Según la doctrina aristotélica, los entes matemáticos sólo existen en el intelecto
como «abstraídos» a partir de las sensaciones que nos proporcionan los objetos físicos, los «cuerpos»; aquello de lo que se hace «abstracción», y que caracteriza a los objetos físicos, es el movimiento o el cambio. <<
www.lectulandia.com - Página 225
[6] Se entiende por «infinito potencial» un infinito cuyas partes se consideran dadas o
construidas sucesivamente, proceso que, por consiguiente, no puede completarse; así pues, el conjunto de las partes solamente existe en potencia. Si se consideran las partes —y en consecuencia, los elementos— como dadas simultáneamente, se habla de «infinito actual» y de existencia actual del conjunto de las partes. En el pensamiento matemático contemporáneo, éste es el caso la mayoría de las veces. Nota del editor: Son escasos los matemáticos que adoptan una posición distinta —por lo menos, en Francia—. Cf. el texto de R. Apéry, págs. 217 y sigs., que expone una concepción constructivista de las matemáticas. <<
www.lectulandia.com - Página 226
[7] Nótese que, en Euclides, el tratamiento de la inconmensurabilidad se restringe a
las líneas llamadas «irracionales cuadráticas y bicuadráticas», es decir: a) los lados de los cuadrados conmensurables con el cuadrado unidad, pero que no se pueden representar por un número que sea cuadrado perfecto; b) las diagonales de los rectángulos uno de cuyos lados es suma o diferencia de una línea racional y de otra irracional en el sentido de a). El caso de los cubos no se trata. <<
www.lectulandia.com - Página 227
[8] Recordemos que por «tipo de orden» se entiende un representante abstracto de una
clase de conjuntos ordenados mutuamente semejantes. <<
www.lectulandia.com - Página 228
[9]
Las bases intuitivas que hicieron posible construir el análisis se han vuelto superfluas lógicamente, pero creo que siguen siendo un auxilio precioso y quizás indispensable. La enseñanza y la práctica de las matemáticas deberían permitir que se refinara y educara la intuición cinemática y geométrica, en lugar de rechazarla pura y simplemente. <<
www.lectulandia.com - Página 229
[10] Compárese este polimorfismo externo de las matemáticas con el polimorfismo
interno vinculado a la polivalencia del símbolo, que M. Loi describe en el 5 de su texto, páginas 287 a 290. (N. del E.) <<
www.lectulandia.com - Página 230
[11] Esta emergencia conjunta es el objeto del estudio de F. de Gandt, págs. 244 y
sigs. (N. del E.) <<
www.lectulandia.com - Página 231
[12] Ésta es la tesis de P. Duhem: en física, no existe experiencia crucial, puesto que
las condiciones que permitirían utilizar el razonamiento por reducción al absurdo no pueden aplicarse; en efecto: 1.º nunca se puede estar seguro de haber formulado todas las hipótesis, tanto si se trata de todas las hipótesis posibles para interpretar un fenómeno, como si se trata de todas las hipótesis que se requieren implícitamente para efectuar una experiencia; 2.º como en física no existe principio de tercio excluso, no es posible concluir, de la falsedad de una hipótesis, la verdad de su negación, y las dos hipótesis rivales pueden ser falsas simultáneamente; 3.º no puede someterse a prueba una hipótesis aislada, sino tan sólo un sistema de hipótesis (éste es el bolismo de Duhem); una experiencia puede poner de manifiesto que un conjunto de hipótesis no está de acuerdo con los hechos, pero no puede indicar qué hipótesis debe rechazarse. En resumidas cuentas, lo que Duhem rechaza en el marco de la física es el principio del modus tollens. Por el contrario, K. Popper defiende que las teorías físicas satisfactorias son las que se exponen a la prueba de la experiencia. (N. del E.) <<
www.lectulandia.com - Página 232
[13] También se le puede dar la vuelta al argumento y dar cuenta de esta diferencia por
el grado de desarrollo de las propias matemáticas, más que por el de las ciencias a las que es posible aplicarlas: si las matemáticas se aplican mejor a la física, ello es así porque, quizás, la parte de las matemáticas que interviene en las teorías físicas contemporáneas está más desarrollada que no lo están aquellas partes que podrían aplicarse a los otros dominios de la ciencia. (Por ejemplo, en lingüística, véanse las matematizaciones propuestas por J.-P. Desclés y P. Gochet, págs. 251 y sigs., y págs. 235 y sigs.). En esta idea estaría, quizás, el sentido de las tentativas de algunos matemáticos, tales como R. Thom y B. Mandelbrot, encaminadas a desarrollar unas matemáticas de lo cualitativo (véanse págs. 139 y sigs., y págs. 111 y sigs.). Sea como fuere, pronto se llega a una relación circular: como el artículo de F. Gandt (págs. 43 y sigs.) pone de manifiesto, es imposible disociar la evolución de las ramas de las matemáticas aplicables a la física de la evolución de las correspondientes partes de la física. (N. del E.) <<
www.lectulandia.com - Página 233
[14]
Acerca de la vinculación entre teoría y experiencia en astronomía, puede consultarse la obra de C. W. Tombaugh citada en la bibliografía; allí se pone en particular de manifiesto, para el caso del sistema solar, las respectivas limitaciones de la experiencia (la observación) y de la previsión matemática. (N. del E.) <<
www.lectulandia.com - Página 234
[15] El presente texto constituía la segunda parte de la conferencia por mí pronunciada
en la École Nórmale Supérieure. Por falta de espacio, se ha prescindido de una serie de páginas que abundaban en las opiniones que aquí se publican, así como del resumen de la discusión que me sugirió dicha discusión y de la postdata que, en un principio, debían acompañar a la presente publicación. El lector interesado en este material puede obtenerlo sin más que solicitarlo. En la bibliografía he incluido obras que pueden ilustrar mi exposición, indicando las páginas de aquellas citas que figuraban en el apéndice o la postdata mencionados. <<
www.lectulandia.com - Página 235
[16] El autor piensa aquí en los «monstruos» de Cantor y de Peano a los que alude más
adelante. Pero, mientras que él concibe la emergencia de esos nuevos objetos matemáticos como una liberación del matemático respecto de la naturaleza, liberación que es contemporánea del abandono de la estética realista, B. Mandelbrot (véase págs. 111 y sigs.) desarrolla una tesis opuesta a ese punto de vista. Para él, esos entes son los verdaderos modelos de la naturaleza, más que aquellos otros, «ideales» (simples y regulares), a los que está acostumbrado el matemático. La naturaleza es más fértil en modelos matemáticos que la inteligencia humana; al desembarazarse de las limitaciones impuestas por la idea de que la realidad, como «creación divina», obedecía a leyes puras (y en consecuencia, simples), la inteligencia humana no se ha apartado de la naturaleza, sino que ha encontrado otros modelos más ricos y más complejos. Compárense estas dos concepciones concernientes a la relación de las matemáticas con lo real, desde el punto de vista de la simplicidad y de la complejidad, con las concepciones de Descartes (véase F. de Gandt, págs. 57-60, de Galileo (véase F. de Gandt, pág. 51), de Einstein (véase el prefacio) y de Feynman (véase J.-M. Lévy-Leblond, página 82). (N. del E.) <<
www.lectulandia.com - Página 236
[17] Publicado en 1977 por Gauthier-Villars, dentro de la colección «Discours de la
méthode». (N. del E.) <<
www.lectulandia.com - Página 237
[18] Para una exposición detallada sobre las matemáticas constructivas, presentada por
un especialista, cf. el artículo de R. Apéry en el presente volumen (pág. 217 y sigs.). (N. del E.) <<
www.lectulandia.com - Página 238
[19] Los lógicos matemáticos se han considerado siempre como matemáticos de pleno
derecho. A decir verdad, a los ojos de los lógicos, los matemáticos no lógicos son a los matemáticos lógicos lo que, para los matemáticos, son los físicos a los matemáticos. En efecto, los matemáticos reprochan a menudo a los físicos (véase un poco más adelante, en este mismo artículo) por llevar varias generaciones de retraso respecto a las matemáticas de su tiempo y por utilizar debido a ello teorías completamente anticuadas y horriblemente complicadas, siendo así que podrían aprovecharse con ventaja de las actuales teorías matemáticas, fecundas y potentes, si accedieran a ponerse al día. Del mismo modo, los lógicos ya no se conforman con la teoría fundamental ZF, como hicieron durante el período entre las dos guerras mundiales, sino que ahora dirigen más bien sus investigaciones hacia las consecuencias que pueden derivarse de teorías más fuertes que la ZF, obtenidas al añadir nuevos axiomas a los axiomas de la ZF. A los matemáticos que se contentan exclusivamente con la teoría ZF para proporcionar una base firme a sus trabajos, sin preocuparse lo más mínimo por las elucubraciones de los lógicos contemporáneos de renombre, conviene contestarles que en la época en que Zermelo, Fraenkel y Skolem propusieron una axiomatización de la teoría de conjuntos, los matemáticos no tenían nada que hacer con ella y no se interesaban, de hecho, más que por la teoría ingenua de conjuntos, la de Cantor, de naturaleza preaxiomática, por más que encerrara contradicciones. Cabe, pues, esperar que, con el tiempo, los matemáticos lleguen a digerir los grandes resultados de los lógicos actuales y acaben por interesarse por sus trabajos, en especial por aquéllos susceptibles de tener repercusiones importantes sobre sus propios trabajos; bien es verdad que tales repercusiones no se producen más que en muy contadas ocasiones, pero éstas resultan ser sorprendentes e inesperadas. La mayoría de los axiomas que hoy en día añaden los lógicos a la teoría ZF, tienen consecuencias importantes para las matemáticas corrientes, consecuencias cuyo alcance distamos mucho todavía de haber acabado de estimar. (N. del E.) <<
www.lectulandia.com - Página 239
[20] A. Robinson creó el análisis no estándar con objeto de establecer lo que había de
legítimo en los métodos infinitesimales de los fundadores del análisis, Newton y Leibniz. Algunos matemáticos sueñan con hacer del análisis no estándar una panacea, al igual que se intentó hacerlo con la teoría de categorías en los años sesenta y con la teoría de topos desde hace algunos años. (N. del E.) <<
www.lectulandia.com - Página 240
[21] La noción de ultraproducto, utilizada ya implícitamente por Skolem en un caso
particular, en 1933-1934, para exhibir un modelo no estándar de la aritmética de Peano, fue puesta de manifiesto y estudiada a partir de 1955 por Tós como método fecundo en teoría de modelos. (N. del E.) <<
www.lectulandia.com - Página 241
[22] Leyendo la obra fundamental de Chang y Keisler, Model Theory (North-Holland),
se extrae el convencimiento de que la noción de ultraproducto constituye el cogollo de uno de los métodos de investigación más fecundos en teoría de modelos. En cuanto a la propia teoría de modelos, está en la encrucijada del álgebra universal y de la lógica: ello significa que, en su seno, el álgebra y la lógica se interpenetran muy profundamente y que la distinción entre métodos lógicos y métodos algebraicos resulta, en ese dominio, tan anticuada y poco fundamentada como la separación entre el álgebra y la geometría, que los manuales mantienen todavía aunque los matemáticos, desde hace mucho tiempo y para mayor fecundidad de las matemáticas, hayan hecho saltar en pedazos las barreras artificiales que separaban a ambas. (N. del E.) <<
www.lectulandia.com - Página 242
[23] Sin embargo, el axioma de elección numerable parece insuficiente en geometría
algebraica y, de manera general, en álgebra conmutativa, puesto que en ese campo se trabaja habitualmente con cuerpos algebraicamente cerrados y se utiliza constantemente el lema de Zorn. Ahora bien, el lema de Zorn es equivalente al axioma de elección, y el teorema que establece que todo cuerpo se sumerge en un cuerpo algebraicamente cerrado reposa sobre el axioma de elección. (N. del E.) <<
www.lectulandia.com - Página 243
[24] Véase el texto de J.-M. Lévy-Leblond, pág. 75 y sigs. (N. del E.) <<
www.lectulandia.com - Página 244
[25] Vid. Platón, La República, libro VII, 523-528 especialmente, a propósito del
programa matemático adecuado para la educación de los filósofos-reyes. (N. del E.) <<
www.lectulandia.com - Página 245
[26] Sobre la vida de Arquímedes (287-212 a. C.), cf. Plutarco, Vida de Marcelo, XXI
al XXIX. Acerca de éste, el más eminente representante de una civilización predispuesta a la especulación, es interesante leer lo que dice E. T. Bell: «Gracias a Plutarco, conocemos más detalles de su muerte que sobre su vida; a decir verdad, Plutarco, ese típico biógrafo, pensó evidentemente que el rey de los matemáticos era un personaje de menor importancia histórica que el soldado romano Marcelo y, en su Vida de los hombres ilustres, deslizó la historia de Arquímedes a la manera de una delgada loncha de jamón en un enorme bocadillo. Sin embargo, el recuerdo glorioso de Arquímedes sobrepasa en la actualidad a la odiosa memoria de Marcelo. En la muerte de Arquímedes, nos enfrentamos por vez primera con el choque de una civilización groseramente utilitaria que arremete contra algo superior y lo destruye: Roma, ahíta de victorias y empapada de púrpura imperial, luego de haber poco menos que destruido Cartago, se abate sobre Grecia para quebrar su magnífica fragilidad» (Les grands mathématiciens, París, Payot, 1950, trad. A Gandillon, pág. 39). Puede también consultarse la edición inglesa, todavía en el mercado, Men of mathematics, Nueva York, Simón and Schuster, 1965, págs. 28-29. (N. del E.) <<
www.lectulandia.com - Página 246
[27] Siglo III d. de C. (N. del E.) <<
www.lectulandia.com - Página 247
[28] Para una exposición reciente sobre los números de Fermat y de Mersenne, véase
H. M. Edwards, Fermat’s last theorem (A genetic introduction to algebraic number theory), Heidelberg, Springer, 1977, págs. 19-25; P. Ribenboim, 13 lectures on Fermat’s last theorem, Heidelberg, Springer, 1979, págs. 20, 24, 27, 154; y A. Bouvier y M. Gcorge (bajo la dir. de F. Le Lionnais), Dictionnaire des mathématiques, París, PUF, 1979, págs. 297, 408. El descubrimiento de los números de Fermat primos y de los números de Mersenne primos se parece mucho a las proezas deportivas: a uno le gusta mencionar a quien tiene el récord actual. n
Los únicos números de Fermat Fn = 22 + 1 que son primos y se conocen hoy en día, son los descubiertos por Fermat: F0 = 3, F1 = 5, F2 = 17, F3 = 257 y F4 = 65.537. Euler demostró que F5 es divisible por 651. Para 5 ≤ n ≤ 16, está comprobado que los números de Fermat Fn no son primos. Se ignora si F17 es primo o compuesto. El mayor número de Fermat que se conoce es F1.945 (divisible por 5 × 21.947 + 1): está integrado aproximadamente por 10582 cifras. En cuanto a los números de Mersenne Mp = 2p − 1, se conocen 27 que son primos. Los mayores son: M19.937 (que se escribe con 6.002 cifras), descubierto por Tuckermann en 1971; M21.701 (6.533 cifras), descubierto en 1978 por dos estudiantes americanos (¡tenían dieciocho años!) de la universidad de Hayward (California), Laura Nickel y Curt Noli (para la verificación fueron necesarias 440 horas de ordenador); M23.209 y M44.497, descubiertos en 1979 por Nelson y Slavinsky. (N. del E.) <<
www.lectulandia.com - Página 248
[29] Sobre la constante de Euler, véase P. Dubreil, «Les nombres mystérieux», en F.
Le Lionnais (dir. de publ.), Les grands courants de la pensée mathématique, París, A. Blanchard, 1962, págs. 99-113, en particular págs. 112-113; y F. Le Lionnais, Les nombres remarquables, París, Hermann, 1982. No es extraño que, al igual que para el caso del gran teorema de Fermat, muchos matemáticos hayan estudiado el tema: los que se han creído en el deber de legarnos sus trabajos al respecto no han dejado, hasta el presente, más que demostraciones falsas. (N. del E.) <<
www.lectulandia.com - Página 249
[30] Para una exposición del método de descenso de Fermat a propósito de la ecuación
x4 + y4 = z4 véase P. Samuel, Théorie algébrique des nombres, París, Hermann, págs. 19-21, o H. M. Edward, Op. cit., págs. 8-10. (N. del E.) <<
www.lectulandia.com - Página 250
[31] Existen sin embargo varios métodos para demostrar la trascendencia de números.
En general, son enormemente técnicos y se sirven de aproximaciones diofánticas, la independencia lineal, demostraciones por reducción al absurdo, mayoraciones y minoraciones. Una exposición de estos métodos se encuentra en A. D. Gelfond, Transcendental and algebraic numbers, Nueva York, Dover, 1960; M. Waldschmidt, Nombres transcendants, Heidelberg, Springer, 1974; A. Baker, Transcendental number theory, Cambridge University Press, 1975; y A. Baker (ed.), Conference on transcendence theory, Nueva York, Academic Press, 1977. (N. del E.) <<
www.lectulandia.com - Página 251
[32] Si se hace y = x + (1/3)a en la ecuación x3 + ax2 + bx + c = 0, se obtiene una
ecuación de la forma y3 + py + q = 0, cuyas soluciones vienen dadas por la fórmula de Cardano
(N. del E.) <<
www.lectulandia.com - Página 252
[33] Estas sesiones públicas tienen lugar a mediados de noviembre, a mediados de
febrero y a mediados de junio, cada curso universitario, en el Institut Poincaré. (N. del E.) <<
www.lectulandia.com - Página 253
[34] La publicación del Seminario Burbaki está a cargo de Springer a partir de la
memoria n.º 347, año 1968-1969, y cada volumen cubre el conjunto de las sesiones de un curso universitario. La última memoria, de la sesión de junio de 1981, era la número 578. (N. del E.) <<
www.lectulandia.com - Página 254
[35] Hay sin embargo una excepción, que confirma por otra parte la regla: véase la
memoria de J. Stern sobre los trabajos de Jensen relativos a los cardinales singulares, n.º 494, noviembre de 1976. (N. del E.) <<
www.lectulandia.com - Página 255
[36] Saccheri (Giovanni Girolamo, 1667-1733). Este jesuíta, matemático, y filósofo
italiano presentó en 1733 —al igual que J.-H. Lambert (1728-1777) en 1776 y F. A. Taurinus (1794-1874) en 1825— una serie de proposiciones que se derivaban de la negación del axioma de Euclides y en las que creyó ver los primeros pasos de una demostración por reducción al absurdo: Saccheri distinguía los tres casos de figura correspondientes al hecho de que la suma de los ángulos de un triángulo fuera inferior, igual o superior a 180 grados. Publicó sus resultados en una obra titulada Euclides ab omni naevo vindicatus: sive conatus geometricus quo stabiliuntur prima ipsa universae geometriae principia. El objeto de este libro apologético, como así lo indica claramente su título, era defender la geometría de Euclides contra los ataques a los que se veía sometida por parte de los geómetras, que encontraban que el postulado de las paralelas no poseía el carácter inmediato y evidente de un axioma. Al no conseguir llegar a una contradicción, «salvó» su obra ante sí mismo —y a los ojos del público— afirmando de manera perentoria que las hipótesis antieuclidianas de partida eran falsas. Puede encontrarse información complementaria fácilmente accesible en el artículo de Imre Toth, profusamente ilustrado, publicado en «La Recherche», n.º 75, febrero 1977, págs. 143-151, con el título «La révolution non euclidienne». (N. del E.) <<
www.lectulandia.com - Página 256
[37]
A un nivel elemental, puede consultarse H. P. Manning, Introductory NonEuclidian Geometry, Nueva York, Dover, 1963; L. Godeaux, Les Géométrics, París, A. Colin, 1960, cap. 4 (esta obra presenta, además, un interés filosófico). (N. del E.) <<
www.lectulandia.com - Página 257
[38] La axiomática de Peano en los cálculos lógicos de primer y segundo orden. Esta
axiomática de la aritmética tiene su origen en el Formulario (Peano, 1894). De los cinco axiomas históricos de Peano que conciernen a la función de consecutividad (y = x + 1), dos han caído en desuso (0 es un entero, el sucesor de un entero es un entero) por el hecho de que, en una axiomática, se sobreentiende siempre que se está hablando de una especie matemática determinada (los enteros, los reales, los conjuntos, los puntos, etc.), y sólo tiene utilidad nombrar las subespecies (los enteros de entre los racionales o los reales, los conjuntos de entre las clases, etc.) que dan lugar a enunciados particulares, no válidos para la totalidad de la teoría. Subsisten tres axiomas históricos: (1)
∀a 0 ≠ a + 1;
(2)
∀ab a ≠ b ⇒ a + 1 ≠ b + 1
y, por último, el axioma de inducción o de recurrencia, que Peano trató como un axioma único de segundo orden, es decir, incluyendo un cuantificador ∀P aplicado a una propiedad, o a una relación, y no a un entero: (3)
∀P (P(0) ⋀ ∀x (P(x) ⇒ P(x + 1))) ⇒∀a P(a).
En el marco del cálculo lógico de segundo orden, que es el ámbito más intuitivo para el matemático, se demuestra por recurrencia que, para cada entero a, existe la función +a, obteniéndose el enunciado: ∀a ∃f f(0) = a ⋀ ∀x f(x + 1) = (f(x) + 1); a continuación, haciendo pasar el ∃f delante del ∀a, por medio de la transformación de la función monaria f en una función binaria por el argumento adicional a, se obtiene el enunciado: ∃f ∀a f(a, 0) = a ⋀ ∀x f(a, x + 1) = (f(a, x) + 1) que demuestra la existencia de la adición; análogamente se obtiene el enunciado de existencia para la multiplicación: ∃x ∀a g(a, 0) = 0 ⋀ ∀x g(a, x + 1) = g(a, x) + a El cálculo de segundo orden, pese a ser tan intuitivo y a que el matemático se sitúa de hecho casi siempre en su contexto mientras no tiene que vérselas con la lógica, es un cálculo que presenta, por desgracia, graves inconvenientes lógicos. Sobre todo, en el marco de dicho cálculo no se dispone del teorema de compleción (Gödel, 1930), que
www.lectulandia.com - Página 258
dice que si una fórmula P es una tesis semántica (siempre verdadera, sea cual sea la teoría), entonces es una tesis sintáctica (fórmula obtenible en toda teoría por aplicación de las reglas formales de la deducción), y recíprocamente. Accesoriamente, las reglas del cálculo de segundo orden no han podido nunca codificarse de una manera precisa, porque, de hecho, dependen de la manera en que se presente el cálculo lógico, de la metateoría en la que éste se halle inmerso (véase el apéndice 3: «Teoría, metateoría…», págs. y sigs., y el § 4 del artículo). Las exposiciones modernas de la axiomática de Peano se hacen, pues, en términos del cálculo lógico clásico, o de primer orden con identidad. La inducción, o recurrencia, se expresa por el siguiente esquema axiomático: (3)
(P(0) ⋀ ∀x (P(x) ⇒ P(x + 1))) ⇒ ∀a P(a),
que representa una infinidad de axiomas de recurrencia, obtenidos cada uno al sustituir P por una fórmula arbitraria en +y; también se puede sustituir P(x) por una fórmula evidente (x = x), o verdadera (x ≠ x + 1), o evidentemente falsa: x ≠ x o también x = x + 1; en todos los casos se obtiene un enunciado de recurrencia verdadero, en el sentido de que es un axioma de Peano. (4)
∀x x + 0 = x, y
(5)
∀xy x + (y + 1) = (x + y) + 1;
y los axiomas de multiplicación: (6)
∀x x · 0 = 0
(7)
∀xy x · (y + 1) = (x · y) + x.
Nótese que 0 y 1 no son símbolos primitivos de la teoría, sino que son definibles: 0 es el único u tal que u + u = u, y 1 es el único v tal que v · v = v con v + v ≠ v. Nótese también que, en el cálculo de primer orden, estamos obligados a considerar a la adición + y a la multiplicación · como símbolos o predicados primitivos respecto a los axiomas; mientras que en el cálculo de segundo orden podíamos contentarnos con la consecutividad y = x + 1 como predicado primitivo, y a partir de ella era posible definir + y ·. Añadamos que, en la axiomática precedente, se ha sobrentendido que + y · son funcionales, es decir, que dados x, y enteros cualesquiera, existe un entero z y sólo uno tal que z = x + y, y un t y sólo uno tal que t = x · y. En rigor, la adición debería denotarse mediante un símbolo o predicado ternario (con tres argumentos), escribiendo por ejemplo S(x, y, z) en lugar de z = x + y; de la misma manera, el producto o multiplicación se denotaría por P(x, y, z) en lugar de z = x · y; entonces, la
www.lectulandia.com - Página 259
existencia y la unicidad señaladas deben escribirse explícitamente en forma de axiomas (el lector mismo puede hacerlo sin dificultad). Queda por tratar una cuestión muy importante, resuelta por Gödel (1930): todos sabemos que la aritmética no es eficaz más que en virtud de las definiciones recurrentes o inductivas: por ejemplo, la factorial se define usualmente mediante la recurrencia: 0! = 1 y ∀a a! · (a + 1) = (a + 1)! Ahora bien, esas definiciones son completamente incorrectas en la forma en que se han escrito: el símbolo definido (la factorial !) no puede sustituirse, a simple vista, por una expresión que sea función de + y de ·, como sí puede hacerse por ejemplo con el símbolo de comparación ≤ cuando se pone x ≤ y si y sólo si existe un t tal que x + t = y; o como también puede hacerse con el símbolo r, resto de la división de a por b, que está definido si y sólo existe un q (el cociente) tal a = b · q + r y un s no nulo tal que r + s − b (dicho de otra manera, r < b). El método de Gödel se basa en el teorema chino que dice que, dada una sucesión finita arbitraria de enteros a1, a2, …, an, existe una progresión aritmética r1 (i = 1, 2, …, n) y un entero u tales que cada ai es el resto de la división de u por ri. Más precisamente, ello permite definir de manera lógicamente correcta la factorial, pongamos por caso, por el hecho de que b = a! equivale a la siguiente condición, que se expresa mediante los predicados suma y producto únicamente: existen dos enteros, u y v, tales que 1 = resto de la división de u por v + 1; tales que b = resto de la división de u por (a + 1) v + 1; y, por último, tales que, para cada i ≤ a − 1, el resto de la división de u por (i + 1) v + 1, una vez multiplicado por i + 1, da el resto de la división de u por (i + 2) v + 1. Nótese que u se convierte pronto en un entero considerable, según esta definición: por ejemplo, para obtener que 4! = 24, hay que remontarse hasta u = 976.431 y v = 6, puesto que: 976.431 = (múltiplo de 7) + 1 = (múlt. 13) + 1 = (múlt. 19) + 2 = (múlt. 25) + 6 = (múlt. 31) + 24. <<
www.lectulandia.com - Página 260
[39]
G. Cantor, «Beiträge zur Begründung der transfinite Mengenzahlen», Mathematische Annalen, vol. 46, 1895, página 481. Reimpreso en G. Cantor, Gesammelte Abhandlungen, Heidelberg, Springer-Verlag, 1932, y Hildesheim, G. Olms, 1966, pág. 282. <<
www.lectulandia.com - Página 261
[40] Las Provinciales de Pascal muestran cómo la duplicidad de lenguaje permite que
dos grupos que defienden tesis opuestas se unan para aplastar a un tercero. <<
www.lectulandia.com - Página 262
[41] N. Bourbaki, Théorie des ensembles, París, Hermann, 1970, pág. E IV. 71, nota 1
<<
www.lectulandia.com - Página 263
[42] Véase el apéndice 2: «Recursividad», pág. 297 y sigs. (N. del E.) <<
www.lectulandia.com - Página 264
[43] Quizás ahí resida el sentido de los trabajos de algunos matemáticos que, como A.
D. Gelfond, C. L. Siegel y A. Baker, sin profesar abiertamente una filosofía constructivista o intuicionista, han aportado sin embargo resultados que dependen de métodos constructivos, y cuya importancia se ha reconocido unánimemente. Quizás convenga recordar que, luego de la primera versión del presente texto, R. Apéry, a una edad en la que ya no se puede ser elegido para la medalla Fields (límite de edad: cuarenta años; mientras que, para los premios Nobel, ¡no hay límite!), ha demostrado la irracionalidad de ζ3, un número que, desde Euler, se resistía a todos los esfuerzos por determinar su naturaleza. El resultado asombró a la comunidad matemática, hasta el punto de que, en un principio, algunos no se atrevieron a creerlo. (N. del E.) <<
www.lectulandia.com - Página 265
[44] R. Carnap, The logical Syntax of Language, Londres, Routledge and Kegan,
1936, pág. 2. <<
www.lectulandia.com - Página 266
[45] A. Tarski, Logique, sémantique, métamathématique (1923-1944), Paris, Colin,
1972, vol. 1, págs. 169-170 <<
www.lectulandia.com - Página 267
[46] J. C. Kemeny, «Semantics as a Branch of Logic», Encyclopedia Britannica, vol.
20, 1957, pág. 311. <<
www.lectulandia.com - Página 268
[47]
R. Montague, «English as a formal Languages» (1970), recogido en Formal Philosophy, ed. pot Thomason, Yale University Press, 1974, pág. 188. <<
www.lectulandia.com - Página 269
[48]
N. Chomsky, «Syntaxe logique et sémantique. Leur pertinence linguistique», Language, 1966, pág. 53. El inciso es una observación debida a Gilbert Lelièvre. <<
www.lectulandia.com - Página 270
[49] D. Davidson, «Truth and Meaning» (1967), recogido en «Daws, Hockney and
Wilson», Philosophical Logic, Dordrecht, Reidel, 1969, pág. 4. <<
www.lectulandia.com - Página 271
[50] Ibid. pág. 5. <<
www.lectulandia.com - Página 272
[51] J. Katz y J. Fodor, «The structure of a semantic theory» (1963), recogido en The
Structure of Language, Englewood Cliffs, Prentice Hall, 1964, pág. 506. <<
www.lectulandia.com - Página 273
[52]
T. Langendoen, «On Selection, Projection, Meaning and Temantic Content», Working Papers in Linguistics (multicopiado), The Ohio State University, 1967, página 102. <<
www.lectulandia.com - Página 274
[53] J. Katz, «Recent Issues in semantic Theories», Foundations of Language, vol. 3,
1967, pág. 128. <<
www.lectulandia.com - Página 275
[54] D. Davidson, Op. cit., pág. 7. <<
www.lectulandia.com - Página 276
[55] M. J. Creswell, «Semantic Competence», en F. Guenthnery M. Guenthner-Reutter
(ed.), Meaning and Translation: philosophical and linguistic Approaches, Londres, Duckworth, 1978, pág. 12. <<
www.lectulandia.com - Página 277
[56] P. F. Strawson, Introduction to logical Theory, Londres, Methuen, 1952, pág.
211. <<
www.lectulandia.com - Página 278
[57]
B. Partee, «Montague Grammar and transformational Grammar», Linguistic Inquiry, 1975, vol. 5, pág. 208. <<
www.lectulandia.com - Página 279
[58] D. Davidson, «In Defense of Convention T», en H. Leblanc, Truth. Syntax and
Modality, Amsterdam, North-Holland, 1973, pág. 81. <<
www.lectulandia.com - Página 280
[59] A. Church, «Ontological Commitment», «Journal of Philosophy», 1958, vol. 55,
pág. 1011. <<
www.lectulandia.com - Página 281
[60] Nos permitimos remitir al lector a nuestra obra Montague et rétude formelle des
langues naturelles, Paris, Klincksieck, col. «Horizons de langage» (de próxima aparición). <<
www.lectulandia.com - Página 282
[61] T. Baldwin, «The philosophical Significance of intensional Logic», Proceedings
of the Aristotelian Society, 1975, supplementary volume, vol. XLIX, pág. 51. <<
www.lectulandia.com - Página 283
[62] … ¡y recíprocamente! (N. del E.) <<
www.lectulandia.com - Página 284
[63] Un monoide libre sobre un alfabeto es un conjunto A (el alfabeto) dotado de una
operación asociativa (llamada concatenación) que permite construir sucesiones de símbolos extraídos del alfabeto A. Sean dos sucesiones (se las llama también palabras formales) s1 = l1 … ln y s2 = l'1 … l'p; la operación de concatenación asocia a dichas sucesiones s1 y s2 una tercera sucesión s3 de la forma: s3 = l1 … ln, l'1 … l'p (l1 … ln, l'1 … l'p ∈ A). En un monoide libre, los símbolos de A pueden ser dispuestos sin restricción ninguna; de ahí la calificación de «libre» (que recubre la noción de libertad en el sentido que se da al término en álgebra universal). Se introduce un elemento neutro: la sucesión vacía. <<
www.lectulandia.com - Página 285
[64] Sea la gramática G
nm = , con VT = {a, b}, VA = {P},
Una regla de reescritura es un par de sucesiones que se representa en la forma «s1 → s2». La regla (r1) significa que el símbolo P «se reescribe» como la sucesión aPb; (r2) quiere decir que P «se reescribe» como ab. Un «historial de producción» es una sucesión obtenida al aplicar las reglas de reescritura. Así, tenemos el siguiente historial:
donde se ha aplicado dos veces la regla (r1) y, luego, una vez la regla (r2). La anterior gramática Gnm es no contextual. En efecto, cada símbolo se reescribe con independencia del contexto en el que aparece. En una tal gramática, todo «historial de producción» está estructurado según un grafo arborescente. La regla independiente del contexto es, pues, una transformación de árboles. Ejemplos:
Aplicar una regla independiente del contexto significa substituir un símbolo no terminal (de V) que aparece en una hoja del árbol general, por el árbol dado a la derecha en la regla aplicada. Así, para el anterior «historial de producción», se tiene:
La sucesión de los terminales aaabbb = a3b3 puede entonces parentetizarse en la forma (a(a(ab)b)b), introduciendo cada paréntesis cada vez que se aplica una regla no www.lectulandia.com - Página 286
contextual <<
www.lectulandia.com - Página 287
[65] Recursividad. Una propiedad es recursiva cuando se aplica a uno de los elementos
que intervienen en su definición. La regla de reescritura P → aPb es recursiva ya que la misma regla es aplicable al resultado de la reescritura. Así se engendran sucesiones de longitud no acotada, por medio de un número finito de reglas recursivas. Por el contrario, la regla de reescritura P → ab no es recursiva. <<
www.lectulandia.com - Página 288
[66] Constricción markoviana. Una constricción tiene esta propiedad cuando cada
estado depende únicamente del estado precedente. En el caso del ejemplo (5), cada relativa está enlazada a un término de la relativa que la precede inmediatamente, con independencia de las relativas precedentes. Los lenguajes formales con este tipo de complejidad se llaman lenguajes markovianos o «con un número finito de estados» o, también, «de Kleene». <<
www.lectulandia.com - Página 289
[67]
Un operador σ es un ente abstracto que, al actuar sobre un operando a determinado, construye un resultado b. Una operación (en el sentido usual del término) se define como una aplicación de un producto cartesiano de conjuntos en otro conjunto. Así pues, a un mismo operador σ se le pueden asociar diversas operaciones definidas según los dominios sobre los que actúa el operador. Es posible definir operaciones de composición entre operadores de manera intrínseca, es decir, con independencia de su actuación sobre los operandos. En lingüística se consideran operadores predicativos (asociados a los verbos, las preposiciones, ]os adjetivos…) que se componen entre sí para formar operadores más complejos (multioperadores). La operación de intrincación permite componer operadores entre sí. Si se representan los operadores σ1 y σ2 por dos árboles:
con igual número de terminales, entonces el resultado de su intrincación es representable por un grafo sin circuitos, del tipo:
Se concibe entonces que la intrincación de un término en varias relaciones predicativas pueda representarse y tratarse formalmente, con la condición sin embargo de definir un «álgebra de operadores» compuestos entre sí de manera intrínseca [12]. Además de la operación de intrincación, notada ×, que permite construir operadores complejos, se define una operación de composición, notada °, de los operadores (elementales y complejos) entre sí. Si se designa por ∑ un conjunto de operadores elementales (predicativos), se construye a partir de ∑, mediante × y °, un conjunto T[∑] que —se demuestra— es recursivo. Este conjunto, estructurado por × y °, pertenece a la clase de los sistemas algebraicos estudiados por J. Benabou [13]; estos últimos constituyen generalizaciones (a diversos tipos de objetos) de las «teorías algebraicas» de F. W. Lawvere [14] Dichos sistemas permiten describir no solamente las operaciones de tematización, sino también otros fenómenos lingüísticos como las relaciones anafóricas (pronombres) (sin utilizar variables). Desde esta perspectiva, cada enunciado se analiza en términos de una disposición de operadores (que se www.lectulandia.com - Página 290
disponen por intrincación, entre otros procedimientos) que actúan sobre operandos; el enunciado viene entonces engendrado por las operaciones inducidas por las disposiciones de esos operadores y sus acciones. Las reglas de disposición de los operadores constituyen la «sintaxis», mientras que el paso a las operaciones inducidas constituye la «semántica». <<
www.lectulandia.com - Página 291
[68]
En matemáticas, el soporte de la noción de verdad se ha trasladado de las proposiciones a las implicaciones: en la actualidad, lo que suscita el consenso de los matemáticos es la verdad de las implicaciones, más que la verdad de las proposiciones enlazadas por ellas. En esto, la práctica matemática difiere de nuestra conducta cotidiana. Nadie se imagina a unos miembros de un jurado a quienes se dijera: «La implicación “si el acusado estaba presente en el lugar del crimen, entonces es él quien lo ha cometido” es verdadera», y que se contentasen con la verdad de esta implicación sin interesarse por la verdad de las proposiciones que la integran (cf. los textos de R. Apéry y de R. Fraïssé en el presente volumen). Este desfase es, en buena medida, responsable de las dificultades con que tropiezan los profesores para enseñar los primeros rudimentos de lógica a partir de ejemplos sacados del lenguaje usual. Cuesta hacer comprender que la proposición: «Si 2 + 2 = 5, entonces el Loira atraviesa París» no sólo no está desprovista de sentido, sino que además es verdadera. Incluso en los niveles preuniversitarios, dicho desfase plantea un problema: hay alumnos que experimentan una cierta dificultad para comprender que el conjunto E = {x ∈ ℝ, ∀z ∈ ℂ, |z| < x ⇒ ∑anzn es una serie convergente}, que interviene en la definición del radio de convergencia de la serie ∑anzn, es un conjunto no vacío, puesto que la implicación «∀z ∈ ℂ, |z| < x ⇒ ∑anzn es una serie convergente» es verdadera, al no existir ningún z tal que |z| < 0. Con todo, aunque ya no existe interés (oficialmente) por la verdad ontológica de las proposiciones, las teorías capaces de suscitar el interés de la comunidad matemática (cf. el texto de J. Dieudonné en el presente volumen) se basan siempre en axiomas compatibles con aquéllos de los cuales se deducen las teorías que están conectadas con la realidad (cf. los textos de J.-M. Lévy-Leblond y de R. Thom en la presente obra); lo cual, de un modo indirecto, les confiere implícitamente el carácter de verdades experimentales. (N. del E.) <<
www.lectulandia.com - Página 292
[69] De hecho, Leibniz defendía una postura mucho más fuerte, a saber: todo lo que es
verdadero es demostrable, en el sentido de que toda verdad se reduce a una proposición idéntica, de la forma: «A es A» (A = A). Nótese que, para él, toda verdad queda expresada por una proposición de la forma sujeto-cópula-predicado: «Vercingétorix tenía cuatro hermanos» (cf. R. Apéry, pág. 85) tiene a «Vercingétorix» como sujeto, a «es» como cópula y, como predicado, a la propiedad «tener cuatro hermanos». Demostrar una proposición, es decir, reducirla a una proposición idéntica, era para Leibniz mostrar que el sujeto está contenido en el predicado, puesto que A ⊂ B ⇒ A ⋂ B = B. Leibniz pensaba incluso que son demostrables todas las verdades, no solamente las que son necesarias sino también las verdades contingentes. La diferencia entre estas dos clases de verdades provenía de que una verdad necesaria se reduce a una proposición idéntica en un número finito de etapas; mientras que la reducción de las proposiciones contingentes exige una infinidad de etapas, lo cual explica que sólo Dios pueda llevar a cabo la demostración de esta segunda clase de verdades. El teorema de incompleción de Gödel puso fin al sueño leibniziano de que toda proposición verdadera es demostrable. (N. del E.) <<
www.lectulandia.com - Página 293
[70]
A. Lautman, Essai sur l’unité des mathématiques, París, Union générale d’éditions, col. «10/18», 1977, «Avant-propos», pág. 20, nota 2. <<
www.lectulandia.com - Página 294
[71] Gilles-Gaston Granger, Essai d’une philosophie du style, París, Armand Colin,
1968. <<
www.lectulandia.com - Página 295
[72] Por función, Russell entiende siempre función proposicional. <<
www.lectulandia.com - Página 296
[73] Véase al respecto el libro de Pierre Dugac, Richard Dedekind et les fondements
des mathématiques, París, Vrin, 1976. <<
www.lectulandia.com - Página 297
[74] En este punto, Galois pensaba sin duda en las funciones que pueden representarse
mediante diversas fórmulas (prolongación analítica), así como en lo que hoy en día se denomina, de manera elemental, la determinación del conjunto de definición de las funciones (determinación del argumento del logaritmo complejo). (N. del E.) <<
www.lectulandia.com - Página 298
[75] Compárese este aspecto del lenguaje matemático con el carácter fugaz de la
actividad matemática descrito por R. Apéry, págs. 86-87. (N. del E.) <<
www.lectulandia.com - Página 299
[76] Forçage en el original. (N. del T.) <<
www.lectulandia.com - Página 300