|=;«|¬m 1 ›uCCIC'2N II 1; ÍJSOFIA - IINCIA
In.- 2_1_1-.¬-_n-m.-›-i-_ ¢_±
Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del copyright, bajo las sanciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografla y el tratamiento informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos. Cubierta: Enric Satué sobre un trabajo artesanal, en pan, de Eduardo Crespo © 1993: Anna Estany, Bareelona © 1993 de la presente edición para España y América: CRÍTICA (Grijalbo Comercial, S.A.), Aragó, 385, 08013 Barcelona ISBN: 84-7423-S38-X
Depósito legal: B. 17.432-l993 Impreso en España 1993. - NOVAGRÁFIK, Puigcerdà, l27, 08019 Barcelona
A Carlos, a Ivan
,\ \
je me suis imposé la loi de ne proceder jamais que du connu à l'i|-rcormu, de ne déduire aucune conséquence qui ne derive immédiatement des expériences et des
observations, et d'enchaïner les faits et les vérítés chimiques dans l'ordre le pà prope à en faciliter l'intelligence aux commençants. Il était impossible qu'en m'assujettissant à ce plan je ne m'écartasse pas des routes ordinaires. C'est en effet un défaut commun à tous les cours et à tous les traités de chimie, de supposer, dès les premiers pas, des connaissances que l'éleve ou le lecteur ne doivent acquérir que dans les leçons subséquentes. Anromrz-LAURENT Lnvolsnan, «Discours Préliminaire», Tìvité Elémenraire de Chimie (considerado el primer libro de texto de quimica) The transmission of scientific knowledge has now become quite uniform. lt relies heavily on the advan-
ced lextbook. Until beginning dissertation research most scientists in most fields learn what theory they know from textbooks -in conjunction with lectures
that also follow a textbook format. If we wish to leam what a theory is from the standpoint of scientists who use that theory, one way to proceed is by examining the textbooks from which they learned most of what they know about that theory. This is obviously not the only way to learn what theories are to scíentists themselves. I would not even claim that it is necessarily the
best way to proceed. But it is a good way, and one that is accessible to someone like me whose training has been prímarily in science and phílosophy. RON/n_n N. Gnalua, Explaining Science. A Cognitive Approach
PRÓLOGO Este libro pretende ser una introducción a la filosofía de la ciencia. No es pues un ensayo aunque pueda, en algunos temas o partes, tomar un carácter ma's interrogativo y problematizante propio de este tipo de literatura. Tampoco es la exposición de una investigación temática sobre un determinado contenido aunque en varios apartados sea resultado de investigaciones realizadas por la autora. Como introducción comporta una serie de caractehísticas propias de este tipo de publicaciones. El libro trata los tenias de modo general en lugar de analizarlos exhaustivamente. Es posible también que muchas veces se sacrifiquen el desarrollo más completo de algún tema o la disquisi-
ción sutil de algún problema que podrian ser interesantes, en aras de la sencillez y de la claridad a fin de no perder la perspectiva general y la finalidadpedagógica propias de una introducción. Lo que se persigue, en definitiva, es proporcionar al neófito en esta materia las categorias conceptuales básicas para que, por un lado, pueda adentrarse, si es su deseo, en temas especificos o en autores concretos y, por otro, pueda también realizar análisis de las ciencias particulares a par-
tir de la filosofia. Aunque como libro de texto pretende dar respuesta a las cuestiones filosóficas básicas, con todo, el libro también plantea problemas a los que no se da, necesariamente, una respuesta definitiva. Y ello, fundamentalmente, debido a la propia naturaleza inquietante de la filosofía. Cuando uno se plantea escribir un libro de introducción para no iniciados en una materia determinada, se pueden presentar varias posibilidades. Al menos en filosofía las introducciones suelen ser casi siempre aproximaciones históricas. Sin embargo, desde el principio me propuse hacer un texto más bien temático y no histórico. Una de las razones, entre otras, es porque existen ya publicaciones satisfactorias
12
m1-r
con esta orientación. Otra posibilidad, bastante extendida, es hacer una introducción presentando las diversas escuelas ya establecidas en filosofia de la ciencia. Esta idea no me parecía suficientemente sugerente y no sólo porque existan también publicaciones con este tipo de aproximación, sino porque no me parece la mejor forma de que el no iniciado establezca su primer contacto con la filosofia de la ciencia. Evidentemente, ello no quita el interés de tal perspectiva en cuanto que se consideran y presentan las diversas soluciones o alternativas que corresponden a distintas escuelas o concepciones. Otra alternativa posible a las presentadas es configurar la introducción a través de problemas cla'sicos de lafilosofia de la ciencia, tales como: la verdad, realismo/antirrealismo, determinism o/indeterminismo, progreso de la ciencia, etc. Esta aproximación me parece muy interesan te pero requiere un nivel de conocimiento previo que, en general, no tienen los alumnos a los que va destinado este texto ¿Es que no hay publicaciones con una orientación temática como la que propongo? En primer lugar, hay que decir que no demasiadas y, en segundo lugar, y es lo pertinen te para el caso, las que existen como por ejemplo la de Hempel La explicación cientifica. Estudios sobre la filosofía de la ciencia o el de Nagel La estructura de la ciencia que, aunque son insuperables, pueden ser, sin embargo, «huesos dificiles de roenr para los novicios en este campo. Es como si se quisiera iniciar a los alumnos en la mecánica clásica con un libro de Newton o en la teoria de la relatividad con un libro de Einstein. Hay otra razón importante para dar a luz un texto con estas caracteristicas y es que, a pesar de la excelencia y la irremplazabilidad de los textos de Hempel y Nagel, «ha llovido mucho» desde que dichos autores escribieron el «abc›› de la filosofia de la ciencia. Aunque Hempel y Nagel siguen
siendo un punto de referencia obligado, ha habido aportaciones posteriores importantes a temas y problemáticas abordados por ellos. En este libro pueden distinguirse dos partes que corresponden, la primera, a los dos primeros capítulos y, la segunda, al resto de los mismos. Los dos primeros capitulos forman una unidad en el sentido de que sitúan la filosofia de la ciencia en el marco del conocimiento en general, el primero desde la vertiente sincrónica y el segundo desde la diacrónica. En el capitulo I se fijan el objeto y el objetivo de la filosofia de la ciencia, delimitando su campo y comparándolo con el de otras actividades intelectuales afines y disciplinas que comparten su objeto de estudio, a saber: la ciencia. En dicho capítulo, también
Pizouooo
13
se caracterizan los distintos aspectos del análisis filosófico de la ciencia (metodológico, ontológico y lógico-semántico), estableciendo los diversos niveles conceptuales de éstos. En el capitulo 2 se sitúa lafilosoƒúr de la ciencia en su propia historia dando cuenta de las aportaciones mtís importantes de los filósofos desde los aspectos introducidos en el primer capitulo. El objetivo fundamental de dicho capitulo es mostrar la continuidad de la reflexión metateórica que se remonta a la filosofia griega. El resto de los capitulos también forman una unidad en si' en el sentido de que proporcionan las metacategorias necesarias para analizar el discurso cientifico. El capitulo 3 trata del lenguaje cientifico.” \ estableciendo y presentando las metacategorúzs que corresponden al análisis filosófico de los conceptos: se introducen, por ej€mpÍ0, ¡G 4€finición, la distinción entre términos observacionales y términos teóricos y las diferencias entre conceptos clasificatorios, comparativos y métricos. El capitulo 4 trata de las hipótesis cientificas como el primer eslabón en la investigación cientifica. El estudio de las hipótesis cientificas se realiza en tres apartados: la formulación de hipótesis, su contrastación y los problemas filosoficos inherentes a la contrastación desde los programas veriƒicacionista (Hempel) y falsacionista (Popper). El capitulo 5 trata de las leyes cientificas: pOr WI Ítldv. Se esfudian la estructura y las caracteristicas de las leyes (regularidad, universalidad y necesidad), por otro, se plantean una serie de cuestiones filosóficas tales como el problema de la inducción, la posibilidad de fundamentación de las leyes y la relación entre leyes dela naturaleza, causalidad y determinismo. El capítulo 6 trata de las teorías cientificas' por un lada se analizan tres concepciones de las teorías cientificas: la concepción sintáctica, la concepción estructural y la concepción sema'ntica; por otro, se plantea la necesidad de otras teorizaciones que también son expresiones de nuestro conocimiento .sistematizad0, fille-Y como las ttpologúzs y los modelos. Finalmente, en el capitulo 7se tmta la explicación científica donde se pone en juego y dirimen todas las categorúzs (conceptos, leyes, teorias, modelos) que concurren al éxito de la ciencia. En primer lugar, se exponen el modelo deductivo y el modelo probabilistico de explicación cientifica; en segundo lugar se analizan las explicaciones funcionales y teleológicas; y finalmente, se presentan algunas de las teorias sobre la explicación más importantes del momento actual, tales como la explicación como unificación (R Kitcher), la teoria pragmática de las explicaciones cientificas (B. van
14
nrrkonucciou A LA r=1LosoFíA DE LA cnaNc1A
Fraassen), y la explicación como acto ilocucionario (R Achinstein). Este libro va dirigido a todos los estudiantes de filosofia y, muy especialmente, a los que quieran especializarse en filosofia de la ciencia, a los estudiantes de las ciencias particulares con preocupaciones epistemológicas, y, en general, a toda persona que quiera poner en práctica su capacidad necursiva. Este libro es elfruto de varios años de docencia en el Departament de Filosofia de la Universitat Autònoma de Barcelona. Se fraguó en la preparación de los cursos de Epistemología, en los que se trataba de iniciar en la filosofía de la ciencia a alumnos de primer ciclo. Los cursos de doctorado impartidos estos últimos años han contribuido también a la confección de este libro. Dicha contribución es doble: por un lado, en ellos he tratado temas especificos tales como Ley y Determinismo, Modelos de explicación científica, Modelos de cambio científico, lo que me ha permitido una mayorprofundización en cada uno de ellos, si bien en esta introducción se exponen los rasgos o aspectos más significativos de los mismos; por otro lado, la procedencia pluridisciplinar de los alumnos matriculados en los mismos, con formaciones distintas, tales como fisica, biologia, sociología, arqueología, psicologia, quimica y matemáticas me ha proporcionado una visión más global de la filosofia de la ciencia y una mayor atención a los problemas de las diversas ciencias particulares y, por consiguiente, una preocupación por dar a la filosofia de la ciencia un carácter más aplicado. Cada uno de los temas contiene una parte expositiva referida a la caracterización de los principales conceptos propios de dicho tema a partir de las aportaciones de lafilosofla dela ciencia. En este sentido
cuando en una nota a pie de página se dice «he seguido de cerca a ›› significa que dicho autor ha hecho una contribución importante en el tema abordado y que a continuación se expone su concepción sobre dicha temática. En los casos en que sea importante atenerse a la propia exposición del autor se transcribe literalmente lo que dice el autor en cuestión. Este es el sentido de que algunas citas sean más largas de lo habitual: en ellas se ha intentado introducir un texto suficientemente completo que pueda servir de comentario para los alumnos. Además de las referencias a casos de la historia de la ciencia, con las que se pretende ejemplificar los conceptos filosóficos introducidos, se intercalan, cuando el caso lo requiere, las «ejemplificaciones››, incluidas en recuadros, que, además de ser nuevas concreciones de los
PRóLoGo
15
conceptos, tienen una doble finalidad: por un lado, la de abundar en los aspectos prácticos de la filosofia de la ciencia, por otro, tanto la defacilitar la posible y conveniente discusión entre los alumnos como la de incentivarles en la búsqueda de nuevos ejemplos. Respecto a las citas el criterio que se ha seguido es dejar la traducción castellana en el caso de que la haya; si la obra no ha sido traduci› da al castellano, la traducción es de la autora. Agradecimientos: I) A David Casacuberta. En su caso es más que un agradecimiento ya que ha colaborado activamente en la elaboración de algunos aspectos de este libro. Su contribución, imprescindible, ha consistido, fundamentalmente, en proporcionar una buena parte de los ejemplos presentados en los apartados de «ejemplificaciones». Pero más allá de esta contribución concreta, su inteligencia, disposición y entusiasmo en el proyecto han sido de gran ayuda sobre todo en la recta final de este libro. 2) A mis alumnos de epistemología que han sufrido, pienso que benignamente, durante los últimos años los ensayos de las diferentes versiones de este libro hasta llegar al presente texto A los alumnos de ¿Of-`f0I'0dQ que al proceder de formaciones distintas, han posibilitado que este libro ofrezca una visión global de la filosofia de la ciencia. 3) A las personas e instituciones que hicieron posible mi estancia como profesora visitante en la UCSD (Universidad de California, San Dfešo), lo que me ha permitido no sólo una mayor disponibilidad de tiempo sino también la posibilidad de contrastar algún tema con colegas de otros horizontes. Por tanto, mi agradecimiento al Ministerio de Educación y Ciencia por la beca de investigación concedida; al Departament de Filosofia de la Universitat Autònoma de Barcelona y, muy especialmente, a Jaume Casalz director del departamento y a Daniel Quesada, catednítico de Filosofia del Lenguaje, por las facilidades que me han dado para resolver problemas administrativos y académicos que tales permisos y reemplazamientos comportan. 4) A Critica por haber accedido a la publicación de este libro, y en especial a Victoria Camps, que dirige la colección de Filosofia, J/ U M." Paz Ortuño, su editora. 5) A mis colegas y amigos Miguel Candel, Toni Domènech, Pedro de la Fuente, Mercè Izquierdo y Carlos Lozares, que pacientemente leyeron el libro, me hicieron sugerencias provechosas y criticas per-
16
INTRODUCCION A LA 1=|uoso|=íA DE LA CiENc|A
tinentes para mejorar algunos aspectos o temas del libro. A ellos todo mi agradecimiento más .sincero 721_l y como ya he indicado, este libro lo elabore' parcialmente durante varios años de docencia e investigación, pero la redacción definitiva tomó cuerpo durante varias «vacaciones›› en Balaguer; finalizándose durante mi estancia en la Universidad de California, San Diego. Sin el clima acogedor y de tranquilidad de mifamilia, mi madre, Concepció, y mis hermanos Pere y M" Teresa, este libro no hubiera sido tampoco posible. A ellos mi mayor agradecimiento. San Diego, California Diciembre de 1992
l. 1.
CUESTIONES PRELIMINARES Fn.oso1=iA Y 1=n.oso1=í.A DE LA cn:Ncul
Es habitual que el profesor de filosofia inicie sus clases con la consabida pregunta «¿qué es la filosofia'!››. El objetivo no es precisamente el dar a continuación la definición de filosofía sino señalar la peculiaridad del conocimiento filosófico y, sobre todo, marcar las diferencias respecto al resto de los saberes. Es difícil encontrar otra disciplina en que la pregunta sobre su propia identidad se plantee desde el inicio con tanta insistencia, apremio y necesidad. Ningún profesor de física o de psicologia comenzaría sus clases con una pregunta equivalente, al menos planteada de manera tan inquietante y dubitativa.
Si los alumnos esperan una respuesta concisa y clara sólo lograrán frustraciones. El profesor (un profesional en la materia) tampoco tiene este tipo de respuesta. Con lodo, tiene varias alternativas para contestar la pregunta. Una puede ser recurrir a la historia y ofrecer a los alumnos productos filosóficos, desde Platón a Wittgenstein y Popper, pasando por Descartes y Kant y esperar que la audiencia saque las consecuencias sobre el contenido de la ñlosofía. Otra posibilidad consiste en plantear una serie de problemas típicamente filosóficos. Por ejem-
plo: el problema de la relación mente-cuerpo, el problema de la fundamentación del conocimiento o el problema de los juicios morales. Una aproximación más sistematizada a esta segunda alternativa consistiría en abordar la filosofia desde distintas ramas, a saber: filosofía moral o ética, antropología filosófica, filosofía política, filosofía de la ciencia, filosofia de la religión y estética. Esta última alternativa nos lleva, si no a una definición, si al establecimiento del estatus de la filosofía. La filosofia en este sentido sería un saber adjetivo, no sustantivo. La filosofia sería «filosofía de». Así tenemos la ética, la esté-
18
INTRODUCCION A LA 1=|Loso1=IA DE LA ciENc|A
tica, la filosofía política y la filosofía de la ciencia como reflexiones sobre sistemas morales, estéticos, políticos y científicos, respectivamente. La filosofía se genera como consecuencia de la capacidad recursiva del Homo sapiens. Podemos pintar un cuadro, escribir una novela o construir una te'oría e inmediatamente reflexionar sobre ello, después reflexionar sobre la reflexión y así hasta el infinito. Al menos teóricamente, la capacidad recursiva del ser humano no tiene límites. De esto se desprende la posibilidad de una estratificación conceptual. Cualquier parcela de la realidad puede ser objeto de una reflexión construyendo unas categorías para aprehenderla y comprenderla mejor. Esta categorización es una conceptualización de primer orden. Si tomamos ésta como objeto de estudio y construimos unas categorías para analizar esta primera conceptualización, obtenemos una conceptualización de segundo orden y así sucesivamente Por tanto, podemos entender la filosofía «como reflexión de segundo orden en la que se trata de obtener ideas claras y distintas acerca de las reflexiones de primer orden de todo género inventadas por la Humanidad en el transcurso del tiempo; hemos caracterizado los productos de la actividad filosófica como “meta-X, donde X" puede interpretarse como cualquier producto intelectual humano» (Moulines, 1991150). La filosofía no es la única actividad que se sitúa en este segundo nivel de conceptualización; la musicología, las distintas críticas (literaria, de arte, etc.) o los comentaristas (deportivos, de modas, etc.) son otras actividades de segundo orden. Ninguna de estas funciones supone la habilidad en la actividad que se está analizando: así pues un musicólogo no necesariamente toca algún instrumento, ni un crítico literario escribe novelas. Pero si necesitan tener conocimiento del ob-
jeto que están analizando, por ejemplo, un musicólogo tiene que saber leer una partitura y un crítico literario saber cuál es la estructura de una novela. El filósofo de la ciencia no tiene por qué ejercer de científico: toma los productos científicos para analizarlos. Siguiendo con la analogía, el filósofo de la ciencia no necesita para ser tal hacer investigación científica trabajando en un laboratorio o haciendo trabajo de campo, aunque sí debe tener conocimiento sobre la ciencia que está analizando. El filósofo de la ciencia toma como objeto de análisis los productos teóricos que ofrecen los científicos.
CUESTIONES PRELIMINARES
Enam>Ln=1cAcióN DE Amtmos Pnonucros 'nsórucos DE cnaucms 1›An-ricuiuuas QUE PUEDEN sen Mo-nvo DE .miusis rrtosórico Psicologia Sobre el psicoanálisis. ¿Cual es el estatus epistemológico del psicoanálisis?, ¿tiene razón Popper cuando dice que no es una ciencia porque es irrefutable?, ¿se trata de una ciencia ya refutada?, ¿hasta qué punto los excesos explicativos de Freud (que a veces hacen irrefutable el psicoanálisis) han de ser parte integrante del psicoanálisis o son sólo accidentes y sigue siendo posible tomar el psicoanálisis como una teoria dentro de una teoría? Sobre las representaciones. Nuestras representaciones mentales y los algoritmos con los que realizamos todo tipo de funciones cognitivas ¿son representaciones y algoritmos explícitos o bien trabajamos con ellos de forma inconsciente y sólo tienen un poder representativo implícito? Dicho en otras palabras, ¿trabajamos de forma similar a un ordenador tipo Von Neuman con reglas y representaciones explícitas o bien nuestra forma de trabajar es radicalmente distinta, y más similar a una red neuronal? Este problema tiene claras implicaciones en cuestiones de inteligencia artificial y de filosofía de la mente, pero también interviene en muchas cuestiones de filosofía del lenguaje, especialmente de semántica y de la forma en que el lenguaje representa el mundo externo. ' Matemáticas Sobre la ontología del cálculo infinitesimal. En la primera formulación del cálculo infinitesimal (Leibniz, Newton) se defendía la existencia de números infinitesimales. Pero estos números conllevaban una serie importante de paradojas (Berkeley tiene algunos escritos en los que ataca el paradigma newtoniano basándose en estas contradicciones ligadas al concepto de infinitésimo). Más tarde, con la formulación de Cauchy, se da una nueva fundamentación del cálculo, quedando así inatacable por las paradojas. Sin embargo, las matemáticas actuales han recuperado la noción de infinitésimo para construir una base ontológica alternativa del análisis matemático, de tal manera que evite las paradojas que la versión antigua comportaba. Diversos pro-
INTRODUCCION A LA Fn.osoFlA DE LA CIENCIA blemas filosóficos muy específicos surgen en este punto: ¿tiene sentido plantearse -filosóficamente hablando- cuál de las dos ontologías (la que suponía infinitésimos y la que no) es correcta?, ¿está libre de paradojas la nueva noción de infinitésimo?, ¿en que sentido puede hablarse de «existencia›› cuando hablamos de infinitésimos? Sobre constructivismo vs. axiomatización. ¿Cuál es el valor de una demostración matemática por reducción al absurdo? Los matemáticos defensores del constructivismo afirman que un ente matemático sólo tiene sentido si se puede especificar totalmente la forma de ser construido de manera recursivamente numerable (es decir, sin implicar una cantidad infinita de pasos). Por esto, consideran que no puede afirmarse la existencia de un objeto matemático si tan sólo tenemos como prueba una demostración por reducción al absurdo. Así, algunos matemáticos niegan la realidad de los números transfinitos ya que sólo puede demostrarse su existencia a partir de demostraciones por reducción al absurdo, como la prueba diagonal de Cantor. Además, según el axiomatismo, para el cual la matemática es un puro ejercicio deductivo a partir de unos axiomas previamente fijados, la demostración por reducción al absurdo no tiene ningún tipo de problema y tiene el mismo valor que cualquier otra demostración. Biología Sobre las leyes en biología. Evidentemente, la bioquímica acoge todo tipo de leyes y lo mismo podemos decir de discipli-
nas como la genética de poblaciones. El problema es si podemos formular leyes estrictamente biológicas. Determinados autores (no siempre de tipo vitalista, algunos, como Ruth Millikan, son naturalistas) consideran que no es posible ya que el hecho biológico sea el resultado de un proceso de evolución por selección natural. Se trata, por tanto, de un proceso histórico resultado del azar y por tanto (como la historia, la psicología y otras ciencias sociales) tiene un estatus distinto al de las ciencias «duras›› como la física o la química. No se trata sólo de que no puedan formularse leyes estrictas sin cláusulas ceteris paribus sino que ni siquiera puede conseguirse la más mínima regularidad estadística. Pensemos en el caso de un espermatozoide: está claro
CUESTIONES PRELIMINARES
que su función es fecundar un óvulo, pero no hay ninguna regularidad estadística en la base de esta función, de los miles Y miles de espemiatozoides que se generan, sólo uno llega al óW1l0Sobre el reduccionismo en biología. La cuestión de si una determinada disciplina científica es reducible a otra más básica, o no, es una pregunta general que puede plantearse para cualquier ciencia, pero históricamente la biología ha sido la disciplina que más problemas filosóficos ha generado respecto a este tema, que está relacionado tanto con problemas epistemológicos como con problemas éticos, religiosos, etc. El problema del reduccionismo en la biología puede plantearse de diversas formas y tiene multitud de cuestiones asociadas: ¿pueden ser todas las leyes y propiedades biológicas traducibles al lenguaje de la física o hay algunas que son irreductibles? (emergentismo). Si una reducción completa no es posible, ¿se sigue entonces la existencia de un principio vital irreductíble a mera materia?, etc. Lingüística Sobre la posibilidad de una gramática universal. Chomskl' afirma que con la pobreza del estímulo que recibe un niño CS imposible generar unas reglas sintácticas como las que poseemos. La única forma de entender esto es postular la existencia de una gramática universal programada en nosotros de forma genética, la cual necesitaría para funcionar sólo unos peqll¢fi0S «parámetros›› que serían lo único que realmente nos pr0D0l'C¡0' naría la experiencia. Chomsky se enfrenta a toda una escuela filosófica (Lewis.
Grioe y otros) que defiende que el lenguaje se fundamenta en un tipo especial de convención. Una de las cuestiones eD¡S1¢m°' lógicas que surge en este punto es cuál es el objeto de estudio de la lingüística: el lenguaje externalizado, nuestra habla (idealizada) ta] como se ha hecho tradicionalmente, y como actualmente defienden Lewis o Grice, o bien las reglas psicolingüísticas, programadas genéticamente que utilizamos para gene”-I sentencias tal como afirma Chomsky. Sobre la existencia de un lenguaje del pensamiento. 5981311 determinados filósofos nuestro pensamiento está fuertemente estructurado. Fodor, que es el más representativo, afirma que un lenguaje de este tipo ha de ser, en sus conceptos más básicos,
iN'rRoDuCcIóN A LA FiuosoFiA DE LA c|ENciA innato, ya que si no, sería absolutamaite imposible aprender cualquier cosa. A pesar de ser un tema que roza la psicología, tiene una gran importancia en psicolingüística y en semántica ya que plantea toda una serie de cuestiones sobre cómo articular nuestros conceptos, en qué se fundamentan y cómo explicamos la actividad cognitiva de los niños y de los animales. Física Sobre la naturaleza de las partículas subatómicas. La interpretación de Copenhague de la mecánica cuántica ha generado, en el mundo filosófico, una serie de paradojas de difícil solución que chocan frontalmente con el sentido común. Una de las más complejas es, sin lugar a dudas, el hecho de que es necesario considerar que las partículas subatómicas son un paquete de ondas que indican distribuciones de probabilidades. Esto plantea una serie de complicados problemas tanto de tipo ontológico como epistemológico. Algunos filósofos y científicos han utilizado la física cuántica para defender posturas idealistas (Wegener con su defensa de la conciencia como bloqueadora del paquete de ondas es un buen ejemplo) mientras que otros filósofos de tipo más materialista afirman que hay algo de incorrecto en la interpretación de Copenhague y que hace falta rehacer totalmente la interpretación de la física cuántica. Temas clásicos como la naturaleza de la materia y del tiempo o la perturbación que la observación experimental introduce en la realidad observada han tenido un replanteamiento radical con la mecánica cuántica. Sobre la reducción a la microfísica. Dejando de lado de-
terminados casos paradìgmáticos, como los choques entre objetos rígidos (verbigracia, las bolas de billar) parece que para estar seguros de la realidad de una ley científica y conocer la forma en que opera, es decir, para explicar la ley, hemos de reducir los componentes que la forman a otros más básicos hasta llegar a una ley de tipo microfísico. Si podemos llegar, o al menos pensamos que hay en principio una forma de llegar, entonces daremos por buena la ley; en caso contrario, la ley estará bajo sospecha. Así, las leyes de la herencia no quedarían realmente clarificadas y explicadas hasta que no pudieran ser reducidas a leyes bioquímicas, y la bioquímica no quedaría realmente clara
cuEs'rIoNEs PRELIMINARES
23
hasta que no hubiéramos bajado al nivel de la química cuántica. ¿Es realmente necesaria tal reducción? Evidentemente, en un sentido pragmático no es necesaria; un bioquímico que hace un estudio concreto sobre ADN no tiene ninguna razón para intentar una reducción; además, trabaja con la seguridad de que otros por él han demostrado la posibilidad de la reducción. ¿Cuál es la razón por la que se pretende esta reducción? ¿Es acaso la de encontrar el fundamento último en los elementos más básicos para garantizar la verdad? ¿La mayor generalidad de las leyes de tipo microfísico, que no se encuentran atrapadas en cláusulas ceteris paribus sino que realmente son universales?, ¿o quizás es sólo un puro criterio metodológico de tener el máximo de leyes fundamentadas a partir de un mínimo de hipótesis, además de tener garantizados unos criterios de reducción de una disciplina a otra cuando esto sea necesario? Sociologia Sobre individualismo vs. holismo metodológico. ¿Cuáles son las unidades de análisis de la sociología: los individuos o las colectividades? El problema que se plantea es dónde reside lo significativo en sociología. Sobre comprensión vs. explicación. ¿Es posible explicar los fenómenos sociales o sólo podemos llegar a comprenderlos a través de una cierta empatía? Se plantea el problema del potencial teórico de la sociología. Sobre interferencia del investigador en los experimentos. ¿Son posibles los experimentos neutrales en sociología? En caso de que haya interferencia, ¿puede ser controlada?
2.
LA cIENcIA como onrE'ro DE Es'rUDIo DE LA 1=II.oso1=iA
La ciencia puede ser objeto de estudio de otras disciplinas, analizándola desde otras perspectivas, a saber: politica, sociológica, ética y psicológica. Esta diversidad de enfoques en el análisis de la ciencia ha sido y sigue siendo motivo de debates entre filósofos de la ciencia. Nos detendremos en la perspectiva del externalismo vs. internalismo ya que en la mayoría de los casos se ha planteado en dichos términos.
24
INTRODUCCION A LA I=II.osoI=lA DE LA CIENCIA
Se suele atribuir a los internalistas el no tener en cuenta las influencias políticas, sociales, etc. (extemas a la ciencia) sobre la ciencia, mientras que a los extemalistas, el considerar que la ciencia es producto del contexto cultural, político y sociológico. Se trata de posturas extremas (versiones ingenuas) aunque podríamos encontrar otras menos radicales en uno u otro sentido (versiones sofisticadas). Como ejemplos de estas dos tendencias tenemos a dos autores que han sido considerados representantes de una y otra postura, C. Hempel como internalista y P. Feyerabend como externalista. Sin embargo, la dicotomía internalista/externalista, en función del tener o no en cuenta la influencia de los factores externos (sociales, políticos, etc.) en la ciencia, es un planteamiento confuso. Si lo que quieren decir los extemalistas es que el análisis de la ciencia no se agota en su aspecto filosófico podría haber acuerdo general, pero esta argumentación es trivial. ¿Cómo puede negarse que los presupuestos que el Estado dedica a la investigación científica no repercutirán en el desarrollo de la ciencia, que determinadas líneas de investigación plantean problemas éticos, o que los cientificos constituyen un grupo social y, por tanto, reproducen las pautas de comportamiento que los sociólogos atribuyen a cualquier grupo humano? Esto no lo negaría ningún autor considerado internalista. Ni Hempel ni la tradición del empirismo lógico del Círculo de Viena (considerado por muchos extemalistas como el exponente máximo del internalismo) negarían estas influencias que recibe la ciencia. Si, por el contrario, lo que afimran los externalistas es que no es posible separar conceptualmente la filosofía, la psicología, la sociología y la ética de la ciencia, entonces lo que sostienen los externalistas sería,
simplemente, erróneo. Un binomio que quizás se adecuaria mejor a la diferencia entre
los dos enfoques que hemos analizado sería holismo vs. fragmentacionismo. Los extemalistas, probablemente, se considerarían holistas, pero si tenemos en cuenta algunas de las manifestaciones extemalistas actuales -me refiero al llamado sociologismo- vemos que está tan lejos del holismo como podría estarlo el positivismo lógico de los años cuarenta. El sociologismo es una variante del monismo metodológico como el que podía practicar el Círculo de Viena pero, a diferencia de éste, no tiene como modelo la física sino la sociología. Además el sociologismo tiene un ingrediente determinista (determinismo sociológico) y reduccionista (reducción a lo sociológico). Ya hemos tenido su-
CUESTIONES PRELIMINARES
ficientes intentos de explicación unilateral como para resucitar ahora el determinismo sociológico. Unas reflexiones de Moulines sobre el «sociologismo metacrentrfico» me parecen adecuadas para cerrar un tema que hoy día suscita tanto debate. Aunque el sociologismo metacientífico está muy en boga hoy día, no por ello es más correcto. Es simplemente una forma especialmente bárbara de empirismo nominalista, de desconfianza primitiva hacia «entidades abstractas». A éstas. el sociologista quizás esté dispuesto a admitirlas a regañadientes en el ámbito de las ciencias naturales, porque no puede negar el éxito que ha tenido en ellas la aplicación de las matemáticas (una empresa de producción de entidades abstractas en gran escaIa); pero se niega rotundamente a admitir cualquier abstracción, cualquier «universal››, en las ciencias de la cultura, y en particular en
las ciencias de la ciencia (Moulines, |99|:73). El adjetivo «metacientífico›› con el que Moulines califica este enfoque puede entenderse como el intento de diferenciarlo de la sociolo gra de la ciencia, tan válida como cualquier ciencia empírica.
Enam>I.n=IcAcróN DE I=ENómaNos cIENríI-'Icos QUE PUEDEN sEIz onrE'ro DE Esrumo DE o-nus DIscIr>I.INAs Política dela ciencia. ¿No debería apoyarse la divulgación de las ciencias entre el público, ya que nos encontramos en un
mundo muy interconectado con la ciencia? ¿Qué cantidad del PIB debería dedicarse a la investigación empírica? ¿Debe apoyarse la investigación fundamental o pura, sin utilidad práctica a corto plazo, o sólo se ha de apoyar la investigación de utilidad inmediata? Sociología de la ciencia. ¿Cómo influye la extracción social de un científico en los resultados de su investigación? ¿Cuáles son los sentimientos generales de la población con relación a las nuevas tecnologías: las ven como una panacea o como un peligro? ¿Por qué no hay prácticamente ninguna mujer que haya logrado destacar en matemáticas?
26
rN1'RoDuccroN A LA F|uosoFrA DE LA c|ENc|A Psicología de la ciencia-
¿Influyen las creencias religiosas
5
de un cosmólogo a la hora de aceptar o rechazar la teoría del Big Bang? ¿Cuál es, en términos generales, la edad a la que un investigador es más productivo? ¿Los matemáticos utili-_ zan imágenes visuales de algún tipo para ayudarse en sus calculos? Ética de la ciencia. ¿Es éticamente correcto que un científico trabaje en el desarrollo de ai-mas dg demuççión masiva? Puesto que no tiene el menor valor científico, ¿sería ético prohibir la publicación y práctica de la astrología? ¿Sería ético crear híbridos tomando el ADN de un ser humano introduciéndole genes de otras especies animales?
3.
ÁSPECTOS FUNDAMENTALES DE LA REFLEXIÓN FILOSÓFICA SOBRE LA ClENCIA2 METODOLÓGICO, ONTOLÓGICO Y LÓGICO-SEMANTICO
Una VCZ d€1ÍmÍlfld0 10 que entendemos por filosofía de la ciencia, demarcándola al mismo tiempo de otros campos de conocimiento que comparten su objeto de estudio y comparándola con otros campos del conocimiento que están, al igual que la filosofia de la ciencia, en el mismo nivel de conceptualización, vamos a especificar a continuación en qué consiste el análisis filosófico de la ciencia. Si revisamos la literatura en el campo de la ñlosofía de la ciencia encontramos denominaciones como «metodología de la ciencia» o «ló-
gica de la ciencia». Sobre todo en los comienzos de su institucionalización con el Círculo de Viena, la filosofía de la ciencia se entendió como lógica de la ciencia, en el sentido de reconstrucciones de las teorías científicas con estructuras formales. También, sobre todo con relación a las ciencias empíricas, a veces se ha entendido la filosofía de la ciencia como metodología de la ciencia, en el sentido del establecimiento del método científico. Ambos sentidos son pertinentes para el análisis de la ciencia pero parciales si se toman unilateralmente. Podemos distinguir tres aspectos fundamentales de la reflexión metacientífica, a saber: el metodológico, el ontológico y el lógico-se. mántico.
cuEs'rroN|as r|ua|.1M|NARBs 3.1.
27
Cuestiones metodológicas'
En la literatura de los filósofos de la ciencia y de los cientificos encontramos continuas referencias a «método›› o términos afines como «metodologia››, pero no siempre hay unanimidad en cuanto al significado. Por tanto, una cuestión previa al análisis del papel de la metodología en la investigación cientifim es acotar el ámbito de las cuestiones metodológicas. No vamos a dar una definición de método, en el sentido de dar condiciones suficientes y necesarias ya que no sería viable debido a la complejidad del término, sino a precisar conceptualmente el uso que se hace de este término en la literatura científica y filosófica. , Partamos, para comenzar, de una idea muy general sobre el contenido de la metodología, a saber: la metodología como abastecedora de guías para elaborar ciencia. Dentro del campo semántico de «metodología››, el rasgo «guías›› sería el común denominador más general de todas las variedades de dicho campo semántico. Veamos pues las principales categorías que pertenecen al campo semántico de «metodologla». Distinguiremos tres categorias que pretenden captar los diferentes sentidos de metodologia en su utilización en el campo científico y filosófico. i) Metodología de primer orden (Ml).2 La Ml está constituida por las técnicas, 0 parte instrumental, de una disciplina.” A veces se la denomina «técnicas de investigación» o «técnicas de análisis». Estas técnicas de investigación pueden ser tanto empíricas como formales (por ejemplo, matemáticas), es decir, pueden referirse tanto al aná-
lisis de la composición de una substancia o a las técnicas de encuesta l. En mi comunicación sobre el papel de la metodologia en los modelos de cambio cientifico, presentada en el congreso intemacional (Uppsala, agosto de 1991) se trata ampliamente la importancia de la metodologia. 2. En el apartado (1) de este capítulo hemos introducido la ciencia como teorización de primer orden y la lìlosofía de la ciencia como teorización de segundo orden. También hemos considerado la capacidad recursiva de los humanos y la posibilidad de teorìzación de tercer orden. U eategorimción de la metodología presentada en este aparlado es la aplicación de la capacidad recursiva a las cuestiones metodológicas. 3. No hay que confundir la parte instrumental de una disciplina con los instrumentos propiamente dichos como los utilizados en los laboratorios.
28
INTRODUCCION A LA |=rLosoFIA DE LA crENc|A
como a las matemáticas utilizadas en la investigación cientifica, desde el análisis multivariable en sociología hasta los espacios de Hilbert en física de altas energias.
EJEMPLLFICACIONES DE LA METODOLOGÍA DE PRIMER ORDEN
~
l) ¿Qué criterio o criterios hemos de seguir en lingüística para decidir si, en una determinada sentencia, una partícula tiene un papel temático (es decirƒejerce una función semántica) o no? Por ejemplo, el sujeto (eliptico) de «parece que Pedro no vendrá» ¿tiene asignado algún papel temático?, ¿y el de «it's raining››? La Ml nos indica qué propiedades debemos atribuir a dichos objetos. 2) Si tenemos un estudio estadístico en una población sobre la intención de voto en unas próximas elecciones, ¿hemos de tener en cuenta el problema de la «profecla autodestructiva››? Es decir, se trata del hecho de que, una vez las encuestas están en la calle, se produzca el fenómeno del voto útil al decidir, una parte de la población, apoyar a un candidato y, menos afin a su ideología, en lugar de votar a z que, en principio tenia previsto, a fin de evitar que salga ganador el candidato x. La Ml indica los criterios para decidir sobre un aparato matemático de estadística. 3) ¿Cómo organizar un experimento en biología que nos permita confirmar (0 refutar) que una determinada mutación sería beneficiosa para una población X en unas condiciones Y?
La Ml indica las condiciones para plantear un experimento de forma correcta. ii) Metodologia de segundo orden (M2). La M2 es la metodologia propiamente dicha y se entiende como equivalente a la filosofia de la ciencia. Si consideramos la filosofía de la ciencia como una reflexión de segundo orden sobre la ciencia, desde su aspecto justificativo. esto sería la M2! Entre las muchas cuestiones que forman parte 4. Hay que señalar que es más adecuado hablar de filosofía de la ciencia que de metodologia de la ciencia, ya que el análisis de la ciencia tiene otros aspectos además del metodológico.
CUESTIONES PRELIMINARES
29
de la M2 están las siguientes: tipos de conceptos científicos, características de una definición, la distinción entre teórico y observacional, los modelos de explicación científica, las características de las leyes de la naturaleza y la estructura de las teorías cientificas. Este nivel metodológico constituye el objeto de estudio central de los filósofos de la ciencia y de los científicos con preocupaciones epistemológicas.
EIEMPLIFICACIONES DE LA METODOLOGÍA DE SEGUNDO ORDEN
l) ¿Las leyes de una teoria lingüística, por las que damos cuenta de los elementos de una frase que tienen asociado un papel temático y cuáles elementos no, han de restringirse a un idioma determinado (por ejemplo el catalán) o se han de poder aplicar, en principio, a cualquier lengua humana? La M2 analiza cuál ha de ser el grado de generalidad de las leyes de la lingüística. 2) ¿Cuáles son los valores epistemológicos que exigimos a las construcciones teóricas? ¿En que consiste el valor epistemológico de la simplicidad? La M2 proporciona criterios de evaluación de la práctica científica. 3) ¿Qué criterios hemos de pedir a un experimento para que sus resultados sean significativos a la hora de dar por buena o refutar una teoria?, ¿estos criterios son generales o dependen de la ciencia concreta a la que nos estemos refiriendo? La M2 analiza la relación entre teoría y experimento.
iii) Metodología de tercer orden (M3). En este nivel metodológico hay que hacer una distinción. Por un lado, está la metafilosofia (M3F), entendida como la evaluación de la maquinaria conceptual ofrecida por la filosofía de la ciencia y por otro, está la metafísica (M3M), entendida como aquellos principios no comprobables empiricamente que están en el sustrato de la investigación científica. Estas dos vertientes de la M3 forman una unidad porque ambas se sitúan en un nivel conceptual superior ala M2. Sin embargo, existen diferencias relevantes entre ambas, ya que mientras la M3F es una consecuencia de la capacidad recursiva del ser humano, la MSM es una consecuencia
30
INTRODUCCIÓN A LA F|Loso|=IA DE LA crENc|A
de las incursiones del entendimiento humano más allá de lo puramente empírico, aunque no en contradicción con lo empíricof
EmMi›r.n=1cAcróN DE cvasrromas M1a'rAi=rLosóFrcAs l) ¿Existen criterios metodológicos generales que nos permitan decir cuál ha de ser el grado de generalidad de una ley? La M3F plantea los criterios metodológicos para valorar, desde el punto de vista cognitivo, cuestiones como la generalidad de las leyes. 2) ¿Existen unos criterios metodológicos generales que nos permitan decir qué aparato estadístico necesitará una teoría concreta? La M3F plantea los criterios metodológicos que hay que tener en cuenta para decidir qué aparato matemático es más conveniente para una teoría científica determinada. 3) ¿Qué grado de generalidad debería tener una teoría filosófica del experimento para que pudiera indicar qué tipo de experimento necesita cada teoría, cuál será entonces su grado de refutabilidad, etc.? La M3F plantea los criterios metodológicos para decidir la importancia de los requisitos de un buen experimento.
EnsMPLn=rcAcróN DE cUEs'rroNEs ME'rA1=ísrcAs l) ¿Se llega a las leyes científicas por un proceso de inducción 0 de deducción? El llamado «problema de la inducción»,
que consiste en decidir sobre el estatus epistemológico de las leyes científicas, constituye una cuestión de la metafísica de la ciencia.
5. la filosofía no tiene por que atarse las manos a las últimas investigaciones empíricas, pero no puede hacer caso omiso de ellas. Por ejemplo, en la última década, la neurociencia ha experimentado un desarrollo espectacular que posiblemente tendrá consecuencias importantes en los presupuestos filosóficos (tanto en la M2 como en la M3) que forman el sustrato de la ciencia. Es decir, la filosofla de la mente no puede establecerse a espaldas de cómo funciona el cerebro y esto no nos lo dirá la lilosofia.
CUESTIONES PRELIMINARES
31
2) ¿Por qué son verdaderas las matemáticas?, ¿por qué son tautologias (Ayer)? ¿Por qué la estructura del mundo «real››, inteligible, es también matemática (Platón)? Otra cuestión de la metafísica de la ciencia es la justificación de las verdades matemáticas. 3) ¿La relación entre la condición antecedente y la condición consecuente de una ley es una relación causal? ¿Las leyes causales son también deterministas, o puede haber causalidad sin determinismo? Las cuestiones sobre causalidad y determinismo de las leyes científicas pertenecen a la MSM.
El tratamiento dela metodología en la literatura cientifica y filosoffica En la literatura científico-filosófica encontramos cuestiones que se enmarcan en los distintos niveles metodológicos aquí presentados. Esto no significa que los autores que han tratado este tema tengan en cuenta dichos niveles a la hora de discutir sobre cuestiones metodológicas, pero no cabe duda de que esta categorización clarifica enormemente los problemas planteados por los científicos y filósofos que han hecho aportaciones en el aspecto metodológico de la ciencia. A continuación analizaremos algunos textos sobre la caracterización del método científico a la luz de las categorías relacionadas con cuestiones metodológicas. P. Suppes (Suppes, l984b) hace reflexiones metodológicas desde los tres niveles. En su ensayo Probabilzlrtic Metaphysics hay consideraciones de tipo metafísico, que proponen un cambio de supuestos me-
tafísicos a raíz del estado de la ciencia actual. La metafísica tradicional tenía, entre otros, los siguientes supuestos: «(1) El futuro se encuentra determinado por el pasado. (2) Cualquier evento tiene una causa determinante suficiente» (Suppes, l984b:2). Suppes considera que estos principios metafísicos están poco acordes con la ciencia contemporánea, por lo cual propone sustituirlos por otros de caracter probabilístico, tales como: «(1) Las leyes fundamentales de los fenómenos naturales son esencialmente probabilistas, más que de carácter determinístico. (2) Nuestra concepción de lo que es la materia ha de contener un elemento probabilístico intrínseco» (Suppes, l984b:l0). Suppes sostiene que no hay una metafísica de la ciencia que se de de una
32
INTRODUCCIÓN A LA FILOSOFIA DE LA CIENCIA
vez por todas sino que los supuestos metafísicos varían (o al menos pueden variar) con los cambios científicos. Los cambios afectan también -según Suppes al método, defendiendo el pluralismo frente al monismo metodológico. Dice Suppes: Ta.I y como he remarcado antes, es especialmente en los métodos
experimentales de las diferentes ramas de la ciencia donde encontramos formas radicalmente diferentes. No es una exageración afirmar que los manuales del método experimental de una disciplina resultan ser generalmente ilegibles por expertos en otra disciplina (y la definición de «disciplina›› puede ser bastante estrecha aquí). Los físicos que tra-
bajan en física del estado sólido no pueden leer de forma inteligible las detalladas explicaciones del método de otras partes de la física. Esto es cierto incluso en ciencias menos desarrolladas, como la psicología. Los psicólogos fisiologistas usan un conjunto de métodos experimen-
tales que son ajenos a los psicólogos especializados, por ejemplo, en teoría de los tests educacionales y, de la misma forma, los intrincados detalles de la metodología de la construcción de tests resultarán desco-
nocidos para cualquier psicólogo fisiologista (Suppes, l984b:l24). Los textos de Suppes aquí presentados son importantes para el tema que nos ocupa, 'tanto para analizar los distintos niveles metodológicos como para demostrar la pertinencia de esta distinción. Los ejemplos que Suppes da de métodos diferentes para argumentar a favor del pluralismo metodológico se refieren a la metodología en el sentido de Ml. Suppes plantea el problema del monismo vs. pluralismo metodológico, cuestión muy debatida entre los filósofos de la ciencia, pero el debate puede ser absolutamente estéril si antes no fijamos a qué nivel metodológico nos referimos. En la obra de Suppes
subyace una concepción pluralista del método científico, pero no es lo mismo mantener este pluralismo en la Ml, en la M2 o en la M3. Suppes presenta los siguientes ejemplos de pluralismo metodológico: los métodos utilizados por los físicos del estado sólido frente a los utilizados por los físicos de partículas elementales; o los métodos utilizados por la psicología fisiológica frente a los utilizados por la psicologia de la educación. Este tipo de pluralismo, posiblemente, sería compartido por la mayoria de filósofos y científicos. El cambio de principios metafísicos -a saber: de la metafísica neotradicional a la metafísica probabilista-, ya sería más discutible y tiene implicaciones epistemológicas más profundas. Suppes plantea la posibilidad del
CUESTIONES PRELIMINARES
33
pluralismo en todos los niveles, pero en los ejemplos aquí expuestos hay una diferencia importante entre el pluralismo en el nivel de la Ml y el del nivel de la M3. En el nivel de la Ml la pluralidad es sincrónica, cs decir, en un tiempo t coexisten diversos métodos en una misma disciplina; en cambio, en el nivel de la M3, la pluralidad es diacrónica ya que unos principios metafísicos sustituyen a otros. El pluralismo propugnado por Suppes no tiene nada que ver con el propuesto por Feyerabend con su máxima del «todo vale». El pluralismo propugnado por Feyerabend (Feyerabend, 1974) en Contra el método, va dirigido, fundamentalmente, a la M2. Toda la discusión en las ciencias sociales en torno a la explicación vs. la comprensión o bien el debate entre los secesionistas y los centralistas -es decir, entre aquellos que dicen que las ciencias sociales (cc.ss.) son cualitativamente distintas de las ciencias naturales (ccnn.) y aquellos que sostienen la unidad de la ciencia- respecto al método científico en las cc.ss. es, en realidad, un debate en torno a la posibilidad de pluralismo en la M2 y, en caso afirmativo, de cuál es su alcance. Vemos, pues, que es absolutamente necesaria la categorización conceptual de la metodología si queremos que el debate sobre pluralismo metodológico sea clarificador y fructífero. W. Newton-Smith (Newton-Smith, 1987) presenta ideas interesantes para la caracterización del método científico. Newton-Smith aboga por el pluralismo metodológico presentando, como argumento delinitivo a favor del pluralismo, el hecho de que incluso en la matemática hay divergencias metodológicas. Como veremos a continuación el pluralismo de Newton-Smith se sitúa, fundamentalmente, en la M2, aunque descartando cualquier enfoque irracionalista a lo Feyerabend. La
cuestión del método científico es compleja -asegura Newton-Smith-; prueba de ello es que, incluso en la matemática, existe cierta controversia sobre qué se entiende por prueba; por ejemplo, los intuicionistas no aceptan la ley del medio excluso. A partir del estado de la matemática Newton-Smith concluye: «Así, si las matemáticas, cuyos resultados son ampliamente acumulativos, carecen de tales principios orientadores, no debiera sorprendernos encontrar que los métodos de la ciencia no puedan especificarse en un conjunto exhaustivo de principios rectores» (Newton-Smith, l987:234). Según Newton-Smith las diferencias metodológicas en la matemática se manifiestan más en las distintas escuelas o tradiciones que en cambios sucesivos radicales, y concluye que si la matemática tampoco se salva de los cambios y dife-
34
INTRODUCCIÓN A LA FIIDSOFÍA DE LA CIENCIA
rencias metodológicos, no podemos esperar patrones metodológicos atemporales y uniñcados. Newton-Smith insiste en la posibilidad de encontrar guías, criterios, principios que nos digan qué teoría es la mejor o, simplemente, cuál es mejor que otra. Una posibilidad, que él no comparte, es la de tomar como criterio de selección de teorías el cálculo de probabilidades. Newton-Smith no pone en duda el valor epistemológico de dicho cálculo, pero se muestra escéptico en el uso del cálculo de probabilidades para la elección de teorías. Desde las categorías metodológicas aquí presentadas, podemos decir que Newton-Smith considerarla adecuado el uso de la teoría de la probabilidad como parte instrumental de la Ml pero no como criterio metodológico de segundo o de tercer orden. Veamos la propuesta de Newton-Smith para lo que puede considerarse el último test a la hora de decir que una teoría es mejor que otra. Dice Newton-Smith: «A largo plazo, pues, la comprobación definitiva de la superioridad de una teoría sobre otra es el éxito observacional» (Newton-Smith, 1987:243). Por tanto, «necesitamos otros factores que nos orienten y que sirvan como indicadores falibles del probable éxito observacional a largo plazo» (Newton-Smith, 1987:244). El papel de estos factores es función de la metodología científica. Entre estos factores Newton-Smith cita los siguientes: «anidamiento observacional, fertilidad, historial, apoyo interteorético, adaptabilidad, consistencia intema, compatibilidad con creencias metafísicas bien fundadas, simplicidad». Estos factores entran de lleno en la M2. Sin embargo, una discusión en torno al peso de estos factores en el proceso de investigación, y a una posible jerarquización del valor de estos valores en caso de conflicto entre ellos, sería una cuestión que corres-
pondería a la M3F. Entre los filósofos de la ciencia hay aportaciones a la M3 en el sentido de formular criterios para la evaluación de las construcciones conceptuales de la M2. Uno de los que plantean de forma explícita la evaluación de sistemas filosóficos es I. Lakatos, quien critica el falsacionismo y el inductivismo por ser doctrinas que no pueden ayudarnos a evaluar los distintos modelos de cambio científico y propone la Metodología de los Programas de Investigación Científica como criterio evaluativo de tercer orden (Lakatos, l983). El trabajo de Lakatos sobre la comparación crítica de las metodologías corresponde a criterios de tercer grado. Dice Lakatos:
CUESTIONES PRELIMINARES
35
La idea básica de esta crítica es que «todas las metodologías funcionan como teorías (o programas de investigación) historiográficas (o metahistóricas) y pueden ser criticadas criticando las reconstrucciones históricas racionales a las que las teorías conducen». Esta versión normativo-historiográfica de la metodología de los programas de investigación cientifica proporciona una teoría general de cómo comparar lógicas del descubrimiento rivales en las que (en un sentido que hay que especificar cuidadosamente) «la historia puede ser vista como un "test" de su reconstrucción racional» (Lakatos, 19832159).
Lakatos critica tanto el falsacionismo como el inductivismo como criterios para comparar «lógicas de descubrimiento rivales», proponiendo como alternativa la metodología de los programas de investigación. La propuesta de Lakatos es aplicar su propio modelo de cambio científico a dos niveles distintos, a saber: a nivel filosófico y a nivel metafilosófico. Popper critica la «metodología naturalista», llamada también «teoría inductiva de la ciencia», que considera la metodología como una ciencia empírica que estudia el comportamiento real de los científicos y los procedimientos efectivamente empleados en la «ciencia››. Esta concepción de la filosofia de la ciencia encaja con una propuesta reciente de Laudan sobre la investigación en el campo de la dinámica científica. En síntesis, la propuesta de Laudan dice que cualquier afirmación sobre el funcionamiento de la ciencia hay que contrastarla con la historia de la ciencia. Dice L. Laudan junto con A. Donovan y R. Laudan: En ese proyecto buscamos establecer un diálogo entre la investigación de la ciencia teórica y la empírica. Como muestra la práctica científica, la fundamentación de los enunciados teóricos y el significado de los datos empíricos pueden determinarse sólo yendo y viniendo constantemente de la teoría a la observación y experimentación y viceversa. Tomamos la analogía entre ciencia y estudios sobre la ciencia seriamente y no vemos razones para que la ciencia no pueda ser estudiada científicamente. Las investigaciones empíricas no agotan las actividades de los científicos pero forman un contrapunto clave para la articulación de
las teorías (Laudan et al., l988:7-8). En cambio Popper defiende el convencionalismo. Dice al respecto:
36
|N'rRoDuccroN A LA FlLosoFíA DE LA cl|aNc|A Consideramos las reglas metodológicas como «convenciones››: las podríamos describir diciendo que son las reglas de juego de la Cienfiífl empírica... Daremos dos ejemplos sencillos de reglas metodológicas, que bastaran para hacer ver que sería bastante inoportuno colocar un estudio metodológico al mismo nivel que otro puramente lógico: l. El juego de la ciencia, en principio, no se acaba nunca. Cualquiera que decide un día que los enunciados científicos no requieren ninguna contrastación ulterior y que pueden considerarse definitivamente verificados, se retira del juego.
2. No se eliminará una hipótesis propuesta y contrastada y que haya demostrado su temple, si no se presentan «buenas razones» para ello. Ejemplos de «buenas razones››: sustitución de la hipótesis por otra "WS 00l'IU'2Sl2lb1€› falsación de una de las consecuencias de la hipótesis (Popper, 1967252).
Creo que quedan claras las diferencias entre Laudan y Popper, pero los dos aportan criterios de tercer orden. La contrastación con la historia real dela ciencia propuesta por Laudan y las «buenas razones» de Popper pueden englobarse en este tipo de criterios. P. Thagard (Thagard, 1988) critica dos mitos metodológicos, a saber: el mito hipotético-deductivo y el mito inductivo. En este caso el modelo de explicación hipotético-deductivo y el modelo inductivo forman parte dela M2, pero la evaluación de los modelos de explicación forma parte de la M3. U. Moulines (Moulines, l982) propone un principio metafilosófico, «Principio de la Relevancia de las Distinciones Graduales», que puede ser considerado una guía metodológica de tercer orden. Dicho
principio reza así: «Son filosóñcamente relevantes las distinciones conceptuales que atienden sólo a diferencias de grado y no a diferenCifi$
absolutas en el objeto o dominio de estudio. Son filosóficamente peligrosas, y frecuentemente perniciosas, las distinciones conceptuales tajantes que pretenden determinar supuestas diferencias absolutas en el objeto o dominio de estudio» (Moulines, 1982232). Las referencias de los científicos a cuestiones metodológicas se enCufinlfflll, fulldflflìellïfllmcllïe, en las ciencias menos desarrolladas. Actualmente, en los programas de los estudios de física apenas encontramos asignaturas sobre métodos y técnicas, en cambio en psicología y en sociología los métodos y técnicas constituyen una parte esencial en el conjunto de los estudios. No sólo esto sino que, cuanto mCn0S
cuEsr1oN1=_s P|usL|M1NA|tras
37
madura es una disciplina científica, más importancia adquiere la formación metodológica y, dentro de ella, cuanto menos madura más alto es el nivel de la metodología. Es decir, la M2 será más importante para los practicantes de una disciplina inmadura que para los de una madura. Dicho de otra forma, el orden de la metodología que es pertinente para una disciplina es inversamente proporcional a su grado de madurez. Helge Kragh (Kragh, 1989) en Introducción ala historia dela ciencia plantea los siguientes problemas: i) historia anacrónica vs. historia diacrónica; ii) el papel de las fuentes en la investigación histórica; iii) la evaluación de las fuentes; iv) la prosopografía (utilización de biograflas colectivas); v) la historiografía cientimétrica (utilización de técnicas cuantitativas). Los i), ii) y iii) pueden considerarse como M2 ya que se refieren a la utilización de determinadas técnicas, en cambio iv) y v) son Ml, es decir, técnicas de investigación. En el campo dela arqueología, la obra de Clive Orton (Orton, 1988) cs un trabajo de técnicas de investigación para arqueólogos. En el prólogo del libro nos dice Orton: «Las matemáticas pueden ser un instrumento para organizar nuestros pensamientos y los datos que poseemos» (Orton, l988:ll). En este sentido las matemáticas constituirían parte del aspecto instrumental de la arqueología. Siguiendo en el campo de la arqueología la obra compilada por Don Brothwell y Eric Higgs puede ser considerada también como de técnicas de investigación, en este caso para la datacìón. En el prólogo queda patente la importancia de las técnicas de investigación: La interpretación correcta de los datos aportados por los científicos a través de los materiales que, a primera vista, parecen poco prometedores dependen aún en gran medida del genio, la perspicacia y el halo de simpatía del investigador; pero el alcance de la información sobre la que se basan sus conclusiones estará limitado por los medios técnicos de que dispone (Brothwell y I-Iiggs, 198010).
El objetivo fundamental del establecimiento de niveles metodológicos es precisar y clarificar la utilización del campo semántico construido alrededor del método. La literatura sobre cuestiones metodológicas no siempre deja clara la delimitación entre dichos niveles, es decir, cn un mismo texto podemos encontrar cuestiones que afectan a varios niveles metodológicos; sin embargo, creo que conceptualmente puede
38
|N'rRonuccróN A |.A |=|LosoFtA DE LA cnaNc|A
hacerse esta distinción, y plasmarla en una terminología adecuada puede ayudarnos en el análisis del papel de la metodología en el conjunto de la filosofía de la ciencia.
3.2.
Cuestiones ontológicas
Continuamente, tanto en la vida cotidiana como en las ciencias empíricas, tomamos compromisos ontológicos y, para que estos compromisos sean auténticos y firmes, «es necesario que las categorías ontológicas posean un grado razonable de claridad, precisión y aplicabilidad» (Moulines, l982:327). Estas exigencias adquieren especial importancia cuando nos referimos a la ontología de la ciencia. A continuación vamos a ver cómo se plasman en el aspecto ontológico los tres niveles de teorización que hemos distinguido (teorizaciones de primer, segundo y tercer orden) en líneas anteriores. i) Ontología de primer orden (01). Consiste en determinar las unidades mínimas sobre las que se construyen las leyes y las teorías. Vamos a plantear algunas cuestiones concretas.
EnsMPLn=1cAcróN DE LA oN'roLooíA De PRIMER ORDEN l) La naturaleza de la ecuación de Schrödinger. Según la interpretación estándar (nos referimos ala interpretación de Copenhague) de esta ecuación por parte de los físicos, el estatus
ontológico del electrón es el de un mero «campo de probabilidades». ¿Es ésta la última palabra o bien hay descripciones más «realistas›› y «con sentido común» de las partículas elementales? Delimitar la Ol de la física significa poder señalar los elementos del mundo real de los que habla la teoría. 2) ¿Es necesario utilizar una nueva matemática (tipos fractales, matemática del caos) para reformular las teorías de determinadas ciencias especiales (por ejemplo la meteorología o la física de los fluidos)? En este caso la Ol delimita los recursos matemáticos que se utilizan en una teoría. 3) ¿Pueden utilizarse científicamente los datos que nos da
CUESTIONES PRELIMINARES
l
3
la introspección para constatar una teoría psicológica? Aquí la Ol delimita los elementos sobre los que se construirán las teorías psicológicas.
ÍÍ) Ontología de segundo orden (02). Explicita las categorías UC el filósofo de la ciencia va a utilizar para estu d'rar ls o p roductos científicos. l
E.rEm›r.mcAcróN DE LA oN'ror.oGíA DE sEoUN|>o o|u›EN l) ¿Todo elemento teórico de una teoría científica ha de te ner una contrapartida en el mundo real -si la teoría es verdadera- tal como consideran los epistemólogos realistas?, ¿o bien tienen razón los instrumentalistas como Van Fraassen cuando afirman que sólo la parte empírica de una teoría tiene contrastación real 0 que, en toda teoría, podemos encontrar conceptos puramente teóricos con un valor sólo «instrumental›› de los cuales no tendría sentido hablar de una posible contrapartida en el mundo real? Uno de los problemas planteados a raíz de la 02 es si todas y cada una de las unidades teóricas que forman la O2 tienen una posible contrapartida en el mundo real, es decir, si las partículas elementales representan elementos del mundo real. 2) ¿Cómo modifica la introducción de una determinada
construcción matemática el estatus ontológico de una teoria? A veces la nueva construcción matemática sólo será un instrumento para hacer cálculos secundarios (por ejemplo la introducción de la estadística para evitar los posibles errores en la lectura de un instrumento en un experimento). Otras veces puede significar un cambio total, que modifica la metodología detratamiento, los objetos de los que habla, la forma de hacer y contrastar predicciones (por ejemplo, la introducción de la matemática fractal en una disciplina como la meteorología). La O2 nos plantea la cuestión de hasta qué punto un cambio en las construcciones matemáticas cambia la ontologla de una teoria estableciéndose en este caso una relación entre O2 y M2.
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
3) ¿Cuáles son las categorías conceptuales con las que aprehendemos cada una de las secuencias de la historia de una ciencia particular?, ¿son las teorías (Moulines), los paradigmas (Kuhn), los programas de investigación (Lakatos), los mapas conceptuales (Toulmin y Thagard) o las tradiciones de investigación (l_audan)? La O2 determina las metacategorías conceptuales con las que captamos los cambios cientiñcos.
iii) Ontología de tercer orden (03). En el caso de la ontologia más que hablar de ontologia de tercer orden, lo que cabe es pensar en cuestiones epistemológicas y metafisicas de la ontología, es decir, en aquellos aspectos de los sistemas filosóficos que tienen consecuencias en el plano ontológicofi Por tanto, en este tercer nivel de teorización existe una interrelación entre la 03 y la M3.
EJEm=1.ri=rcAc1óN ma LA ouromois mi rtmccn oiwcn 1) Realismo vs. instrumentalismo. ¿Cómo podemos decidir entre una de estas metahipótesis (realismo científico 0 instrumentalismo científico?, ¿a que criterios podemos recurrir para decidir si la empiricidad de un concepto científico es parcial 0 es total? Se trata de un problema de metafilosofía, pero con implicaciones ontológicas de tercer grado, a saber: buscar la onto-
logía general de las teorías científicas averiguando si tienen un estatus realista o bien puramente instrumental. 2) ¿Cuál es la utilidad de las matemáticas para la ciencia?, ¿cómo contribuyen en la creación de una disciplina cualquiera?, ¿se limitan a ofrecer un sistema deductivo general por el cual suministren verdades y obtengan nuevas verdades que, a pesar 6. Para algunos autores, como M. Bunge. que identifican metafísica con ontolo gía, puede parecer reiterativo hablar de metafisica de la onlología, pero yo no comparto esta identificación, y los niveles ontológicos expuestos en este trabajo -siguiendo en algunos puntos a Moulines (Moulines, 1982 y 1992)- abogan por una complejidad mayor del campo ontológicoš
cussriomas PRELtM1N/mias
41
de ser obvias (tautológicas) no nos lo parezcan por nuestra capacidad lógica limitada?, ¿o quizás lo que nos ofrecen es una forma ordenada de construcción de las teorias cienttficas?, ¿son las matemáticas un aspecto imprescindible para la ciencia o podría haber en principio ciencia sin matemáticas? La 03 plantea la relación entre ciencia y matemáticas, en el sentido de si la ontologia de la ciencia tiene que tener su correspondencia en el mundo de la matemática. 3) ¿Cómo interactúa un experimento con una teoría cientifica?, ¿se construyen las teorías cientificas de forma lógica a partir sólo de la evidencia empírica pura de los experimentos (por ejemplo el solipsismo metodológico de la Auflmu) o bien las teorías tienen un estatus aparte de la evidencia empírica y son creaciones lógico-matemáticas, a las cuales el experimento sólo puede -hasta cierto punto- refutarlas, pero nunca darles un fundamento, como diria Popper? Se refiere al problema del estatus del experimento en el conocimiento cientiñco y, por ende, de la construcción de la ontología de segundo orden.
El tratamiento de la antología en la literatura cienttfica y fllosofica La literatura sobre ontología de la ciencia es menor que la que podemos encontrar sobre metodología, al menos respecto a referencias explícitas; otra cuestión es el tratamiento de la ontología a través de algunas de las cuestiones filosóficas, siendo en este sentido mucho más
abundante.” Uno de los autores que de forma explícita hace referencia a la ontologia de la ciencia es U. Moulines, que representa la postura de la concepción estructuralista. Para la concepción estructuralista (Stegmüller, Sneed, Moulines, entre otros) la ontología de segundo orden está compuesta de unas entidades llamadas «teorías›› y la pregunta clave es ¿qué clase de entidades son las teorias cientificas? 7. La selección de autores y textos no pretende ser exhaustiva y se ha hecho con el criterio de que abarcaran todos los aspectos aquí planteados, desde la Ol a la 03, haciendo especial hincapié en las cuestiones filosóficas relacionadas con la ontología, a saber: relativismo, patsimonia y realismo ontológico.
42
INTRODUCCIÓN A LA FIIDSOFÍA DE LA CIENCIA
No cabe duda de que el establecimiento de categorias ontológicas de segundo orden pueden tener consecuencias para la ontología de primer orden, pero puede darse el fenómeno inverso, es decir, que la ontologia de primer orden tenga consecuencias para la de segundo orden. Esta interacción es posible y deseable siempre que no partamos ni de una filosofía de la ciencia apriorística ni de una filosofia de la ciencia encerrada en los estrechos márgenes de la investigación empírica más inmediata. Este tour de force entre ontología de primer y segundo orden está ejemplificado en las teorías sobre la materia que plantean la cuestión de «lo que hay» en general y que es un problema que conecta ciencia y filosofía. Según Moulines (Moulines, 1982) el análisis del concepto de materia pertenece a esta clase de problemática. Este problema es especialmente importante para el tema que nos ocupa porque uno de los esquemas conceptuales sobre la materia que determina la ontología de «lo que hay» es el atomismo. Dice Moulines: La idea de que la materia es una realidad numéricamente distinta
y fácticamente indivisible se retrotiae a los atomistas griegos. Ha sido y es probablemente la concepción de materia más articulada y más influyente en el desarrollo de la filosofía de la ciencia (Moulines, 19821352). El dilema metodológico que se nos plantea es que, por un lado, pretendemos un concepto de materia (noción ontológica fundamental) «que sea lo más resistente posible ante los resultados empíricos concretos», es decir, queremos un concepto de materia que resista los embates del desarrollo científico pero, por otro lado, pretendemos un «concepto de materia que sea no una pura elucubración sin contenido empírico, ajena a las teorías científicas vigentes». Esto -dice
Moulines- sería hacer mala ontología. Seguir demasiado fielmente las teorias científicas del momento es suicida (además de acrítico); no seguitlas en absoluto es estéril. Este es el dilema del ontólogo. Por supuesto, la resolución de esta tensión
estaría en seguir alguna vía media. El problema consiste en averiguar cuál es esa vla en términos concretos (Moulines, l982:347).
Respectoa las consideraciones de Moulines, hay que señalar que este distanciamiento de las teorías a la hora de construir la ontología
CUESTIONES PRELIMINARES
43
variará en función de si se construyen ontologias de primer o de segundo orden. Otro autor que ha proporcionado una ontologia de segundo orden es Frege Su ontosemántica es la propuesta de un sistema con el objetivo de fijar la ontologia de la lógica y de la filosofía de la matemática. Las unidades de la ontologia fregeana son objeto/función y sentido/referencia. Moulines aplica la ontosemántica de Frege al problema dela identidad de las teorías, es decir, tenemos las teorías como categorías básicas de la 02 y la ontosemántica de Frege nos ayuda a definir la naturaleza de dichas entidades. Respecto al aspecto ontológico de las teorizaciones de tercer orden nos centraremos en tres cuestiones: a) el relativismo ontológico, que consiste en la dependencia entre ontologia y esquema conceptual; b) la parsimonia, que consiste en no multiplicar las categorías más allá de lo estrictamente necesario; y c) el realismo ontológico, que sostiene la existencia de las entidades teóricas. a) Relativismo ontológico. Quine es uno de los representantes del relativismo ontológico según el cual «las discrepancias en la ontología suponen siempre una discrepancia en los esquemas conceptuales» (Quine, l962:43). Una de las tesis más representativas del relativismo ontológico es la de la «inescrutabilidad de la referencia», sostenida por Quine y, aunque con diferencias, también por Davidson. Del pensamiento de Quine, puede deducirse que no es concebible ningún cambio cientifico sin un cambio a nivel ontológico. Si Quine tuviera razón entonces no sería posible que hubiera cambios en la ontologia sin que los hubiera en el esquema conceptual co-
rrespondiente. Pero hay casos en la historia de la ciencia que constituyen contraejemplos a esta idea. Lo que supuso de novedoso la obra
de Dalton para la química se encuentra en la ontologia. Si comparamos la teoría atómica de Dalton con la obra de químicos como Lavoisier, Proust, Richter y Berthollet está claro, desde el punto de vista histórico, que la teoría atómica supuso un cambio radical en la caracterización de «lo que hay» y que afecta a la teoría de la materia, pero, ¿quién se atrevería a decir que los supuestos teóricos de estos químicos eran distintos?" 8. En mi ponencia sobre la revolución ontológica de Dalton, presentada en el Congreso Internacional Louis Proust (Segovia, mayo de 1992), se desarrollan estas cuestiones.
44
|NTRoDucci0N A LA Fltosorta DE LA ci1aNci,\
b) Parsimonia. La parsimonia está ligada al nominalismo. N. Goodman es uno de los autores actuales que ha recogido (aunque marcando las diferencias) la antorcha de Occam. Goodman analiza la relación entre nominalismo y sistemas atómicos y afirma: «Mi criterio de nominalismo puede aplicarse sólo a sistemas atómicos›› (Goodman, l972:152).° He dicho que el nominalista insiste en describir el mundo como compuesto de individuos, en describirlo como constituido de entidades en que no hay dos que tengan el mismo contenido, y que por tanto, esto es describirlo por medio de un sistema para el que no hay dos entidades distintas que tengan exactamente los mismos átomos (Goodman, l972:l63). Según Goodman sólo los sistemas atomistas pueden seguir las instrucciones nominalistas. 0 sea, si un sistema es nominalista entonces es atomista. Pero de esto no se desprende que todos los atomistas sean nominalistas. Además -según Goodman- el nominalismo es una condición necesaria (pero no suficiente) para que un sistema filosófico sea aceptable. Según este esquema podríamos concluir que el que sea un sistema atomista es una condición necesaria para que un sistema filosófico sea adecuado. Sin embargo, el nominalismo no nos preserva de escoger un mal material de base. El nominalismo nos dice que escojamos átomos pero no nos dice cuáles son buenos y cuáles no. Dice Goodman: El nominalismo es más una condición necesaria que una condición suficiente para que un sistema filosófico sea aceptable. Para construir correctamente tenemos que tener mucho cuidado en la elección de la materia prima. La elección de átomos por parte de un filósofo determinado puede muy bien estar guiada por actitudes o principios que se asocian al nominalismo por temperamento o por tradición; pero estos principios son independientes del nominalista tal como lo he definido.
El nominalismo no nos protege de empezar con átomos absurdos. Nos protege de fabricar baratijas de buenos átomos por medio de los cono cidos recursos del platonismo. En otras palabras, el nominalismo es una 9. Sin embargo, cita dos articulos de alumnos suyos que han analizado la compatibilidad o incompatibilidad del nominalismo con sistemas atómicos. Véanse Yoes (1967) y Schuldenfrei (I969).
cuEs'ri0NEs PRELIMINARES
45
regla restrictiva de procesar, que no seleccionará la materia prima ni fabricará buenos productos de malos productos pero, si tenemos buenos productos nos ayudará a no sacar malos productos (Goodman, l972:165). Los problemas planteados por Goodman pertenecen a la ontologia de segundo orden a la que hacía referencia Moulines. Sin embargo, hay que señalar que el «principio nominalista» en sí mismo, es decir, tomado como principio metafísico a tener en cuenta al hacer ciencia, habría que considerarlo como metodología de tercer orden. Supongamos que el mundo está formado por individuos, la siguiente cuestión es: ¿qué es un individuo? El nominalismo de Goodman no implica rechazar entidades abstractas sino que lo que se admita como entidad se construya como un individuo. Cualquier filósofo (nominalista o no) puede imponer muchas restricciones sobre lo que admite como entidad, pero estos requisitos (estén o no fundamentados y estén más o menos asociados con el nominalismo tradicional) son independientes del nominalismo tal y como lo entiende Goodman. El nominalismo rechaza una variación de entidades sin distinción de contenido. La definición de elemento atómico que da Goodman aclara algunas ideas sobre lo que entiende por atomismo: Un elemento atómico -o átomo- de un sistema es simplemente un elemento del sistema que no contiene otros elementos del sistema. Dependiendo del sistema, un electrón, 0 una molécula o un planeta podrian ser tomados como un átomo (Goodman, 19722158).
El principio nominalista es como el principio de no-contradicción
en lógica, no hay que probarlos, son requisitos para que un sistema filosófico este bien fundamentado. Lo pertinente para nuestro caso es que -según Goodman- sólo los sistemas atomistas pueden preservar el principio nominalista. Rescher (Rescher, 1987) critica el criterio de parsimonia a la hora de fijar la ontologia, asociando la economía ontológica a posturas antirrealistas (en su variante instrumentalista). Dice Rescher: El problema con un instrumentalismo fenomenológico es que trata la economia ontológica como el primer bien -un bien que vale la pena adquirir incluso a un considerable coste, incluso en términos de un sentido más amplio de economía que incluye también la economía de los
46
INTRODUCCIÓN A LA FIIDSOFIA DE LA CIENCIA
principios. La economía ontológica está muy bien cuando está libre de
cargas -o al menos es barata. Pero quizás se compre a un precio demasiado alto si requiere que paguemos costes substanciales en términos de satisfacciones intelectuales de explicación y comprension (Rescher, 1972153). Sin embargo, a partir de la concepción de Goodman sobre nominalismo, no está justificada la crítica de Rescher. El nominalismo de Goodman no se compromete ni con el realismo ni con el instrumen-
talismo. c) Realismo ontológico. En lo referente al realismo es relevante la distinción de I. Hacking: i) realismo de entidades, según el cual muchas de las entidades teóricas existen, cosa que el antirrealismo lo niega; ii) realismo de teorías, según el cual las teorías científicas son verdaderas o falsas, independientemente de lo que conozcamos, cosa que el antirrealismo niega. Desde el punto de vista ontológico, sólo es pertinente el realismo de entidades. El problema con la polémica sobre realismo/antirrealismo es que dicha polémica es estéril, e incluso confusa, si antes no establecemos la ontologia, lo cual significa determinar qué se entiende por real. La
concepción sobre lo real está en función de cómo se establezca la relación entre «mente›› y «mundo real». En este punto es pertinente la distinción de Rescher de tres alternativas respecto a la relación entre «mente›› y «mundo real››: i) materialismo ontológico; ii) idealismo ontológico; y iii) interaccionismo. El componente ontológico del realismo científico nos dice que hay un mundo real independiente de la mente. Rescher critica tanto i) que considera que parte de una concepción fisicalista, como ii) que lo asocia a una concepción platónica. Apuesta por iii), que caracteriza en los términos siguientes: «lnteraccionismom En el conocimiento humano hay acuerdo entre operaciones mentales y la realidad extramental a través de acomodación mutua, engendrando un proceso de una interacción de toma y daca, en el curso de la cual nuestras concepciones se coordinan con las formas de realidad extramental a través de la operación del proceso evolutivo (Rescher, l987:98).
En referencia al realismo se nos plantea hasta qué punto el atomismo está comprometido con el realismo o con el antirrealismo. Además también está la cuestión de hasta qué punto el atomismo implica
CUESTIONES PRELIMINARES
una toma de posición respecto a la relación entre mente y mundo real. Tradicionalmente el atomismo griego ha sido considerado (y muchas veces rechazado por ello), pero habría que hacer un análisis del concepto de materia para sacar conclusiones fundadas sobre la relflC¡Ón entre atomismo (griego o daltoniano) y materialismo. Finalmente, veamos el caso de dos científicos sociales, Gordon R. Willey y Philip Phillips, que en su obra Method and Theory in American Archaeology, hacen reflexiones metateóricas que encajan con 10 que aquí hemos denominado «aspecto ontológico de primer, segl1¡1d° y tercer orden». En el capítulo primero, «Archaeological unit Concepts», se analiza cuáles son las unidades arqueológicas básicas a fin de estab1€C€l` las entidades sobre las que, a posteriori, construirán sus teorías. ESI@ actividad es la del ontólogo de primer orden. Según estos aut01'eS ¡HS «unidades arqueológicas básicas» son la phase, que definen en los términos siguientes: Preferimos describir el concepto [se refieren afase] como una unidad arqueológica que posee rasgos suficientemente característicos Pam distinguirla de todas las otras unidades concebidas de forma similar (Willey y Phillips, l958:22). También encontramos ejemplos de reflexiones sobre la economía ontológica, es decir, hasta qué punto estos científicos se guían DO' el principio de parsimonia en la construcción de teorías para la af" queología. Mientras este uso tiene la aparente virtud de la economía a travéS de la eliminación de la diferencia conceptual entre tipo y unidad» 11050' tros preferimos mantener estos conceptos distintos, porque pensamos que los conceptos unidad tienen ciertas características no cornpartid&S por los tipos artefacto y esto tiene importantes consecuencias metodológicas (Willey y Phillips, 1958112). Por último una referencia al realismo ontológico: Afortunadamente, existe un acuerdo general entre los arqueóloS0S norteamericanos sobre lo que constituye un tipo artefacto, aunque aún hay alguna disputa sobre lo que significa en términos de la realidad básica que hemos postulado como el sujeto de la arqueología. la diferencia
43
iN'rizoDuccióN A LA Fitosori/t Dia LA ciiaNci›. Principal puede ser enunciada como la oposición entre HQUCUOS Que Cree" que los tipos existen en la naturaleza y aquellos que creen que el clasificador los «descubre›› (Willey y Phillips, 1958213).
Las referencias a cuestiones ontológicas, tanto por parte de filósofos como científicos, y tanto en el plano de la Ol como en el plano de la 03, nos llevan a concluir la importancia de la ontologia, no sólo para la investigación empírica más inmediata sino también para clarificar algunos de los debates que la filosofía de la ciencia tiene planteados a nivel epistemológico y metafísico.
3.3.
Cuestiones lógico-semánticas
El análisis lógico (sintáctico y semántico) no se aplica necesariamente a una clase privilegiada de teorías sino que puede aplicarse a todo discurso racional, siempre que éste sea suficientemente sistemático y riguroso (Dalla Chiara, l976:139). Este planteamiento supone el análisis y la reconstrucción de los postulados científicos con estructuras formales. Para llevar a cabo este objetivo se ha tomado la estructura axiomática como la más apropiada para reconstruir las teorias formalmente. Desde el punto de vista semántico tenemos las categorías introducidas por Frege y Tarski que contribuyen enormemente al desarrollo de este aspecto de la filosofía de la ciencia.
Así como en el caso de la ontologia y la metodología hemos distinguido varios niveles, lo primero que cabe preguntarse es si también en el caso de la lógica (sintaxis y semántica) podemos hablar de lógica
de Primer, Segundo y tercer orden. En primer lugar hay que señalar que «lógica de primer orden» y «lógica de segundo orden» tienen un significado muy concreto, a saber: lógica en que se cuantifican las variables y lógica en que se cuantìfican predicados, respectivamente. Independientemente de estos significados concretos, en el caso de las cuestiones lógico-semánticas, lo que podemos señalar es cómo la relación entre ciencia y lógica afecta a los distintos niveles de teorización. i) Relación entre lógica y teorizaciones de primer orden. La lóSrfiâ. entendida como el estudio de la estructura deductiva de los discursos racionales suficientemente rigurosos, es un instrumento poderoso para la ciencia. En este caso la cuestión estaría en si es posible
CUESFIONES PRELIMINARES
abordar estos discursos con una sola lógica, por ejemplo, con la lógica clásica o hay que recurrir a las llamadas lógicas no estándar para determinados discursos, en los que se viola alguno de los principios de la lógica clásica (tal es el caso de la física cuántica que recurre a la lógica cuántica) o porque el grado de complejidad del discurso en cuestión exige una lógica polivalente (tal es el caso de las ciencias jurídicas que requieren la lógica modal). Este aspecto del análisis lógico está dentro de los límites del primer grado de teorización.
Eri1Mi>i.ii=icAcióN DE LA iu3LAcióN iaNi'ius LóGicA Y cnaNciA l) ¿Cuál ha de ser la forma lógica de las oraciones del lenguaje natural?, ¿una extensión de la lógica de primer orden o bien una abstracción de las reglas concretas de la teoría de reacción y lazos, como afirma el propio Chomsky? Este problema se plantea en la lingüística y hace referencia a los elementos de los que habla la teoria. 2) ¿Para trabajar con la mecánica cuántica necesitamos una nueva lógica (por ejemplo la lógica cuántica) o bien es suficiente la lógica clásica? Este problema se plantea en fisica y química y hace referencia a los recursos lógicos de una teoria. 3) ¿Cuál es el significado, el valor veritatìvo de la evidencia empírica recogida por Lyell en sus Principios de geología para demostrar que la Tierra em mucho más antigua de lo que la gente creía hasta entonces? Se trata de una cuestión de tipo semántico sobre la significatividad de las evidencias en geología.
ii) Relación entre lógica y teorización de segundo orden. La cuestión que se nos plantea es la estructura formal de las teorías cientificas. En este sentido las posturas pueden ir desde la prescripción de que sólo la estructura axiomática es válida para reconstruir las teorias cientificas, y además se toma la posibilidad o no de esta reconstrucción como criterio de demarcación entre ciencia y pseudociencia, hasta el considerar que no tienen ningún valor epistemológico estas reconstrucciones a las que se considera un puro juego fomial. Una postura intermedia es proponer una gama más amplia de estructuras
50
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
formales (por ejemplo, la teoría de conjuntos) para reconstruir las teorías científicas.
EJ1zi.iPLri=icAcióN Dia LA iuai.AcióN isurnn i.óoicA Y i=iLosoi=íA DE LA cirsNciA i>i1oi›i_AM1sN'ria i:›icn.A l) ¿Una teoria general sobre el isomorfismo entre una parte del mundo (como el lenguaje natural) y una teoria cientifica (la lingüística generativista), ha de ser sólo lógica o ha de tener también en consideración presupuestos empíricos de cómo está efectivamente articulado el mundo (como sugiere Ruth Millikan)? Se trata de un problema filosófico sobre la relación entre lenguaje y realidad, planteado en términos de isomorfismo por Wittgenstein; un problema, por lo demás, que puede rastrearse hasta los griegos. 2) ¿Son todas las lógicas equivalentes -y en principio es suficiente la lógica clásica para trabajar con cualquier cienciao bien algunas son más útiles que otras para un determinado objetivo? Se trata de una cuestión sobre la utilidad de las diversas lógicas en la ciencia. 3) ¿Cómo se computa el grado de significatividad de la evidencia empírica de una teoria dada? ¿Podemos decir que el significado de una teoría depende única y exclusivamente de la evidencia empírica que posee o bien hay parte que no y que depende de los presupuestos meramente lógicos o instrumentales? Se trata de un problema sobre el significado de una teoría cien-
tífica.
iii) Relación entre lógica y teorizaeiones de tercer orden. Una primera cuestión es si hay que entender la lógica sólo desde el aspecto sintáctico (concepción sintáctica de las teorias) o bien reforzar el aspecto semántico (concepción semántica de las teoi-ias).'° Otra cuestión importante es si existen criterios para evaluar las distintas lógicas con IO. En el capitulo sobre teorias se expondrán las principales tesis de estas dos concepciones.
cues-riomas i›iusi.iMiNAiuss
Sl
las que reoonstruimos formalmente los discursos científicos. Finalmente, existe la cuestión de hasta qué punto las estructuras lógicomatemáticas reflejan la realidad. Este viejo problema se remonta a Platón y fue expuesto por Galileo, concretándose en la máxima de que «la naturaleza está escrita en lenguaje matemático».
Errar/i1›Li1=icAcióN Dia LA iuai.AcróN iauriua LÓGICA, Pon UN LADO, Y MiarAFísicA Y MiarAi=ri.osoi=iA, Pon omo l) ¿Es factible una teoría general sobre el isomorfismo entre teoría y mundo o bien tienen razón los filósofos como Putnam cuando afirman que podemos inventar cualquier construcción lógica ya que siempre encontraremos un isomorfismo entre esta construcción y el mundo real? Se trata de un problema filosófico básico en filosofía del lenguaje o de la ciencia. 2) ¿Cómo se calcula el contenido semántico, informacional, veritativo de una lógica dada a la hora de aplicarla a una ciencia concreta? Se trata de un problema de metalógica, de carácter técnico pero muy desarrollada y con resultados muy interesantes. 3) ¿Cuál es la mejor forma de expresar el contenido semántico de una teoría dada: axiomatizándola mediante la lógica de primer orden (como intentaron determinados representantes del Círculo de Viena) o mediante la lógica más la teoria de conjuntos (como se hace desde el estructuralismo) o mediante una teoría de tipo semántico como la de Van Fraassen? Se trata de un problema sobre cuáles han de ser los criterios de una meta-
metateoría para decidir qué metateoría filosófica es la mejor a la hora de teorizar sobre la práctica científica.
El tratamiento de las cuestiones lógico-semánticas en la literatura cientifica y ƒilosóflca Hay una forma de ver la relación entre lógica y filosofía de la ciencia y es considerar la lógica como un instrumento de análisis conceptual. Respecto a esta cuestión las divergencias vienen, fundamental-
52
rN'rnoDUccioN A LA i=iiosorIA De LA cnaNciA
mente, a la hora de sopesar determinados instrumentos de análisis. Los métodos formales han sido siempre utilizados por los filósofos de la ciencia, la cuestión está en el peso que damos a dichos métodos dentro del conjunto y la exclusividad de los mismos. La utilización de instrumentos formales de análisis conceptual está relacionada con la manera de entender la reflexión filosófica de la ciencia (cuestión tratada en los párrafos anteriores). Mientras unos consideran los métodos formales como los únicos instrumentos conceptuales de análisis filosófico, otros los consideran un puro juego formal que en nada contribuye a la comprensión de la ciencia. Nadie puede dudar de que el análisis lógico es una actividad legítima de la filosofía de la ciencia. Lo único discutible es su exclusividad. En el análisis lógico vemos dos direcciones: «uno puede intentar tratar con diferentes tipos de teorías empíricas con la esperanza de que ciertas ideas generales surgirán de resultados parciales. Pero también, uno puede proceder en dirección opuesta; empezando con algunos presupuestos generales, uno puede intentar ajustarlos a las peculiaridades de teorias distintas» (Wojcicki, en Przelecki et al., l976:9). Wojcicki dice que estos dos enfoques pueden complementarse. El análisis lógico puede limitarse a las teorías matemáticas, sin embargo se ha intentado aplicar la teoría de modelos fuera del estrecho marco de las teorías matemáticas. En especial debemos a P. Suppes, J. Sneed y M. Przelecki el desarrollo sistemático de una semántica de las teorías fisicas en el cuadro conceptual de la teoría abstracta de modelos (Dalla Chiara, 19761140). Respecto a la teoria de modelos dice Dalla Chiara: Un análisis de este tipo demuestra, a un tiempo, la vasta aplicabilidad de las ideas generales de la teoría de modelos y, sin embargo, la necesidad de ir adaptando poco a poco sus instrumentos a las caracteristicas peculiares de las distintas situaciones teóricas consideradas. His-
tóricamente, Ios teóricos de los modelos fueron siempre matemáticos, obviamente preocupados, de modo especial, por las aplicaciones de tipo matemático. Con toda probabilidad la tendencia contemporánea a abrir la teoria también hacia las problemáticas de las ciencias empíricas, des-
pertará nuevos interrogantes de interés para la misma teoría pura de modelos (Dalla Chiara, l976:l42).
El problema que plantea Dalla Chiara es si el análisis lógico tiene que contar sólo con la lógica clásica o, a la vista del desarrollo de las
cUEs'rroNras PRELIMINARES
53
Hamaqaf «iågicas no estándar», dicho análisis debe apostar no por ¡H «umcidad›› de la lógica sino por la «multiplicidad››. Uno de los Pr0hlemas es la conmensurabilidad o inconmensurabilidad de las distintiis lógicas. Dice Dalla Chiara: Prešuntémonos ahora si resulta admisible que un mismo ser inteligente emplee lógicas distintas en diferentes situaciones, manten¡er1d0 “" °0mDortamiento racional coherente. La respuesta sería obviamente rieåfltiva Siempre que se pretendiera identificar un ser pensan te con un unico sistema formal. No obstante, son muchos los argl-Im¢rIl0S que ¡W ducen a asimilar la actividad racional de un ser inteligente, a un sistema múltiple de sistemas formales parciales mucho más que 21 un IÍIDÍCO sistema formal (Dalla Chiara, l976:l50). Supuesta la no exclusión de sistemas formales para el análisis de las teorias científicas, la cuestión está en si hay una lógica preferente. La respuesta de Dalla Chiara es que la superioridad histórica de la lóSica clásica tiene un significado práctico y psicológico. ' Pero no sólo D0rqUe es práctico y psicológicamente satisfactorio sino también POr' rlue es la iógica más potente. Sin embargo, lo que interesa es cómo valorar las siguientes lógicas en su papel de instrumento para la comDrensión de la ciencia. Si la lógica clásica, por muy potente que sea. n_o tiene modelos en una ciencia particular, de poco sirve para esta cienCla. En el campo de la ciencia como en el de la filosofía de la ciencia nos movemos en el ámbito de lo posible, no en el ámbito de lo que deberia ser, sobre todo si este «deber ser» no guarda relación con lo que «Puede ser».
Ademåfi, hay cuestiones en filosofía de la ciencia de las que tenemos un tratamiento formal y otro no formal. Mientras no sostengamos la exclusividad en uno u otro sentido, en principio, no tienen por Clllé ser incompatibles ambos tratamientos. Por ejemplo, la te0r1'3 de la definición y la caracterización del concepto de determinismo han recibido tratamiento formal y no formal. P. Suppes (Suppes, l984a) ha elaborado una teoría de la definición formal, en cambio P. Achinstein (Achinstein, 1971) de la no formal. En cuanto al determinismo, R; M°m3BUe Qvlontague, 1974) ha establecido una tipología de determinismo e indeterminismo con un tratamiento formal; por 0tl'0 1flCi0. J. Earman (Earman, 1986) y P. Fevrier (Fevrier, 1955) han construido una ÚP0iogia de determinismo/indeterminismo sin recurrir ' a méto-
54
mrrtoouccrón A LA FiLosoi=tA DE LA ciENcrA
dos formales. El análisis lógico es un instrumento muy importante para el análisis de las teorias científicas pero que no agota el análisis conceptual.
4.
CoN'rEx'ro DE LA iUs'rn=icAcióN Y coN'rEx'ro DEL DEscUBiuMrEN'ro
La filosofia de la ciencia tiene dos vertientes, una sincrónica y otra diacrónica. La primera analiza la ciencia como producto y la segunda la ciencia como proceso. En este sentido la polémica se ha centrado en la disyuntiva entre contexto (o lógica) de la justificación -fundamentación de la ciencia sin tener en cuenta la variable temporaly contexto (o lógica) del descubrimiento -explicación del desarrollo de la ciencia- siendo este último cuestionado por muchos filósofos como posibilidad de análisis racional. Dentro de la tradición neopositivista procedente del Círculo de Viena, la distinción entre contexto de la justificación y contexto del descubrimiento ha servido para concluir que no es posible la lógica del descubrimiento. La irrupción historicista en la filosofia de la ciencia en la década de los sesenta sacó de su letargo a la lógica del descubrimiento pero no supuso el más mínimo acercamiento a una posible interrelación entre ambos contextos, si cabe, creció el abismo entre ellos. Desde el contexto del descubrimiento, y a la vista del trabajo metateórico realizado sobre la dinámica científica, nadie puede negar la existencia de este campo de conocimiento. Sus resultados pueden considerarse más o menos potentes desde el punto de vista explicativo pero no puede negársele entidad propia.
Lo que en estos momentos es más discutible es hasta qué punto el contexto del descubrimiento debe recurrir al contexto de la justificación para construir sus propios modelos. La conclusión va en la dirección de que es necesario recurrir a la lógica de la justificación para completar los modelos de cambio científico. Esto supone la posibilidad de interrelación entre el contexto de la justificación y el contexto del descubrimiento. En este sentido, T. Nickle tiene razón al afirmar: Es también probable que comparta mi creencia en que sus análisis de casos históricos (principios de razonamiento y justificación) no son
sino las dos caras de una misma moneda (Nickle, en Suppe, l979:
629-639).
55 cuEsrioNEs i>nELiMrNAREs
ntexto
ço En cuanto al papel del contexto de la justificación en eìøs riV9Jes _ . . . _, teorl . (al el descubrimiento, los criterios para la eleccion entre _ n¡;íf1¢05 _ propuestos por los autores de las teorias sobre cambioš “ete çonfictê menos los de Kuhn, Lakatos y Laudan) están directarflen r¿fer6l1c'_a dos a problemas de los fundamentos del conocimiento- La ¡¡-¡fi-odllclr al contexto de la justificación también se hace necesaria *fl ¿_ En este aspectos normativos en los modelos de dinámica cienffl-¡ire ¢¡_1ál es caso tenemos que introducir normas que nos orienterl so ue los r'Il0' el mejor modo de hacer progresar la ciencia, si queremas ncia, Sìnø delos no sólo sean una descripción del desarrollo de la me que también nos digan la mejor manera de hacerla. de cal-¡¡biO Finalmente señalemos que aunque desde los mod61°5 tre ambos científico se explicite y analice la necesaria interrelación en ¡mr toda contextos, ello no implica que dichos modelos tengan qilc apoocimienla obra metateórica que necesita la fundamentación dfil con b¡e¡¡¡áti-
d
to. Lo único que queda claro es que es imposible eludir la prïmelos de ca del contexto de la justificación a la hora de aplicar 105 m do to¿0 cambio científico a la historia real de la ciencia, apro*/echan u1a_ el armazón metateórico que la lógica de la justificación ha acum do a través del tiempo.
5.
LA i=ii.osoi=iA DE LA ciENcLA ENTRE LA DESCRIPCIÓN Y LA PitEscrirPcróN
Todos los filósofos de la ciencia aceptarían el componênte desenlativo del análisis filosófico, aunque negaran la exclusividad de la función descriptiva. Sin embargo, no ocurre lo mismo con el Componerfte normativo, ya que hay una corriente en filosofía de la Gieflcia que ¡nega todo carácter normativo a la filosofia de la ciencia, U0 Sólo c°m° su único carácter, sino también como uno de sus componentes- Esta negación puede producirse por diversas razones. Hay varias formas de negar (o sustituir) el uiráctel' n01'maIÍV0 de la filosofia de la ciencia. Negarlo significa introducir e1ern6l”ll0S anarquizantes y relativistas en la dinámica cientifica. Sustïituirlo in'lD1ÍCa tomar alguna de las skuientes altemativas: i) Reducción de la epistemología a la psicología. U na Versión Concreta de esta postura está en la «epistemología naturalizada» de Quine.
56
innzooucclon A LA |=nosoFI›. DE LA ciENci.«
ii) La reducción de la epistemología a la sociología de la ciencia. Esta alternativa es sustentada por B. Barnes y D. Bloor (entre otros) pertenecientes a la llamada Escuela de Edimburgo. Í) EH <
cui=.s'r1oN|as i>n5uM1NA|uas
57
significa utilizar los medios adecuados para conseguir un fin. Esta distinción equivale a la distinción entre racionalidad de medios (hipotética) y racionalidad de fines (categorial). Sin embargo en ambos casos tenemos racionalismo entendido -según Giere- como el punto de vista que sostiene que hay principios racionales para evaluar las teorías. Por el contrario, desde una postura naturalista las teorías son aceptadas a través de un proceso natural en el que intervienen el juicio individual y la interacción social. Giere propone un «realismo naturalista» por ser el más compatible con su propuesta mucho más general que denomina «aproximación cognitiva a la teoría de la ciencia», entendida como una filosofía de la ciencia que utiliza los recursos de las ciencias cognitivas (Giere, 198821-2). ii) La sustitución de la epistemología por la sociología del conocimiento significa sostener la tesis de que no es posible, ni siquiera conceptualmente, acceder al conocimiento independientemente del contexto cultural. En primer lugar, hay que dejar claro que negar esta tesis sociologista no implica sostener que el contexto cultural no influye en la adquisición de conocimiento. El estudio de esta influencia es lo que hemos denominado sociología de la ciencia, psicología de la ciencia, política de la ciencia, etc. La llamada Escuela de Edimburgo, con autores como B. Barnes y D. Bloor, es representativa de esta concepción. Veamos cómo estos autores argumentan en favor del «Programa radical en sociología del conocimiento» («Strong Programme in Sociology of Knowledge››): El sociólogo se interesa por el conocimiento, incluyendo el conoci-
miento científico, como un fenómeno natural. La definición apropiada de conocimiento será, por tanto, distinto del hombre de la calle o del filósofo. En lugar de definir el conocimiento como creencia verdadera -o quizás, una creencia verdadera que está justiñcada- el conocimiento para el sociólogo es todo lo que la gente toma como conocimiento. Consiste cn aquellas creencias que la gente posee y en las que confia y vive con ellas. En particular, el sociólogo está interesado en
las creencias que se dan por supuestas, que están instituciónalizadas o investidas de autoridad por determinados grupos de personas. Por supuesto el conocimiento tiene que diferenciarse de la simple creencia. Esto puede hacerse reservando el ténnino «conocimiento›› para lo que
es colectivamente aprobado, dejando lo individual y lo idiosincrásico como mera creencia (Bloor. l979:5).
58
INTRODUCCION A LA F|uosoFlA DE LA cnaNciA
Entre los filósofos de la ciencia hay que señalar a M. Hesse como defensora, aunque con reparos, de las tesis sociologistas. Dice Hesse: He sugerido que la tesis radical en sociología de la ciencia no es tan radical como algunos de sus defensores piensan y algunos de sus críticos han objetado. He tomado la tesis de lo que constituye el espíritu de la «teoria absoluta de la ideología» de Mannheim y el «programa radical» de Bloor, a saber: que las normas racionales y las creencias verdaderas en la ciencia natural son tan premisas explicativas como puedan serlo la no-racionalidad y el error. En los tres últimos apartados he argumentado que esta tesis, junto a todas las epistemologías que rechazan la posibilidad de una fundamentación racional absoluta del conocimiento, implica que la terminología cognitiva no puede ser aplicada en un sentido absoluto. Pero esta tesis no implica que la terminología cognitiva no sea útil, simplemente dice que tiene que ser explícitamente redeñnida para referirse al conocimiento y que los enunciados verdaderos lo son en virtud de un conjunto de normas culturales (Hesse, l980:S6). En su obra Revolutions and Reconstructions in the Philosophy of Science Hesse rompe con la tradición del empirismo lógico que hasta entonces la había caracterizado. Las deficiencias de todas estas alternativas nos llevan a la conclusión de que el filósofo dela ciencia no puede evitar ejercer las funciones de legislador, estipulando normas o criterios de racionalidad epistémica (Domenech, l988:22). Esto plantea dos problemas: quién controla al legislador y el regreso al infinito, estableciendo criterios para establecer criterios. Dos problemas con una misma raíz, a saber: dónde situamos los criterios epistémicos. Una salida es dejar la fundamenta-
ción para el campo del aprìori, pero no creo que esta solución satisfaga a nadie. Domenech propone un «criterio práctico» que discurre en los términos siguientes: Atendemos a los procesos de investigación científica; aquellos procesos que han culminado en resultados exitosos (de acuerdo con un criterio práctico, no epistémico) los tomamos como modelo y exploramos los criterios epistémicos que los han gobernado, y asi conseguimos una primera aproximación, siempre susceptible de ulterior revisión (a tenor de los cambios y procesos acontecidos en el ámbito en cuestión o en otros ámbitos de la gran empresa colectiva que es la ciencia) (Domenech, l988:23-24).
CUESTIONES PRELIMINARES
S9
También podrían considerarse supuestos normativos de tercer orden lo que Domenech llama «proposiciones o doctrinas metafísicas» que
tienen su precedente en las verités de raison de Leibniz. Entre estas cuestiones metafísicas señala la doctrina determinista, el carácter local de la causalidad, la asimetría temporal dela causalidad, y la acausalidad del tiempo. Dice Domenech: Que muchas «verités de raison» (metafísicas y lógico-matemáticas) tengan contenido mínimo quiere decir que no son verdades a priori en ningún sentido absoluto del término, y quizá sugiere que no hay verdades o proposiciones a priori, independientes de la experiencia, de ningún tipo. Pero esto no nos interesa mucho aquí. Lo que nos interesa es que esas verdades «funcionan como si fueran a priori en muchos contextos epistémicos». O, para decirlo con mayor gravedad y más solemnidad: que el hecho de que no haya verdades a priori en un sentido absoluto, no quiere decir que no haya verdades a priori en un sentido relativo. Al contrario, ningún contexto epistémico es pensable sin la aceptación de verdades a priori (metaflsicas y lógico-matemáticas) para ese contexto (Domenech, 1988). Putnam hace unas consideraciones esclarecedoras en la relación entre normatividad y apr101'1511101 Si no vamos a eliminar lo nonnativo, y no hay posibilidad de reducir lo normativo a nuestra ciencia favorita, sea la biología, la antropologia, la neurociencia, la física o cualquier otra, ¿dónde estamos? Podemos intentar construir una gran teoría de lo nonnativo en sus propios términos, es decir, una ep¡St€l110l0§Ía f0l`l'II&1- pero este proyecto parece demasiado ambicioso. Mientras tanto, hay mucho trabajo filosófico por hacer y puede hacerse sin demasiados errores si lo hacemos libres de las ataduras del reduccionismo y del historicismo que tanto han afectado últìmamente a la filosofía. Si la razón es a la vez trascendente e inmanente, entonces la filosofia como reflexión limitada culturalmente y que argumenta sobre cuestiones etemas, tiene ambas dimensiones, la temporal y la eterna. No poseemos el punto arquimideo; siempre hablamos en un tiempo y en un lugar; pero la corrección o incorrección de lo que decimos no es sólo para un tiempo y un lugar (Putnam, l983:247).
Esto significa que no identificamos el carácter normativo con el apriorístico; que vemos la relación entre ciencia y filosofía de la ciencia como una interacción, ni totalmente a priori ni encorsetada por
60
INTRODUCCION A LA FlLosoi=lA DE LA ciENclA
la im/esfigación empírica más inmediata; por último, que la fíl0S0fÍfi de la ciencia tiene dos componentes, uno descriptivo y otro normativo, no siendo éste reducible a ninguna ciencia particular. Las aportaciones de Laudan a la evaluación racional en relación a la historia y la filosofía de la ciencia pueden considerarse propuestas de tipo normativo. Laudan sostiene que la mayoría de las personas científicamente educadas tienen una serie de intuiciones normativas del tipo siguiente: «en el año 1800 era racional aceptar la m¢¢ål'1ìCfl newtoniana y rechazar la mecánica aristotélica››; «en 1890 era racional rechazar la idea de que el calor era un fluido››; «después de 1830 era irracional aceptar la cronología bíblica como un informe de la historia de la tierra», etc. A este conjunto Laudan lo llama «intuiciones Pre-analíticas sobre la racionalidad científica». Por tanto, podemos decir que la filosofía de la ciencia ejerce tanto una función descriptiva como normativa respecto a su objeto de análisis, a saber: la ciencia. La filosofía de la ciencia describe la ciencia cuando expone una serie de teorías científicas tanto en los libros de texto (descripciones sincrónicas) como en la historia real de la ciencia (descripciones diacróniC3S)- Tämi-7¡¿fl Pueden considerarse descripciones las «reconstrucciones” de Períodos de la ciencia tal como las entiende Lakatos." La faceta normativa de la filosofía de la ciencia se manifiesta de distintas formas que van desde los principios lógicos. 60m0 C1 DTÍHCÍ' Pio de no-contradicción, hasta las cuestiones referentes al método cien-
tífico. Lo que diferencia a unas normas de otras es la fuerza y la Uni-
versalidad con las que actúan en la investigación científica. El binomio ÚCSCFÍPCÍÓH/prescripción no tiene por qué verse como una disyunción exclusiva, lo cual no significa mantener una postura ecléctica ni hacer
una síntesis de los dos polos, sino ver la descripción y la prescripción como dos caras de una misma moneda. ll- Estos dos niveles de descripción (descripción simple y reconstrucción) se cncuentran en todos los campos de conocimiento en que se dan descripciones. Por ejemplo.
CII 20010312 o en geografía tenemos desde las descripciones mas simples que. aunqufl S011 I-ln Pl'0d¡$¡0 de erudición, utilizan sólo un aparato conceptual que no va måS allá dfil l>f0P¡2m¢rIte lingüístico (es decir, que sólo es necesario un buen conocimiento de la |¢fi8\-la 011 ia que está escrita la descripción) hasta descripciones muy sofisticadas en las que se utiliza un aparato conceptual construido con conceptos clasificatorios y de orden. E.Í¢mP|0s de estas descripciones sofisticadas son las clasificaciones de los animales constmidas por los zoólogos o las clasificaciones hechas por los geógmfos de las ciudades atendiendo a variables demográficas, económicas, etc. Por tanto, las descripciones pueden ser más o menos informativas en función del esquema conceptual que I-ll¡l¡Z=l110S-
2. A1>Rox1MAc1óN H1s1¬óR1cA A LA FILDSOFIA DE LA c1ENc1A l. Cmncm Y 1=tLosoFiA Si rastreamos los orígenes de la ciencia y de la fì|0S0fífl, Constatamos que ambas estaban en manos de la misma Comunidad de sabios.' La precariedad y el estado incipiente de estoS CUHPOS de ¢0n0Cìmi¢n<
to hacían que hubiera individuos que podían controlar toda la información, no sólo en sus distintos niveles de concelmlfllilflcìón (Ci€nC¡2 y filosofía de la ciencia) sino también en distintos Campos (física, astronomía, Zoología). En los origenes del conooimiento Sistematizado no había clasificaciones de dicho conocimiento, ni Vfirtioal ni horizontalmente. Con el desarrollo del conocimiento Siüematizado empezaron las divisiones a nivel horizontal, pero pasaron muchos Siglos hasta que estas divisiones alcanzaran el plano vertical (ciencia, metaciencia, metafilosofía). Por tanto, ciencia y filosofía Gflminafon Unidas durante un largo período de tiempo. A medida que un campo acotado de fenómenos adquiria un detenninado nivel de conocimiento, se desgajaba de la filosofía y se constituía como ciencia Pafïíflllifll' Íl1d€P€l'ldiente. Sin embargo, durante mucho tiempo la diViSiÓn entre Ciencia y filosofía no fue tan clara como aparece en la actualidad, en el senti-
do de que la interrelación entre los sistemas filosóficos Y la ¢ien¢¡fl del momento era muy fuerte. Solamente a partir de 105 Parámetros fl0« tuales podemos estudiar la historia de la filosofífl d¢SB3Íâdfl de la hÍS< toria de la ciencia, pero basta una mirada atenta H flmbaä para comprobar sus múltiples conexiones. La filosofía de la ciencia como reflexión S0bl'€ 108 fundamentos I.
Entiéndasc usabios» cn cl sentido de amantes del Saber Sislemalizado.
62
iNTRoDucc1óN A LA FlLoso|=íA DE LA c|ENciA
del conocimiento científico, poniendo en práctica la capacidad recursiva del ser humano, nació precisamente con la propia ciencia. Por tanto, donde empieza la historia de la ciencia allí encontramos las primeras consideraciones metateóricas. Sin embargo, la mayoría de las aproximaciones históricas a la filosofia de la ciencia empiezan, en el mejor de los casos, en la revolución cientifica de los siglos xvi y xvu, aunque lo más habitual es que el nacimiento de la filosofía de la ciencia se establezca con su institucionalización. J. Losee (Losee, 1985) es una excepción a esta tónica general. En su introducción histórica a la ñlosofía de la ciencia examina las respuestas dadas a cuestiones tales como: «¿Cuáles son las características de la investigación científica?, ¿qué condiciones debe satisfacer una explicación científica para ser correcta?, ¿cuál es el rango cognoscitivo de las leyes y principios científicos'?›› desde Grecia hasta nuestros dias? Sin ánimo de exhaustividad, vamos a exponer algunas de las principales aportaciones de filósofos y científicos que, desde la perspectiva filosófica actual, podemos considerarlas como parte de la metateoría, a fin de trazar el hilo conductor que une la filosofía griega con la de nuestros días.
2.
LA r=rLosoi=iA DE LA ciENc1A EN LA ANTIGÚEDAD
Cualquier alusión a ciencia y a filosofía en la Antigüedad tiene como referencia obligada a Aristóteles, aunque habitualmente sólo es mencionado en los textos de historia de la filosofía. Sin embargo, fue productivo como teórico y como metateórico, es decir, su contribución a la física y a la zoologia fue tan importante como a la filosofia.
Aristóteles consideraba la investigación científica como una progresión que va desde las observaciones hasta los principios generales para volver de nuevo a las observaciones. Las generalizaciones sobre las formas se extraen de la experiencia sensible por medio de la inducción y, una vez logradas estas generalizaciones, se usan como premisas para la deducción de los enunciados observacionales iniciales. También su aportación a la lógica es indiscutible pero quizás pocas veces se ha visto ésta como una contribución al desarrollo de uno de los instrumentos más potentes con los que cuenta el análisis de los funda2. Por lo que respecta a la historia de la filosofla de la ciencia voy a seguir de cerca la obra de løsee Introducción histórica a la filosofúr de lu ciencia.
Ai›noxrMAcróN |-rrs1orucA
63
mentos de la ciencia. Aristóteles establece unos requisitos para la estructura delos enunciados, para las premisas de un argumento deductivo y para una explicación adecuada. Su definición de verdad puede considerarse como una anticipación de la concepción sobre la verdad como correspondencia con la realidad. Recordemos la formulación de Aristóteles: «afirmar de lo que es que es y de lo que no es que no es es la verdad, y afirmar de lo que no es que es y de`lo que es que no es es la falsedad». Dicha formulación puede compararse con la formulación tarskiana que dice: «el enunciado “la nieve es blanca" es verdadero si y sólo si la nieve es blanca». Por último, sus escritos sobre la causa de una explicación enlazan con la problemática actual sobre causalidad y determinismo. De los elementos de la ñlosofía de la ciencia que hemos distinguido en el capítulo anterior, Aristóteles desarrolló, sobre todo, los aspectos metodológicos en el sentido de la M2, y los lógicos en el sentido de la relación entre lógica y teorizaciones de primer orden, ya que su interés por la lógica tiene como objetivo el estudio de la estructura de los discursos racionales. La tradición pitagórica y Platón introducen cuestiones de meta-
matemática, planteando la relación entre la matemática y la naturaleza y analizando el significado de «lo real». Consideraban que «lo real» es la armonía matemática que está presente en la naturaleza. El astrónomo Claudio Ptolomeo en el siglo ir también hizo aportaciones a la metamatemática pero, contrariamente a la tradición pitagórica, los modelos matemáticos de los astrónomos no representaban los movimientos reales de los planetas sino que su objetivo era salvar las apariencias. Dice Losee a propósito de Ptolomeo: «Ptolo-
meo destacó que era posible construir más de un modelo matemático para salvar las apariencias de los movimientos planetarios. Señaló, en particular, que se puede construir un sistema de movimiento excéntrico que fuese matemáticamente equivalente a un sistema de epiciclos y deferentes dado» (l_osee, l985:3l). A partir de Ptolomeo surge una tradición en astronomía que considera que el objetivo de las teorías científicas es «salvar las apariencias». Dicha tradición volverá a tener sumo interés en el siglo xvr con Copérnico, período en el que la adscripción o no a ata tradición determinará el menor o mayor enfrentamiento con la jerarquía eclesiástica. Osiander escribe el prólogo a De revolutionibus, analizando la obra de Copérnico a la luz de la tradición de «salvar las apariencias»,
64
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
frenando asi la condena por parte de la Iglesia. Esta cuestión está conectada con uno de los temas más debatidos actualmente en el campo de la filosofía de la ciencia, a saber: el realismo de las teorías científicas. Platón y los pitagóricos fueron los precursores en el planteamiento de cuestiones metafísicas, tales como la relación entre matemática y mundo real, realismo/instrumentalismo de las teorías, de tal forma que cuando un filósofo o científico defiende la realidad de las entidades matemáticas suele considerarse como influido por las ideas platónicas. El ideal de sistematización deductiva era compartido por la mayoría de los escritores de la Antigüedad. Este ideal parecía haber culminado en la geometría de Euclides y en la estática de Arquímedes, afectando directamente a la estructura de la ciencia. Esta cuestión surge de nuevo en la actualidad relacionada con la estructura de las teorias científicas, cuestionandose si el sistema deductivo es o no la única estructura posible para la ciencia. Losee resume los tres aspectos del ideal de sistematización deductiva como sigue: «l) que los axiomas y los teoremas estén relacionados deductivamente; 2) que los propios axiomas sean verdades evidentes; y 3) que los teoremas concuerden con
las observaciones» (Losee, l985:34). Cada uno de estos ideales pueden recuperarse en la filosofía de la ciencia posterior. Respecto al primero podemos decir que la geometría de Euclides fue refundida en una forma rigurosamente deductiva por D. Hilbert en la última parte del siglo xrx. Respecto al segundo aspecto, la interpretación que se haga de las verdades evidentes depende de si nos situamos en la tradición pitagórica o en la de «salvar las apariencias». Para la primera tradición las verdades evidentes encajan perfectamente, para la segunda bas-
ta con que las consecuencias deductivas de los axiomas estén de acuerdo con las observaciones. El tercer aspecto nos lleva, dicho en terminología actual, a la correspondencia entre términos teóricos y términos observacionales. Las propuestas del método axiomático plantean la relación entre lógica y teorizaciones de segundo orden, cuestión central para la filosofía de la ciencia actual. El atomismo de Demócrito y Leucipo tiene algunas repercusiones importantes para la reflexión sobre la ciencia, además de las consecuencias que pueda suponer para la filosofía en general o para la ética. Losee señala dos aspectos del atomismo relacionados directamente con el campo metateórico: uno es la idea de que los cambios observados pueden ser explicados haciendo referencia a procesos que
Ai>rioxrMAc|óN |-nsnoRicA
65
lienen lugar en un nivel de organización más elemental; otro es la redueeión de 105 eambios cualitativos del nivel macroscópico a cambios cuantitativos en el nivel atómico. Ambos suponen estrategias explicativas que tienen lugar a lo largo de la investigación científica. Demóq-¡to y Leucipo fueron los primeros que plantearon cuestioneS ontológicas a todos los niveles aunque, debido a la evidencia emPÍFÍCH de aquel momento, sólo podamos considerarlas como reflexiones sobre la ontologia de segundo y tercer orden.
3.
LA rrLosor=íA DE LA crENc1A DURANTE LA EDAD M1zDiA
Durante el período medieval surgen una serie de autores con aporlaciones que pueden ser consideradas pertenecientes al campo de la filosofía de la ciencia. R. Grosseteste y R. Bacon (siglo xnr) trabajaron sobre el método científico, reforzando el patrón aristotélico inductivo-deductivo de la investigación cientifica, aunque haciendo algunas mafizaeiønes a dicho patrón. Según Losee: «Aristóteles había ÍflSiSlid0 en que los principios explicativos debían inducirse de las ob-
5e¡-vae¡0ne5_ una importante contribución de los estudiosos medieva-
les fue desarrollar nuevas técnicas inductivas para el descubrimiento de principios explicativos» (Losee, 1985:42). En este sentido Duns Escoto propuso el método del acuerdo, que es una técnica para analizar un número de casos en los que ocurre un determinado efecto. El procedimiento consiste en enumerar las distintas circunstancias que están presentes Cada vez que acontece el efecto, y en buscar una que esté presente en todos los casos. Guillermo de Occam aportó el método
de la di/¿feng-¡,;, que consiste en comparar dos casos: un caso en que el efecto está presente Y °"° en que el efecto no está presente. Si se puede mgstmr que existe una circunstancia que está presente cuando el efecto está presente y ausente cuando el efecto está ausente, entonces el investigador está autorizado a concluir que la circunstancia puede ser la causa del efeCIO. Dentro de la tarea de desarrollar el método aristotélico, Grosseteste y Bacon inn-Odujeron una tercera etapa en la investigación científica, a saber; 13 de gometer los principios inductivos a contrastación con la expei-iene¡a_ G1-osseteste introdujo el método de la falsación afirmando que si una hipótesis implica ciertas consecuencias, y si se puede demostrar que estas consecuencias son falsas, entonces la propia hi-
66
|NrRoDucc|oN A LA r1uosoF1A DE LA crENciA
pótesis debe ser falsa. De algún modo Grosseteste anticipó la utilización del llamado modus tollens como método para la falsación de las hipótesis. Otro principio metodológico importante de esta época es la llamada navaja de Occam. Occam utilizó la parsimonia como criterio de formación de conceptos y de construcción de teorías, sosteniendo que han de eliminarse los conceptos superfluos y que entre dos teorías que den cuenta de un mismo tipo de fenómenos debia preferirse la más simple. Este principio metodológico tiene consecuencias en el plano ontológico ya que, a la hora de establecer la ontologia, ésta será más o menos amplia y completa según la uactuación» de la navaja de Occam. En el plano de la validez deductiva hay que señalar los estudios de Nicolas de Autrecourt sobre la verdad necesaria como aquella que se ajusta al principio de no contradicción. Autrecourt insistió en que toda demostración científica debía conformarse al principio de que todo enunciado de la forma «A y no A» es necesariamente falso y que un argumento se conforma al principio de no contradicción si, y sólo si, la conjunción de sus premisas con la negación de su conclusión es una contradicción (Losee, 1985151). En lógica actual este requisito es una condición necesaria y suficiente de validez deductiva. Demostrar la validez de un argumento por este método es lo que se denomina «demostración por reducción al absurdo». En resumen, podemos decir que los autores aquí citados representan los aspectos metodológico, ontológico y lógico de la filosofía de la ciencia. La contribución de Grosseteste y Bacon se inserta en la metodología de segundo orden, la de Occam en la ontologia (de todos los órdenes) y la de Autrecourt, fundamentalmente, en las cuestiones lógicas.
4.
LA nEvoLUc1óN crraNrírrcA DE Los srGLos xvr Y xvri
La revolución científica de los siglos xvr y xvn marca un hito en el desarrollo de la filosofía de la ciencia. Aunque todavía no adquiere entidad propia como área de conocimiento, la cuestión metodológica desempeña un papel importante en los cambios experimentados por la física y por la astronomía. De hecho, cuando los historiadores de la ciencia se refieren a dicha revolución señalan de forma muy espe-
Ai>noxiMAcioN ms1ó|ucA
67
cial el nacimiento del método científico. Los comentarios de Cohen abundan en este sentido: El método resultó de importancia fundamental durante la Revolución Científica porque el aspecto más novedoso de la nueva ciencia o la nueva filosofia era la combinación de la matemática con el experimento. En épocas anteriores el conocimiento era sancionado por las escuelas, los consejos, los sabios, y la autoridad de los santos, la revelación y las Santas Escrituras; en cambio, en el siglo xvn se sostenía que la ciencia se basaba en cimientos empíricos y en el buen sentido.
Cualquiera que comprendiese el arte de realizar experimentos podía poner a prueba las verdades científicas, y este factor introducía una diferencia fundamental entre la nueva ciencia y el conocimiento tradicional, fuese la ciencia antigua, la filosofía o la teología. Además, el método, fácil de aprender, permitía a cualquiera realizar descubrimientos o hallar nuevas verdades. Fue, pues, una de las fuerzas democratizadoras mas poderosas de la historia de la civilización. El descubrimiento de la verdad había dejado de ser una gracia concedida a unos pocos
hombres y mujeres de dotes espirituales o mentales singulares. En la presentación de su método, Descartes dijo: «Jamás he presumido de poseer una mente más perfecta en ningún sentido que la de un hombre
común». Ningún aspecto de la ciencia del siglo xvn fue tan revolucionario como el método y sus consecuencias (Cohen, 19892140).
Además del aspecto estrictamente metodológico, en la revolución científica vuelve a surgir la polémica entre dos tradiciones: por un lado la de «salvar las apariencias» defendida por Osiander y Belarmino y, por otro, la de los pitagóricos defendida tímidamente por Copérnico y abiertamente por Galileo.
No vamos a exponer con detalle todas las cuestiones que surgieron en los siglos xvr y xvn y que pertenecen, sin lugar a dudas, al campo de la filosofía de la ciencia. Señalemos, únicamente, algunas contribuciones que constituyen, o bien reconstrucciones de la ciencia, o bien guías para la investigación. Entre estas aportaciones podemos citar las siguientes: el método experimental de Francis Bacon, la metodología de Descartes y los principios regulativos de Newton a los que llamo «reglas de razonamiento en filosofía». Bacon, Descartes y Newton trabajaron, fundamentalmente, en el aspecto metodológico de la filosofía de la ciencia y, aunque en sus obras se encuentran reflexiones sobre todos los niveles, podemos decir que
68
|N1'RoDucc|oN A LA F|Losoi=lA DE LA crraNciA
cada uno de ellos se centró en un nivel determinado. Así Bacon se preocupó más por la Ml, Newton por la M2 y Descartes por la M3. La propuesta de Bacon tiene consecuencias inmediatas para la investigación pragmática de los científicos. El método axiomático propuesto por Newton establece las restricciones a las que los científicos tienen que atenerse. El Discurso del Método de Descartes constituye un ejemplo de guías metafilosóficas y principios metafísicos que subyacen a la empresa científica. Culminada con Newton la revolución científica, su influencia se deja sentir muy especialmente en las teorias sobre el método científico. La implantación de lo que a partir de los siglos xvr y xvn se entendió por método científico, no sólo tuvo consecuencias inmediatas para la física y la astronomía, sino que las sucesivas revoluciones que tuvieron lugar en otras ciencias particulares tomaron como modelo de revolución lo que ocurrió en la física y en la astronomía durante estos siglos.
5.
LA TEORÍA DE LA CIENCIA DURANTE LOS SIGLOS XVIII Y XIX
A partir de Newton, con la nueva ciencia y una teoría del método científico, empieza una nueva etapa en esta reflexión de segundo orden. Vamos a detenernos en algunas de las más importantes aportaciones a la filosofia de la ciencia durante los siglos xvrrr y xrx. John Locke (1632-1704) abordó la posibilidad de conocer la naturaleza especificando las condiciones para un conocimiento necesario. Defendía el atomismo pero sostenía que ignoramos las configuracio-
nes y movimientos de los átomos. Según estas ideas, la ontologia teórica de la ciencia natural estaba formada por átomos. En cuanto a la metodología, Locke recomendó para la ciencia una metodología baconiana de correlación y exclusión, basada en la compilación de vastas historias naturales (Losee, 1985:100). Las relaciones entre ciencia y metafísica fueron ampliamente tratadas por Gottfried Wilhelm Leibniz (1646-1716). Comparado con Locke, Leibniz tenía una visión más optimista de lo que la ciencia puede conseguir y, por tanto, de las posibilidades de unas relaciones necesarias en la naturaleza. Losec comenta que Leibniz «estableció un tráfico de ida y vuelta entre las teorías científicas y los principios metafísicos. No sólo apoyo sus principios metafísicos en argumentos analógicos
APRox|MAcróN r-nsro|ucA
69
basados en teorías cientificas; también empleó los principios metafísicos para dirigir la búsqueda de leyes científicas» (Losee, 1985). Estas relaciones que establece Leibniz no son ajenas a la problemática actual respecto a la relación entre ciencia y filosofia de la ciencia. Cualquier criterio que se establezca para guiar estas relaciones estará en el plano de lo que hemos denominado metafísica o metafilosofía. Otra cuestión importante es el aspecto ontológico de la filosofía de Leibniz. Para Lcibniz la ontologia está formada por mónadas, sobre las que podemos preguntarnos si son unidades teóricas o metateóricas, es decir, si son elementos de la física o de la metafísica. En sentido estricto, las mónadas son las unidades de la metafísica, pero debido a la interrelación entre ambos campos (físico y metafísico) las mónadas tendrian su correlato en el mundo fenoménico o empírico. Dice Losee: «por necesidad, las substancias individuales (mónadas) se despliegan de acuerdo con un principio de perfección que asegura su interrelación armónica; y podemos estar seguros de que esta actividad monádica “subyace” en los fenómenos» (Losee, l985:lO9). Lo que no hace Leibniz es decir que estos principios deben, necesariamente, ser ejemplificados en el nivel fenoménico. David Hume (l7ll-1776) es una figura importante en el contexto histórico de la filosofía de la ciencia. Planteó muchos de los problemas que aún hoy siguen debatiéndose. La tónica general que subyace en todo su pensamiento es el escepticismo que se manifiesta en distintos planos y que afecta tanto a la teoría del conocimiento como a la filosofía de la ciencia. La idea que podría resumir el escepticismo de Hume es que no es posible un conocimiento necesario de la naturaleza. Pero hay dos temas que afectan directamente a la filosofía de la ciencia: el problema de la inducción y el problema de la causalidad.
Respecto a la inducción, Hume supone que el argumento inductivo es un argumento por enumeración. Las inferencias inductivas son habituales tanto en la vida cotidiana como en la actividad científica, de aquí la importancia de las dudas de Hume y de los esfuerzos para rebatirlo y encontrar alternativas. Siendo la inducción, como es, un método utilizado por los cientificos en la investigación, no hay duda acerca de la preocupación de Hume por las cuestiones metodológicas de la ciencia. El otro tema importante de Hume es la causalidad. Siguiendo su vena escéptica, reduce la fuerza causal a una mera sucesión de acontecimientos. Hume es un punto de referencia para los autores del Círculo de
70
|N1'RODucc|oN A LA mosorip. DE LA cuaNc|A
Viena y es considerado como un precursor de las corrientes de pensamiento que atacaron la metafísica. En Investigación sobre el entendimiento humano, dice Hume: Cuando persuadidos de estos principios recorremos las bibliotecas, ¡qué estragos deberíamos hacer! Tomemos en nuestra mano, por ejemplo, un volumen cualquiera de teología o de metafísica escolástica y
preguntémonos: ¿Contiene algún razonamiento abstracto aoerca de la cantidad y el número? ¿No? ¿Contiene algún razonamiento acerca de los hechos y oosas existentes? ¿Tampoco? Pues entonces arrojémoslo a la hoguera porque no puede contener otra cosa que sofismas y enga«
ño (Hume, en Ayer, 1965215). Con este comentario Hume introduce el problema de la demarcación entre ciencia y pseudociencia tan debatido a raíz de las tesis del positivismo lógico. \ Frente al escepticismo de Hume, Immanuel Kant (1724-1804) mantiene que hay conocimiento y que el empirismo de Hume tiene que ser falso; por tanto, el conocimiento no consiste únicamente en recibir impresiones sensibles. No vamos a extendernos en la teoría del conocimiento de Kant, sólo señalar la repercusión que tuvo en el campo de la filosofia de la ciencia. Uno de los puntos más controvertidos de la filosofía de Kant es todo lo que se refiere a los juicios sintéticos-a priori. En dichos juicios el predicado dice algo sobre el sujeto que no está contenido en éste, pero es necesariamente verdadero. Kant se propuso justificar este tipo de juicios en la ciencia. Se planteó las siguientes preguntas: «¿Cómo son posibles los juicios sintéticos a priori en la matemática?››, «¿Cómo son posibles los juicios sintéticos a priori en la física?››, y «¿Cómo son posibles los juicios sintéticos a priori en la metafisica?››. A ellas respondió en sus obras Estética transcendental, Analítica transcendental y Dialéctica transcendental, respectivamente. Hume es considerado como uno de los precursores de la tradición analítica. Sin embargo, no ocurre lo mismo con Kant, a quien se considera completamente ajeno a la tradición analítica y positivista. Con todo, y sin ánimo de entrar en esta polémica, vamos a referirnos a algunas voces que atribuyen a Kant un papel mucho más importante en la gestación de la filosofia de la ciencia del que normalmente se le atribuye. Moulines es una de ellas:
APnox1M›.cioN Hlsrómcø.
71
Su posición [la de Camap] respecto a Kant y los neokantianos es ambivalente. En algunos pasajes valora positivamcntc los impulsos epis_ temológicos procedentes de la tradición kantiana, pero en otros casos su actitud es de clara discrepancia. Es difícil decir qué momento pre_ domina en Carnap con respecto a Kant, si el de aceptación 0 el de re_
chazo (Moulines, l982:221-222). independientemente de la polémica, lo que si es razonable aceptar es que Carnap tiene en cuenta a Kant y además -según Moulines` Kant es citado por los autores de la tradición del empirismo lógicq, más que otros autores que tradicionalmente se han considerado den_ tro de dicha tradición como Hobbes, Locke, Hume, Comte y Mill_ Coffa (Coffa, 1982) también relaciona la tradición analítica con Kant. Coffa presenta el «conceptualismo›› -al que define como el mot vimiento que incluye la rigorización del cálculo, las teorías de la arit_ mética de Frege y Russell y el convencionalismo geométrico de Poin_ caré y Hilbert- con un enemigo, un objetivo y una estrategia. E1 enemigo era Kant, el objetivo era la eliminación de la intuición pura del conocimiento científico y la estrategia era la creación de la semán_ tica. A propósito de la tradición analítica antikantiana, dice Coffa; Esta ampliamente aceptado que una de las caracteristicas de la tra_ dición analítica antikantiana es el rechazo del conocimiento sintéticq a priori. Por el contrario, prácticamente todos los miembros de la tra_ dición semántica que estamos considerando aqui, desde Bolzano, Fre_ ge y Russell hasta los primeros miembros del Circulo de Viena, recono_ cieron la existencia y el significado decisivo de los juicios sintéticos q priori en el sentido que los definía Kant. No fue hasta que Quine em_
pezó su «Larga Marcha» hacia J. S. Mill que la tradición analítica se cuestionó la posibilidad de conocimiento necesario que no es analítico en el sentido de Kant (Coffa. 19821683). Ambos autores, Moulines y Coffa, desde perspectivas distintas mat nifiestan una postura parecida respecto al papel de Kant en la tradi_ ción analítica y quienes fueron los precursores del positivismo lógico. Finalizaremos este breve repaso histórico sobre la filosofia de la ciencia poniendo de relieve algunos de los autores del siglo iux que hicieron aportaciones a la filosofía de la ciencia dignas de tenerse en cuenta. Los autores aquí citados son sólo una muestra de la continui¬ dad de la preocupación de cientificos y filósofos por la fundamenta_
72
INTRODUCCIÓN /\ LA FILDSOFÍA l)Iš LA CIENCIA
ción de la ciencia. Más o menos explícitamente, siempre podemos encontrar en 1a obra de los cientificos alguna reflexión de segundo grado sobre lo que están haciendo; sin embargo, vamos a centrarnos solamente en aquellos autores que su preocupación por cuestiones epistemológicas es más evidente. John Herschel (1792-1871), astrónomo, escribió Preliminary Discourse on Natural Philosophy, que puede considerarse como una de las obras más importantes de filosofía de la ciencia de su época. Entre sus estudios destaca el referente a la distinción entre el contexto de la justificación y el contexto del descubrimiento, insistiendo en que el procedimiento usado para formular una teoria es estrictamente irrelevante para el problema de su aceptabilidad. William Whewell (1794-1866) realizó estudios sobre el progreso de la ciencia, construyendo un patrón de descubrimiento científico, por lo que puede ser considerado como un precursor de la dinámica científica. Whewell comparó el desarrollo evolutivo de una ciencia con la confluencia de los afluentes que van formando un río, lo que nos hace pensar que tenía una concepción acumulativa del desarrollo de la ciencia. John Stuart Mill (1806-1873), economista, historiador y filósofo, es conocido por su defensa del inductivismo frente a una visión hipotético-deductiva de la ciencia, diferenciando cuatro tipos de métodos inductivos, a saber: método del acuerdo, de la diferencia, de las variaciones concomitantes y de los residuos. También trató el tema de la causalidad, refiriéndose a la causalidad múltiple como la que se da cuando hay involucrada más de una causa en la producción de un efecto y distinguiendo diferentes tipos de causalidad. Mill trató también la
cuestión de la causalidad múltiple en su obra System of Logic (l86S).° Ya en el último tercio del siglo xix y los primeros años del siglo xx, podemos citar a otros autores representativos de diversas concepciones sobre la investigación cientifica. Henri Poincaré (1854-1912) desarrolló vigorosamente los principios generales de una visión convencìonalìsta de la ciencia: «el que una verdad se considere necesaria es sólo por estipulación [convención] de los cientificos». Sin embargo, sería simplista atribuir a Poincaré la opinión de que las leyes cientificas generales no son sino convenciones 3. D. Bohm (1980) reconsidera la cuestión de la causalidad múltiple a raíz de la polémica sobre la compatibilidad entre causalidad y probabilidad.
Ai>RoxtMAci0N Htspóklc/1
73
que definen conceptos científicos fundamentales, hasta el punto de 1°; ner un conocimiento científico sin fundamento. Respecto a las ¡CW Poíncaré comentó: [Las leyes] se nos presentan bajo dos aspectos diferentes. POI' U" 1333: son verdades basadas en la experimentación y aproximadamflltelvdo
ñcadas en lo que concierne a los sistemas casi aislados. Por 0U'° “má son postulados aplicables a la totalidad del universo y consideiad0S C01 1) rigurosamente ciertos (Poincaré, 1905, en Losee, 1985, nota 10. WP* ^ Queda claro que Poincaré tenía en cuenta los dos aspectos delas leyes científicasQ pero esto no le exime su inclusión en la con¢¢P°'Ón convencionalista. _ . Pierre Duhem (1861-1916) sc interesó por la historia de la ciencia e intentó que fueran compatibles la historia y la filosofía de ¡fl UÉÍÉ' cia. También realizó estudios sobre la estructura de las teorias cientificas y sobre el papel de la inducción en la investigación cientifica: P¢f° quizás su aportación más conocida está relacionada con la lógica de la refutación. Supongamos el siguiente esquema explicativ0ï L (leyes) C (condiciones iniciales) S (supuestos auxiliares) E (fenómeno que tratamos de explicar) Si el razonamiento es válido, entonces, si las premisas SGH verda' deras, la conclusión tiene que ser verdadera. Supongamos Cl'-le la com clusión es falsa, entonces alguna de las premisas tiene que 3°' falsa
pero -según Duhem- no necesariamente las leyes, ya QI-1° P0dfía serlo alguna de las premisas. Es decir, la observación de que n0 0¢“_"° E no refuta, por si sola, a L. Este problema planteado por D\1h¢f""m°_ duce un elemento de incertidumbre en la lógica de la refutaClÓ" pm" que, llevado hasta sus últimas consecuencias, el planteamient0_d° pu' hem pone en entredicho una parte importante de la invcstlgflclón científica: la refutación de hipótesis. . Émile Meyerson (1859-1933) es conocido por sus trabfl.i05 °n_ qm' mica y en historia y filosofia de la ciencia. Es interesante su clasificación de las leyes en empíricas y causales, considerando 1215 Pflmems las que especifican cómo se altera un sistema cuando se modifican las
74
iN'rizopuccioN A LA Fii.osoi=lA DE LA c||2Nc|›.
condiciones apropiadas y, las segundas, las que estipulan que hay algo que permanece a través del cambio. Meyerson pensaba que, mientras el conocimiento de las leyes empíricas satisface nuestras exigencias de previsión, solamente el conocimiento de las leyes causales satisface nuestro deseo de comprensión. Es interesante señalar que la filósofa de la ciencia N. Cartwright (Cartwright, 1983) hace también una clasificación de las leyes de la naturaleza, distinguiendo entre leyes de asociación y leyes causales, con muchas similitudes con la clasificación de Meyerson. Después de estos autores ya nos situamos en los años veinte de nuestro siglo, década en la que surge el Círculo de Viena y con ello la filosofia de la ciencia con entidad propia, como una actividad independiente de los científicos y como una especialidad dentro de la filosofía.
6.
LA iNs'riTucioNAi.izAcióN DE LA Fii.osoi=iA DE LA ciiaNciA
Desde 1895 en que E. Mach ocupó la cátedra de filosofia de las ciencias inductivas, hubo en la Universidad de Viena una larga tradición de filosofía empirista que se ocupaba principalmente de las ciencias naturales. En 1922 M. Schlick pasó a ocupar la cátedra. Al igual que sus predecesores procedía de la física pero, a diferencia de ellos, tenía un conocimiento profundo de la filosofía. Schlick aglutinó a filósofos y cientificos interesados por la filosofía. Entre sus colegas podemos citar a R. Carnap, V. Kraft, F. Kaufmann, H. Hahn, K. Gödel, y alumnos como E. Zilsel, H. Feigl, O. Neurath, F. Wassmann, entre los más conocidos. En 1929 la Sociedad Alemana de Física, la Asociación de Matemáticos Alemanes y la Sociedad de Filosofía Empírica de Berlín organizaron un congreso sobre gnoseologia de las ciencias exactas. Al mismo tiempo se publicó un estudio programático Wissenschaftliche Weltauffassung con el que el Circulo de Viena, y con él la filosofia de la ciencia, tomaba forma institucional. En 1930 Carnap y Reichenbach convertían los Annalen der Philosophie en la publicación del Círculo bajo el título de Erkermtnis. El Circulo de Viena se extendió rápidamente en los medios académicos de Europa. La designación de Carnap como profesor extraordinario de la facultad de ciencias naturales de la Universidad de Praga
/\i›RoxiMAcióN i-iisiónicx
75
contribuyó en la formación de un grupo que compartía las principales tesis del Círculo. La anexión de Austria a Alemania supuso la disolución definitiva del Círculo, pero no la muerte de sus ideas. Estas se divulgaron rápidamente sobretodo por los Estados Unidos e Inglaterra. Puede parecer paradójico que sea en Alemania donde menos difusión tuvo el Círculo de Viena a pesar de que éste había surgido en un contexto cultural y científico germano. Una de las razones es que en la época en que surgió el Círculo de Viena imperaban en el ámbito alemán las tendencias metafísicas y las co strucciones dogmáticas. El Círculo de Viena 20 era un grupo de alumnos alrededor de un maestro sino un conjunto de filósofos y científicos que partian de una base común pero que diferían a la vez en muchas cuestiones. V. Kraft, uno de los fundadores, resume la orientación fundamental común del modo siguiente: Existía una orientación fundamental común: la cientificidad de la filosofia. Las rigurosas ørigencias del pensamiento cientifico han de valer también para la filosofía. La claridad unívoca, el rigor lógico y la fundamentación suficiente son imprescindibles en ella, como lo son en las
restantes ciencias. Las afirmaciones dogmáticas y las especulaciones incontroladas, lan extendidas todavía hoy en la filosofia, no deben pre-
sentarse en ella. Con ello venia dada también la oposición contra toda metafísica dogmático-especulativa (Kraft, |966:23-24). El Círculo de Viena se ocupó de la ciencia pero tomó posición respecto a los problemas fundamentales que tenía planteados la filosofia, aunque la solución no estuviera de acuerdo con la filosofía predominante en el ámbito alemán.
El desarrollo de la lógica durante la segunda mitad del siglo xix influyó decisivamente en la configuración de los presupuestos teóricos del Círculo de Viena. La denominación de «empirismo lógico» es quizás la que mejor expresa la confluencia de dos tradiciones: el empirismo en tanto que los juicios sintéticos no pueden tener otro fundamento que la experiencia, y el racionalismo en tanto se reconoce la validez apriorística de la lógica y de la matemática. Sobre el papel de la lógica y la matemática dice Kraft: La salida del dilema: abandono del empirismo o interpretación errónea de la lógica y de la matemática, fue el Círculo de Viena el primero
76
iN'rizot›uccioN A LA i=ii.osoi=iA DE LA ciiaNciA en señalarla: la lógica y la matemática no enuncian nada sobre la realidad experimentable La lógica no contiene ningíui conocimiento, no proporciona los principios del ser, sino los fundamentos del orden de los pensamientos (Kraft, 1966131).
La nueva lógica se convirtió en el instrumento más preciado de la teoría de la ciencia hasta el punto que, en los círculos próximos al empirismo lógico, a la filosofía de la ciencia se la designó «lógica de la ciencia». Otra característica es el interés por el análisis lógico del lenguaje ya que el conocimiento se expresa en formulaciones lingüísticas. Dice Kraft: Si la investigación de los hechos, es decir, de aquello que se presenta mediante el lenguaje, corresponde a las ciencias particulares, el análisis lógico se orienta hacia cómo se representan en el lenguaje los he-
chos mediante conceptos y enunciados. El análisis del lenguaje constituye el campo propio de la lógica de la ciencia (Kraft, 1966139). Hay que señalar que de las diferentes funciones del lenguaje, sólo la informativa es pertinente para expresar el conocimiento científico.
Carnap en Der Iogische Aufbau der Welt (1928) esbozó en lineas generales la construcción de los conceptos, entendiendo por «construir» establecer una regla según la cual hayan de sustituirse todos los enunciados que contienen este concepto por enunciados que contengan otros conceptos. Carnap basó la construcción de conceptos en lo vivencialmente dado. Dice Kraft a raiz de la postura de Carnap respecto a lo vivencialmente dado: El Circulo de Viena centró su análisis en los enunciados significativos. Fijar el significado supone tener un criterio de demarcación de lo que se puede o no conocer. Así como la explicación de los conceptos empíricos se realiza mediante su reducción a lo vivencialmente dado, la explicación del contenido y validez de los enunciados empíricos se llevó a cabo mediante su reducción a enunciados elementales (Kraft, 1966:131). Uno de los criterios de significado fue la posibilidad de verificación. Con ello se excluían del campo significativo todos los enunciados de la metafísica. Carnap se pregunta por qué, a pesar de que las proposiciones de la metafísica carecen de sentido, ha habido tantos
Ai>RoxiMAcioN HisróRicA
77
hombres, y algunos tan eminentes, que se han dedicado con tanto fervor y energía a esta actividad. Dice Carnap: Estas dudas están justificadas, ya que la metafísica posee un conte-
nido -sólo que éste no es teorético. Las (pseudo)proposiciones de la metafísica no sirven para la descripción de relaciones objetivas, ni existentes (caso en el cual serían proposiciones verdaderas), ni inexistentes (caso en el cual -por lo menos- serían falsas), ellas sirven para la
expresión de una actitud emotiva ante la vida (Carnap, en Ayer, 1965185). El Círculo de Viena propugnhba una ciencia unificada y un lenguaje universal, que coincidió con el de la física, de aquí su denominación de «fisicalismo››, en el sentido de considerar los enunciados de las ciencias naturales como los que tienen significado ya que son enunciados sobre relaciones espacio-temporales, debiendo poder traducirse los enunciados de todos los demás campos a dichos enunciados. El Círculo de Viena también trató las cuestiones de valor aunque sólo en la medida en que son accesibles a una investigación empírica. Por último, su concepción de lo que es la filosofía puede resumirse en que está debe proceder científicamente. Esto no significa que la filosofia sea una ciencia particular, sino que es lógica de la ciencia, entendida la lógica tanto en el aspecto sintáctico como semántico. En la institucionalización de la filosofía de la ciencia con entidad propia hay que incluir la obra de algunos autores que fueron predecesores de la filosofia científica y desarrollaron su actividad en la tradición analítica, aunque algunos nunca compartieron las tesis del Círculo de Viena. Frege, Russell, Wittgenstein y posteriormente Popper, son algunos de los nombres que no pueden olvidarse al hablar de la constitución de la filosofía de la ciencia. A lo largo del libro haremos
referencia a ellos por sus aportaciones a cuestiones concretas de la filosofía de la ciencia.
7.
LA riuu.ii>c1óN DE LA i-iis1'oiuA EN LA i-'n.osoi=iA DE LA ciiaNciA
La filosofía de la ciencia surgida alrededor del Círculo de Viena discurrió en el plano sincrónico. La irrupción de la historia de la ciencia significó el paso al plano diacrónico. Estos dos planos en los que se mueve la filosofía de la ciencia corresponden a las expresiones in-
78
INTRODUCCIÓN A LA FIIDSOFÍA DE LA CIENCIA
troducidas por Reichenbach (1938), de «contexto de la justificación» (plano sincrónico) y «contexto del descubrimiento» (plano diacrónico), diferenciando el modo cómo se justifica un resultado cientifico o matemático del modo por el cual se llega a dicho resultado. Para Reifihenbflch, ¡OS problemas que caen dentro del contexto del descubrimiento son competencia de la psicologia y de la historia, no de la filosofía, que se ocupa sólo del contexto de la justificación. Esta fue la tesis defendida por la concepción fraguada alrededor del Círculo de Viena que luego se denominó Concepción Heredada (CH). La irrupción de la historia en la filosofía de la ciencia se cristalizó en la llamada «nueva filosofía de la ciencia» (NFC), cuyas principales figuras en la década de los sesenta fueron T. Kuhn, S. Toulmin, N. R. Hanson, P. Feyerabend y 1. Lakatos. Al tratar de exponer las líneas maestras de esta nueva corriente filosófica, hay que distinguir dos aš pectos: i) el desarrollo de teorías y modelos sobre el contexto del descubrimiento; ii) la crítica de las principales tesis de la CH. Esta distinción es importante, sobre todo a la hora de valorar las aportaciones de los autores de la NFC, evitando cierta confusión cuando se emiten juicios generales sobre dicha corriente. Veamos algunos de los resultados concretos de ambas vertientes. El aspecto i) dio lugar a las construcciones metaconceptuales a fin de reconstruir y explicar la historia de la ciencia. Podemos incluir en esta vertiente los «paradigmas›› de Kuhn, los «programas de investigación» de Lakatos, el modelo de «evolución de 108 COI1Ceptos›› de Toulmin, los estudios sobre la carga teórica de Hanson, la máxima del «todo vale» de Feyerabend o, ya más 1'0¢i¢flI¢m€l1ì¢. ¡OS «problemas empíricos y conceptuales» de Laudan. Í-DS ¢i¢mlI>¡°S ¢¡ïad0S 110 pretenden ser equivalentes en cada uno de los autores, son sólo algunas de sus más conocidas aportaciones.
El flS1>¢0Í° ¡¡) Se cristalizó en la crítica a algunas de las principal¢S tesis de la CH. Por tanto, hay que señalar que, aunque la NFC se desarrolló fundamentalmente en el contexto del descubrimiento, también se definieron sobre cuestiones que pertenecen al contexto de la justifiCHCÍÓII- Shapere expone las tesis compartidas por los autores de la NFC que se contraponen a otras tantas de la CH: Resllllfli PUES. que hay al menos las siguientes tesis sostenidas por algunos de los proponentes de la «nueva filosofia de la ciencia» (incluyendo, como veremos, a Feyerabend): a) Una supuesta teoría del significado: el significado de todos los
APRoxlMAcióN Hlsrokrc/t
79
términos cientificos tanto si son «factuales›› («observaciona1es››), como «teóricos››, están determinados por la teoria o paradigma o ideal de orden natural'que subyace a dichos términos o en la que estan inmersos. b) Una supuesta teoria de los problemas que definirán el dominio de la investigación cientifica, y de lo que puede considerarse una expli-
cación como respuesta a aquellos problemas. c) Una supuesta teoria de la pertinencia de los hechos para la teoria, de los grados de pertinencia (por ejemplo, de la importancia relativa de los diferentes hechos) y, en general, de la aceptabilidad o inacep-
tabilidad relativa de las diferentes conclusiones científicas (leyes, teorias, predicciones) (Shapere, en Hacking, 1981137).
La tesis (a) se opone al punto de vista del empirismcšilógico de que hay una relación absoluta e independiente teóricamente entre «términos teóricos» y «términos observacionales». La tesis (b) se opone al intento de Hempel de hacer un análisis nomológico-deductivo y estadístico del concepto de explicación cientifica. Finalmente, la tesis (c) se opone a la posibilidad de una «lógica inductiva» formal en sentido carnapiano. Una vez hecha esta distinción se plantea el problema de si el asentir en el aspecto i) implica comprometerse con el aspecto ii), es decir, si la aceptación de que la historia de la ciencia es importante para la filosofia de la ciencia implica el compromiso con las críticas a las principales tesis de la CH tal como indica Shapere. La respuesta es no, pero con matices. No hay duda de que si se acepta el papel de la historia dela ciencia en la filosofia de la ciencia hay que abandonar la tesis de la CH que sostiene que el contexto del descubrimiento no es com-
petencia de la filosofía sino de la sociología y de la psicología. Pero hay otras muchas tesis en las que uno no queda comprometido ni a favor ni en contra. Una prueba de ello es que, a pesar de unas caracteristicas comunes, los autores de la NFC difieren en cuestiones importantes.” Además, estas diferencias se han ido acentuando a medida que han ido surgiendo nuevos trabajos en el campo de la dinámica cientifica. En cuanto a los que podrían ser los precursores de la NFC depende de si nos referimos al aspecto i) o ii)_ Desde el aspecto i) los precursores hay que buscarlos en el campo de la historia de la ciencia, bien 4. En este sentido podemos señalar el estudio de Newton-Smith (1987) en que expone los diferentes enfoques de estos autores, desde los racionalistas a los anárquicos.
80
mrlzooucción A LA Ficosorbx DE LA cuaNc1A
entre historiadores interesados por la filosofia de la ciencia, bien entre filósofos de la ciencia con una buena formación histórica. En realidad, los más importantes iniciadores de esta filosofía fueron reconocidos historiadores como Kuhn y Toulmin o, al menos, grandes conocedores de la historia de la ciencia como Hanson y Feyerabend. En cuanto a un precursor inmediato, del que el propio Kuhn reconoce la influencia, hay que señalar a Ludwik Fleck. Dice Kuhn: pude descubrir la monogmfía casi desconocida de Ludwik Fleck Entslehung und Entwicklung einer wissenschnft/ichen Thtsache (Basilea,
1935), un ensayo que anticipaba muchas de mis propias ideas. Junto a una observación de otro Junior Fellow, Francis X. Sutton, la obra de Fleck me hizo comprender que esas ideas podian necesitar ser establecidas en la sociología de la comunidad científica (Kuhn, l97l:ll).
La idea central del pensamiento de Fleck es que la mayoría de los contenidos cientificos están condicionados y pueden explicarse por factores históricos y sociológicos. Dice Fleck: En la historia del conocimiento cientifico no existe ninguna relación lógico-formal entre las relaciones y sus pruebas: las pruebas se acomodan a las concepciones tan a menudo como las concepciones a las
pruebas. Después de todo, las concepciones no son sistemas lógicos, por más que siempre aspiren a serlo, sino unidades fieles a un estilo que o bien se desarrollan como tales, o bien se funden junto con sus pruebas en otras unidades. Al igual que las estructuras sociales, cada
época tiene concepciones del conocimiento dominantes, residuos de las del pasado y gérmenes de las del futuro. Una de las tareas primordiales de la teoría comparativa del conocimiento seria investigar cómo las concepciones y las ideas confusas pasan de un estilo de pensamiento a otro, cómo emergen como preideas generales espontáneamente y cómo se mantienen, gracias a una especie de armonia de ilusiones, como estruc-
turas persistentes y rígidas. Sólo por medio de esa comparación e investigación de las relaciones podemos empeur a comprender nuestra
época (Fleck, 1936163-75).
Fleck ejemplifica estas ideas a través de un caso de la historia de la medicina: la investigación sobre la sífilis. Según Fleck fueron las especiales connotaciones de dicha enfermedad (asociación con las relaciones sexuales) las que determinaron el desarrollo de la investigación.
APRox|MAc1óN Hlsroiuc».
81
Además de Fleck, Kuhn estuvo influido por A. Koyré, É. Meyerson, H. Metzger y A. Meier. En cuanto al aspecto ii), los precursores hay que buscarlos en la evolución del análisis sobre elcontexto de la justificación y que -como dice Echevarría- «a partir de los años cincuenta comienza a producirse una serie de criticas concretas sobre diversas afirmaciones de la concepción heredada: así la de Quine y Putnam sobre la distinción analítico/sintético; las de Chisholm y Goodman en torno a los condij cionales contrafácticos y a la tesis de la extensionalidad de las leyes cientificas; las de Rapoport, Kaplan y Achinstein en relación con la axiomatización de las teorías científicas; las de Putnam y Achinstein nuevamente, pero esta vez con respecto al problema clave de la oposición entre lo observacional y lo teórico, 0 la de P. Suppes al analizar la noción de reglas de correspondencia» (Echevarría, l989:24). Entre otras razones, la importancia de la obra de Kuhn reside en que es un eslabón más en las criticas a la CH y, al mismo tiempo, la culminación de varios intentos de relacionar la historia y la filosofia de la ciencia. La corriente filosófica iniciada por Kuhn ha recibido varias denominaciones además de «nueva filosofia de la ciencia». A veces se la conoce como «revolución historiografica››f o otras como «la rebelión contra el positivismo››;° sin embargo, aunque ambas denominaciones expresan un aspecto de lo que fue esta corriente, ninguna es totalmente adecuada. Refiriéndonos a los dos aspectos de la NFC, es difícil hablar de revolución en el aspecto i), ya que entre las tesis de la CH no hay ninguna que se reñera a la explicación de la evolución científica. Las teorías sobre el cambio científico proporcionadas por la NFC
no sustituyen a ninguna teoría anterior. Podría argüirse que la CH tenla una tesis sobre el cambio de teorias, a saber: la imposibilidad de que pueda haber tales cambios de teorías. A lo sumo seria una tesis negativa, por tanto, es mejor no tenerla en cuenta. Hay que señalar que fue arriesgado, por parte de los autores de la CH, decir que era imposible la explicación racional de la evolución de la ciencia. Sobre un campo de conocimiento puede decirse que, por el momento, no hay modelos explicativos o que los que hay son poco potentes teóricamente, pero es difícil predecir hasta dónde pueden llegar los modelos 5. 6.
Véase Diez Caluda (1989). Véase Shapcre en Hacking (l98l).
82
|N'r|
explicativos. Por tanto, podemos concluir que hubo «irrupción›› de la historia y no «revolución historiográñca» en el campo de la filosofía de la ciencia. Por otro lado, la revuelta contra el positivismo si por éste entendemos las tesis de la CH, tampoco es totalmente cierto que la NFC fuera una revolución porque, como hemos visto en lineas anteriores, la «revuelta›› contra el positivismo habia empezado un década antes. Los comentarios a estas denominaciones ni ponen ni quitan nada a la importancia de esta corriente filosófica. Nadie duda de que la obra de Kuhn supuso un hito en la filosofia de la ciencia y que el movimiento que inició tuvo consecuencias positivas para el desarrollo de la filosofia de la ciencia posterior. Dejando aparte los aciertos y errores de cada uno de los autorcs de la NFC en esta primera época, las repercusiones epistemológicas han ido mucho más allá de lo que el propio Kuhn pudo sospechar cuando escribió la ERC (1962). Prueba de ello es que al cabo de siete años (1969) reformulaba las principales tesis de La estructura de las revoluciones cientificas en la «Posdata›› y en «Los segundos pensamientos sobre paradigmas››.1 Respecto a las repercusiones que la obra de Kuhn tuvo en las ciencias sociales me parece esclarecedor el comentario de F. Ovejero: Al hilo de la obra de Kuhn empezó a proliferar una literatura que seguía obsesionada con «el problema epistemológico» pero aflojada aho-
ra de toda intención analítica. implícitamente se dio por buena la consigna de Feyerabend: «todo vale». Sociólogos y economistas se apuntaron alegremente a una defenestración de jueces que empezaba, justamente, con los epistemólogos y continuaba -no tanto- con los
colegas, remitidos rápidamente al cómodo expediente de la «inconmensurabilidad interparadigmatica», de la incomparabilidad entre teorias (Ovejero, 1987). En el otro extremo encontramos la reformulación de las tesis de Kuhn en el marco de la concepción estructural de Sneed, Stegmüller y Moulines. Esta relación dio lugar a un simposio sobre filosofía de la ciencia celebrado en 1975 en Ontario (Canadá), al que asistieron Kuhn, Sneed y Stegmüller a fin de clarificar las posturas. Esta apreciación de la obra de Kuhn coloca al contexto del descubrimiento en 7. Utilizo a propósito el término ureformular» a fin de no entrar en la polémica de si Kuhn abandonó 0 no las tesis de La estructura de las revoluciones cientúìcas.
APRox|MAc1óN 1-usroiucfx
83
la tradición analítica de donde procede la CH, en un intento de abandonar todos los posibles rasgos irracionales de la nueva filosofía de la ciencia. › La filosofía de la ciencia se centró primero en el contexto de la justificación pero con la NFC surgió el interés por el contexto del descubrimiento. Durante mucho tiempo permanecieron como dos planos distintos, cada uno con sus lógicas y sus métodos. Finalmente, empiezan a surgir voces que abogan por una interrelación entre ambos y por un nuevo enfoque en la relación entre la historia y la filosofía de la ciencia.
8./ Es'r/mo ACTUAL DE LA 1=n.oso1=íA DE LA cu2Nc1A La situación actual de la filosofía de la ciencia podemos abordarla desde varias perspectivas: a) desde los problemas que en estos momentos tiene planteados la filosofía de la ciencia; b) desde las diversas filosofías de la ciencia particulares (filosofía de la física, de la biología, de la sociología, etc.); c) desde los modelos que la filosofía de la ciencia toma de otras ciencias; d) desde las distintas concepciones que suponen las grandes líneas de investigación en dicho campo, y e) desde las vertientes sincrónica y diacrónica de la ciencia. En cuanto a la perspectiva a) sería difícil apuntar temas comunes a la mayoría de los filósofos de la ciencia. Podríamos señalar algunas cuestiones que, de forma puntual, han atraído la atención de un buen número de filósofos y que se han plasmado en conferencias, simposios, pero no puede decirse que dichos temas hayan aglutinado a la comunidad filosófica alrededor de un proyecto común. Entre los te-
mas que puntualmente han sido motivo de debate podemos señalar los siguientes: realismo/antirrealismo, determinismo/indeterminismo, y racionalidad de la ciencia. En la perspectiva b) habría que incluir lo que Bunge (Bunge, 1980) llama «epistemologías regionales››' al referirse a las filosofías de la lógica, de la matemática, de la física, de la psicología, de las ciencias sociales, etc. Estos campos dela filosofia de la ciencia han adquirido últimamente una importancia considerable, en especial la filosofía de 8. Dado nuestro contexto político, seria más adecuado llamarlas «epistemologías autonómicas» o «federación de epistemologlas».
84
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
las ciencias sociales. Esto se debe a la preocupación por adquirir estatuto científico por parte de la historia, la antropología, la geografía, la sociología, la arqueología, etc. En todas ellas el debate epistemológico ocupa un lugar preeminente en su tarea investigadora. Desde la perspectiva c) hay que apuntar a la sociología del conocimiento y a las ciencias cognitivas como disciplinas que han repercutido de forma más evidente en diversos planteamientos de la filosofía de la ciencia.” En primer lugar, a pesar de que ambas constituyen un mismo fenómeno (proporcionar modelos a la filosofía de la ciencia desde otras disciplinas), las consecuencias para la filosofía de la ciencia son distintas e independientes una de otra. En el caso de la sociología del conocimiento su influencia está ligada al desarrollo de la sociología de la ciencia, desarrollo iniciado con Merton (l927) y que luego siguió una línea muy diferente de Merton en la llamada Escuela de Edimburgo con B. Barnes y D. Bloor. Por parte de la influencia de las ciencias cognitivas en los planteamientos de la filosofía de la ciencia, la cuestión esta en que el desarrollo que ha experimentado la neurociencia ha socavado muchos de los planteamientos de la filosofia de la mente y ha generado un optimismo epistemológico del que se ha contagiado la propia filosofía de la ciencia. El trabajo de Paul Churchland (Churchland, 1992) constituye un ejemplo de la influencia de las ciencias cognitivas en la filosofía de la ciencia. En cuanto a la perspectiva d) podemos hablar de varias alternativas a la Concepción Heredada. Vamos a detenernos, a continuación, en la concepción estructuralista y en la concepción semántica de las teorias científicas. Finalmente, desde la perspectiva e) señalamos que, de cualquiera de los problemas indicados podemos hacer un análisis desde la vertiente sincrónica o diacrónica.
Es importante señalar, en primer lugar, que estas concepciones no agotan las aproximaciones filosóficas a la ciencia, aunque constituyen lineas de investigación reconocidas por el resto de la comunidad filosófica. En segundo lugar, que las perspectivas aquí indicadas no 9. A pesar de que tanto la sociología del conocimiento como el enfoque cognitivo suponen un intento de suplantación de la epistemología por la sociología y la psicología respectivamente, hay diferencias substanciales entre ambas respecto a la filosofía de la ciencia. Mientras que con la primera no hay convergencia posible, con la segunda la cuestión está abierta.
Avnoximxcíóu 1-nsróiuca
85
se excluyen sino que se solapan en muchos puntos. Es decir, podemos acercarnos a la filosofía desde la filosofía de la física o de las ciencias sociales y, al mismo tiempo, analizar cuestiones que hacen referencia al problema del realismo científico, 0 bien centrarnos en la concepción semántica y ver también qué postura adopta dicha concepción respecto a los modelos cognitivos.
8.1.
La concepción estructural
Puede considerarse como una revisión de la CH en cuanto critica sus tesis, pero no es una alternativa radicalmente opuesta a la tradición analítica del empirismo lógico. Vamos a señalar algunos datos que nos permitan situarla en el marco de la evolución de la filosofía de la ciencia del siglo xx. J. Sneed, uno de los fundadores de esta corriente, publica su obra The Logical Structure of Mathematical Physics en 1971, influido por la Escuela de Stanford a través de P. Suppes. W. Stegmüller es el iniciador en Europa de esta corriente a la que han contribuido notablemente U. Moulines, W. Balzer y W. Diederich, entre otros. '° La concepción estructuralista propone una «axiomatización informal de las teorías científicas» que supone la utilización de la teoría informal de conjuntos a fin de caracterizar las teorias empíricas. Suppes recurrió a la técnica del «predicado conjuntista» utilizado por el grupo de Bourbaki. Dicho predicado, al determinar la clase de modelos que lo satisfacen, caracteriza extensionalmente la teoría en función de dicha clase de modelos. No hace falta, por consiguiente, reducir
las teorías científicas a cálculos lógicos, lo cual era imprescindible en la concepción heredada. El propio Stegmüller ha dicho que esta con-
cepción puede considerarse como una ampliación del programa de Bourbaki a la ciencia empírica. Si esto es así, es acertado el comentario de J. Echevarría (Echevarría, 19892150) cuando afirma que la propuesta de Stegmüller supone una nueva tentativa, aunque a partir de postulados muy diferentes de los del Círculo de Viena, de unificación de la ciencia. l0. U. Moulines ha sido el introductor indiscutible de la concepción estructuralista en España. A ello ha contribuido la propia obra de Moulines (1982 y l992) y la versión castellana de las principales obras de Stegmüller.
86
INTRODUCCIÓN A LA FILOSOFIA DE LA CIENCIA
Una peculiaridad de la concepción estructural respecto a la Concepción Heredada es que la primera trata de integrar en la estructura de las teorías científicas los aspectos pragmáticos y dinámicos, reformulando e incorporando la obra de autores como Kuhn y Lakatos pro~ cedentes de la corriente historicista. Como consecuencia, dicha con_ cepción acaba con la disociación entre contexto del descubrimiento y contexto de la justificación defendida por la Concepción Heredada.
8.2.
la concepción semántica
Frente al análisis básicamente sintáctico de la CH surge la concepción semántica en filosofía de la ciencia. En sentido amplio pueden incluirse desde la propia concepción estructural hasta la escuela polaca de Wojcicki y Przelecki así como autores como Dalla Chiara y Toraldo. Sin embargo, podemos centrar la concepción semántica en Sup~ pe, Van Fraassen y Giere, con Beth como precursor. Suppe entiende el enfoque semántico como una teoria de modelos para analizar las teorías científicas. Dice Suppe: Las teorías son entidades extralingülsticas que se pueden describir por medio de sus formulaciones lingüísticas. Las proposiciones que aparecen en la formulación de una teoría ofrecen, pues, descripciones verdaderas de la misma y, de este modo, la teoría es como un modelo de cada una de sus formulaciones. Esto indica que las técnicas semánticas
de teoria de modelos pueden ser útiles para analizar la estructura de las teorías científicas, cosa que se hace más plausible cuando se observa que la forma que suele adoptar en la práctica la presentación de una
teoria científica es la de especificar un modelo para los enunciados empleados en la formulación de la teoria; esto es así sobre todo cuando se trata de las teorías más complicadas del tipo de las que aparecen en las ciencias fisicas (Suppe, 19791356).
Para la concepción semántica los conceptos de modelo, hipótesis teórica y teoría tienen un significado concreto y difieren de otras concepciones. Sin embargo, dada su complejidad nos obliga a dejarlo para el capitulo sobre teorías cientificas (véase el capítulo 6). En el caso de Giere es importante, desde la perspectiva de las con~ cepciones actuales de la filosofía de la ciencia, señalar la relación que establece entre filosofía dela ciencia y ciencias cognitivas (Giere, 1988):
APRox|MAcróN H|s1oR|cA
87
La ciencia es una actividad cognitiva, es decir, se refiere a la producción de «conocimiento››. Claro que la ciencia no es hoy en dia el paradigma más importante de las empresas productoras de conocimiento. Hoy, una de las fuentes potencialmente más poderosas que estudian cualquier actividad cognitiva es el núcleo de disciplinas agrupadas bajo el nombre de «ciencia cognitiva». AI llamar a mi enfoque «teoría cognitiva de la ciencia» intento que sea un enfoque que utilice todos los
recursos de las ciencias cognitivas (Giere, 1988:!-2). Sigue en una nota a pie de página: Muchos filósofos y filósofos de la ciencia se han interesado por las ciencias cognitivas con el intento de aplicar conceptos y métodos filosóficos para investigar en estas ciencias. Es esencial darse cuenta que el ob'etivo de una teoría cognitiva de la ciencia es justo lo contrario: utiliziar los conceptos y métodos de las ciencias cognitivas para estudiar la ciencia (Giere, l988:28l). De acuerdo con esta puntualización, está claro que la propuesta de Giere no es hacer filosofia de las ciencias cognitivas, sino tomar di-
chas ciencias como modelos analógicos para el análisis filosófico de la ciencia.
8.3.
Enfoque empírico en dinámica cientifica
Aunque ni la concepción estructural ni la semántica niegan la posibilidad del aspecto diacrónico de la ciencia, ninguna de ellas tiene
como principal actividad (al menos en los autores aquí citados) la construcción y aplicación de modelos de cambio cientifico. Al hacer un balance de la ñlosofía de la ciencia actual no podemos olvidar el proyecto que tiene como ñnalidad la contrastación de diversos modelos de cambio científico que se han construido a partir de la irrupción de la historia de la ciencia en la filosofia. L. Laudan, A. Donovan, R. Laudan, P. Barker, I-I. Brown, J. Leplin, P. Thagard, S. Wykstra en el articulo «Scientific Change: Philosophical Models and Historical Research» (Laudan, Donovan et al., 1986) presentan las pautas de una investigación empírica en dinámica científica:
88
iN1'RoDuccióN A LA i=|uosoi=lA DE LA ciiaNciA Desde nuestro punto de vista, ha llegado la hora de poner esta situación en la línea correcta. El clamor sobre la importancia de la contrastación empírica tiene que abrir camino al proceso de contrastación en si mismo. Las promesas de los sesenta y de los setenta han fallado. 0 bien decidimos cómo poner a prueba estos modelos y nos ponemos a hacerlo, o bien abandonamos cualquier pretensión de obtener la más minima justificación para afirmar que la ciencia es lo que decimos que es. Tomando como eslogan el naturalismo en epistemología tenemos que dar cabida a las cuestiones reales o tenemos que confesar todo lo que pensamos sobre el estatus epistémico alternativo (extra empírico) con el que intentamos teorizar sobre la ciencia. Este ensayo es un movimiento preliminar en la primera dirección (Laudan, Donovan el al., l986:l43).
A partir de estos presupuestos se establecen las tesis de los diversos autores que han investigado en el campo de la dinámica cientifica a fin de contrastarlas con la historia de la ciencia. Este programa dio su fruto con la publicación en l988 de diversos estudios sobre cambio cientifico editados por A. Donovan, L. Laudan y R. Laudan, bajo el titulo Scmtinízing science. Empiricalstudies of Scientific Change (Laudan el al., l988). En dicha obra se precisa la metodologia para llevar a cabo los estudios empíricos: Nos imponemos a nosotros mismos los siguientes objetivos: (l) extraer algunas de las llamadas «tesis››; (2) formular estas tesis a fin de
que sea fácil compaiarlas con las afirmaciones de otros que teorizan sobre el tema; (3) hacer que estas tesis sean inteligibles a los lectores que no estén familiarizados con el lenguaje técnico de la filosofía o con la terminología especifica de los diferentes actores que teorizan sobre el tema; y (4) expresar estas tesis en un vocabulario neutro que no presuponga los supuestos que subyacen a cualquiera de las teorias (Laudan, Donovan el ul., l986:8). AI mismo tiempo la obra presenta casos históricos concretos («case studies››) en los que se aplica alguna de las tesis programáticas, comprobando si dicho modelo encaja o no con el caso histórico concreto.
3.
EL LENGUAJE CIENTÍFICO
l. Los coNcEi='ros crisuriificos Los conceptos cientifióos son el primer eslabón del anafam °°f" ceptual con el que nos enfrentamos al mundo. Mosterin (M0St°"“' 1984) hace unas consideraciones sobre la conceptualílflcìóll Y el mu" do externo que son pertinentes para situar el papel del SUÍCÍC' °°gn°s` cente en la aprehensión del mundo y, por tanto, en el PTOCCSP de “Ínceptualización que tiene lugar en la investigación científica. DIC@ Mosterin: El mundo nos bombardea continuamente con todo t¡Pf1 de 'ama' ciones, roces, mensajes. Y nuestro aparato sensorial selecciona Y Pm' cesa esa información bruta que nos llega del mundo. Si tuviéI'flI'fi0$ °"° aparato sensorial diferente del que tenemos, D¢l'C¡b¡flam_°5 el mumfo de distinto modo. Si nuestra retina fuese sensible a otro intervalo _dl$tinto del espectro electromagnético, verlamos un Paisaje lnffarro-lo 0
ultravioleta muy distinto al que vemos _ Esto no significa que nuestros sentidos inventen el mundo ni qllfi nuestras percepciones no sean objetivas. Tan obifiïlva °§ "na ,f°t° en blanco Y neåro como una foto en color Y C°m° una "ad'°5mfia` Few nuestro aparato sensorial condiciona nuestra p¢IC°P°¡Ó“ del "f“f'd° y determina las pautas en las que ésta es posible. El mundo percibido es la resultante de al menos dos factores: nuestro aparato sensorial y e mundo exterior.
d
De igual modo, lo que pensemos y digamos del mundo no depen 9 sólo de él, sino también de nuestro sistema concelJ1Ufl¡› que semcmona' condiciona y determina los aspectos del mundo que ¡°“°m°S en cuenta, en los que pensamos y de los que hablamos. El mundo P°“Sad° ei también la resultante de dos factores: nuestro sistema conceptual y C mundo real (Mosterin, 1984211-12).
90
INTRODUCCIÓN A LA FILDSOFÍA DE LA CIENCIA
En la actividad científica tenemos que partir de nuestro aparato sensorial y del sistema conceptual plasmado en nuestro lenguaje natural. El mundo, ni siquiera a este nivel, está estructurado de por si de un modo univoco, sino que somos nosotros los que lo estructuramos al proyectar sobre él nuestros conceptos. A nivel cientifico los conceptos tienen dos funciones básicas: la descripción adecuada de las cosas y sucesos que son objeto de la investigación científica y el establecimiento de leyes y teorias generales mediante las cuales sea posible explicar y predecir sucesos particulares (Hempel, l979:l4l). La representación de los conceptos cientificos se lexifica en los términos del vocabulario de la ciencia.' Uno de los posibles lenguajes con que operativizamos los conceptos cientificos es el lenguaje matemático. En las ciencias muy desarrolladas, sobre todo en la fisica, a veces el lenguaje científico se equipara con el lenguaje matemático. Sin embargo, a no ser que se identifique teoría científica con teoria matemática, el lenguaje científico no se agota en el lenguaje matemático. Sin embargo, la ciencia sigue utilizando el lenguaje natural con todas sus ventajas y desventajas respecto al lenguaje matemático. Ventajas en el sentido de ser más intuitivo y poder captar realidades complejas, pero enormes desventajas por su falta de rigor, de precisión y por su polisemia. Estas caracteristicas, que en la literatura pueden transformarse en una virtud, en la ciencia constituyen una dificultad. Podria argumentarse que si las ventajas priman sobre las desventajas, ¿por qué no utilizar sólo el lenguaje matemático para la representación de los conceptos científicos? La cuestión es que no todo el conocimiento cientifico puede expresarse en lenguaje matemático. Aunque Galileo tuviera razón al decir que la naturaleza está escrita en lenguaje matemático, hasta el momento sólo llegamos a re-
presentar por la matemática una parte de los hechos y/o realidad, por tanto, por el momento, necesitamos el lenguaje natural para dar cuenta de aquella parte de la naturaleza (hechos, realidad) no reducible a una expresión matemática. Un punto controvertido referente a la representación lingüística de los conceptos de la ciencia consiste en sostener, o no, la idea de un lenguaje unitario para la ciencia y, por tanto, la reducción de todos l. Siguiendo con una convención clásica en lógica y filosofia de la ciencia, entrecomillaremos los terminos que representan los conceptos. Por ejemplo, los ténninos «fuerza›› y «rol››, que son expresiones lingiilsticas, representan los conceptos de fuerza y rol.
EL LENGUAJE CIENTÍFICO
los demás a éste. Esta postura fue defendida por algunos miembros del Círculo de Viena, que tomaban el lenguaje fisicalista como base al que debian reducirse todos los demás. Esto significa definir los términos de las otras disciplinas a partir de conceptos físicos. Otra forma de reduccionismo consiste en aceptar sólo un tipo de definición, tal es el caso del programa operacionalista de Bridgman (más adelante detallaremos las bases fundamentales de dicho programa), que propone el análisis operacional como el único método riguroso de dar significado a los términos cientificos. Frente al reduccionismo, podemos plantear el pluralismo a distintos niveles, a sabcr: cn función de las distintas ciencias, en función de los distintos tipos de definición y en función de distintos tipos de lenguajes. En este sentido, P. Suppes (Suppes, l984a:l22) aboga por la pluralidad del lenguaje, favoreciendo la divergencia del lenguaje en la ciencia, lo cual no es motivo /de escepticismo ni de pesimismo para el desarrollo de la ciencia. Para Suppes la pluralidad de lenguajes en la ciencia es tan deseable como la pluralidad de opciones politicas en una democracia. Si partimos de que los términos usados para formular enunciados cientificos tengan significados claramente especificados y sean entendidos en el mismo sentido por todos aquellos que los usan, es necesario que haya criterios claros y uniformes de aplicación de dichos conceptos. Para llevar a cabo este objetivo de clarificación el método más apropiado es la definición.
2.
LA Disi=iNicióN DE TÉRMINOS cnaN'riFicos
La definición tiene una función de precisión y clarificación de los términos utilizados en la investigación cientifica. Definir un término consiste en caracterizar suficientemente una noción para delimitarla y separarla de otras. La idea tradicional de definición, inspirada en Aristóteles, es la que se basa en el género y la diferencia específica (per genus et differentiam) y consiste en la delimitación de una especie, determinando el género al que pertenece y lo que la diferencia de otras especies que pertenecen al mismo género. La utilización de «género›› y «especie››, dos términos procedentes de la biologia, hay que tomarla sólo como una analogía. En el sentido utilizado por los cientificos «género›› sig-
92
INTRODUCCIÓN A LA FILOSOFIA DE LA CIENCIA
nifica una clase amplia y «especie›› una clase más pequeña, que es una subclase del género. Por ejemplo, podemos hablar del género animal y de la especie de los mamíferos, o del género mamífero y de la especie felino. Es decir, la distinción entre género y especie es una clasificación relativa. La diferencia es el atributo o atributos que distinguen las distintas especies en un mismo género. Por ejemplo, lo que distingue a los instrumentos de cuerda de otras especies en el género de instrumentos musicales, es el tener una caja de resonancia, el estar construidos de madera, el tener cuerdas, etc. Esta idea tradicional de definición se asienta sobre cuatro reglas que pueden enunciarse como sigue: i) una definición debe dar la esencia de lo definido; ii) una definición no debe caer en un circulo vicioso; iii) una definición no puede ser negativa cuando puede ser positiva; y iv) una definición no puede ser expresada en lenguaje figurado u oscuro! Según esta concepción tradicional, las definiciones se clasifican en reales y nominales (a veces a las nominales se las denomina verbales). Las definiciones reales expresan la naturaleza de una cosa o especie y pueden ser verdaderas o falsas. Las definiciones nominales expresan el significado de un nombre, estableciendo la palabra con que, en lo sucesivo, designaremos a un objeto que tiene unas propiedades determinadas. Esta clasificación es equivalente a la establecida por Hempel (Hempel, l977:l27) entre definiciones descriptiva.: y estipulativas. Las descriptivas se proponen analizar el significado aceptado de un término y describirlo con la ayuda de otros términos cuyo significado debe haber sido comprendido con anterioridad. Las estipulativas sirven para introducir una expresión que se ha de usar con algún sentido especifico en el contexto de una discusión, de una teoría, etc.
ETBMPLLFICACIÓN DE DEFINICIONES DESCRIIPTIVAS Y ESTIPULATIVAS
Descriptivas Especie: clase de seres vivos en la que cualquier miembro pue de reproducirse y tener descendencia fértil y exclusivamente si lo hace otro miembro de tal clase. Visión (en psicologia cognitiva): visión es el proceso de des2. Esta versión de la idea tradicional de definición se encuentra en Suppes,
(i9s4a;i91›.
izi. LENGUAJE ciENrli=ico
93
cubrir a partir de imágenes lo que está presente en el mundo y dónde está (David Marr, Vision). Lenguaje internalizado (según Chomsky): estructura articulada en la mente de un hablante que le indica cómo debe crear sus propias oraciones de manera que sigan los estándares de gramaticalidad de su comunidad. Amatista (caracterización de un objeto natural que estudia la geología): mineral compuesto por óxido de silicio cristalizado, de color violeta y de dureza 7.5 en la escala de Mohs. Eslipulativas \ Inteligencia artificial (una de las posibles definiciones): disciplina de la informática que pretende generar programas para resolver problemas que, si fueran resueltos por una persona, diriamos que su actuación sería inteligente. Conjunto infinito: es aquel para el cual es posible poner en correspondencia biunívoca todos sus elementos con los elementos de algún subconjunto propio. Categoría vacia: todo aquel elemento que, a pesar de tener importancia lingüística, no es pronunciado por el hablante (por ejemplo, un sujeto eliptico). Representación: «después de que una experiencia haya cesado, algún cambio ha tenido que mediar para producir los efectos subsecuentes que tal experiencia tendrá. Este cambio es a lo que se llamará en el resto del articulo representación».
2.l. La estructura de la definición La definición tiene la siguiente estructura: «...›› tiene el mismo significado que En la parte izquierda o definiendum, ponemos el término que queremos definir, y en la parte derecha o definíens, las propiedades de dicho término. Por ejemplo, especie, amatista y categoria vacia son deyinienda y las expresiones lingüísticas que siguen a estos deflnienda son los respectivos definiens.
94
iN1'RoDuccióN A LA ifiuosor-*IA ma LA ciiaNc|A
Definir un término es determinar todas las instancias que pueden denominarse con este término. Esto puede hacerse extensionalmente -definiciones denotativas- o intensionalmente -definiciones connotativas-. Definir un término extensionalmente significa nombrar los objetos a los que se aplica el término o enumerar las subclases de este término o señalar materialmente los objetos denotados por el término. Hay que señalar, sin embargo, que para la investigación cientifica las que se utilizan habitualmente son las connotativas. Esto quiere decir que lo que tenemos en el definiens es una serie de propiedades atribuidas al deƒiniendum. Lo que nos interesa es precisar la relación entre el definiendum y el definiens.” La relación entre defíniendum y definiens es la relación entre una propiedad P o propiedades P,, P,, P,, y un término «X›› correspondiente a un concepto X. Dicha relación puede ser necesaria lógicamente, suficiente lógicamente, pertinente y central. Necesidad lógica. Decir que una propiedad P es lógicamente necesaria para X, en el sentido en que es usado el término «X››, significa que si le falta la propiedad P no puede ser clasificado como una X, independientemente de las otras propiedades. En la definición de conjunto infinito es lógicamente necesario que exista algún subconjunto que pueda ponerse en correspondencia biunívoca con todos los elementos de ese conjunto, si no tal conjunto no puede ser infinito. Suficiencia lógica. Decir que una propiedad P es lógicamente suficiente para ser una X quiere decir que si el término «X›› posee dicha propiedad se le puede clasificar como una X, independientemente de
las otras propiedades que posea. Realizar la función clorofilica es en principio suficiente lógicamente para adscribir un objeto a la categoria de «vegetal››. Los vegetales tienen evidentemente más características definitorias, pero todos los vegetales y sólo éstos realizan la función clorofilica, por lo tanto la condición es suficiente. Pertinencia. Decir que una propiedad P es pertinente para ser un X quiere decir que, si se sabe que un item posee ciertas propiedades y carece de otras, el hecho de que el ítem (es decir, una cosa) posea 3. Para la relación entre el de/iniendum y el definiens he seguido de cerca el trabajo de P. Achinstein (1971).
EL LENGUAJE clEN^rii=ic0
95
(o carezca de) la propiedad en cuestión normalmente contará, al menos hasta cierto punto, a favor (o en contra) de que es un X, concluyendo que es un X (o que no es una X); y, si se sabe que dicho ítem posee (o carece de) suficientes propiedades de diversos tipos, el hecho de que el item posea (o carezca de) la propiedad en cuestión puede, justificadamente, hacer que sepamos que es un X (o que no es una X). La pertinencia puede ser, por un lado, positiva o negativa y, por otro, semántica o no-semántica. La pertinencia positiva o negativa está en función de si la propiedad P cuenta a favor de ser una X más que su carencia en contra. La distinción entre semántica y no-semántica se refiere solamente a ciertos tipos de pertinencia. Supongamos que X tiene las propiedades P,, ..., P,, __., P,, pertinentes para X. Supongamos también varias substancias, cada una de ellas con las propiedades P,, P,, P,,. Si la carencia de P, cuenta, en si misma, para no clasificar dicha substancia como X, diremos que P, es semánticamente pertinente (de forma negativa) para X. Si la carencia de P,, en si misma, no cuenta para no clasificar dicha substancia como X, diremos que P, es pertinente pero no-semánticamente (de forma negativa). Si, por el contrario, P, cuenta, en si misma, para clasificar dicha substancia en X, diremos que P, es semánticamente pertinente (de forma positiva) y si no cuenta, en si misma, para clasificar dicha substancia en X, diremos que P, es pertinente no-semánticamente (de forma positiva). En la definición de amatista, «ser violeta» es pertinente de forma positiva y es pertinente semánticamente, pues «ser violeta» nos permite distinguir la amatista de otras variedades de cuarzo, distinguiendose de ellas sólo en _que tales variedades son de otro color.
Volviendo a la amatista, «ser transparente» sería pertinente de forma negativa y también sería pertinente en el ámbito semántico. «Ser transparente» sería una prueba de que no nos hallamos ante una amatista, y a nivel semántico nos indicaria que no nos hallamos ante la amatista, sino ante otra variedad del cuarzo, en este caso el cristal de roca. Finalmente, las propiedades de «tener una dureza de 7.5 en la escala de Mohs» o bien «no tener una dureza de 7.5 en la escala de Mohs››, serian pertinentes de forma positiva y negativa, respectivamente, pero no serian semánticamente pertinentes pues en principio no hay una familia a la que pertenezca la amatista, donde ésta se diferencie de las demás sólo en una dureza suficiente.
96
INTRODUCCIÓN A LA FILOSOFIA DE LA CIENCIA
Centralidad. Respecto a dos propiedades P y Q, ambas semánticamente pertinentes para X, decir que P es más central que Q para X significa que la posesión (o carencia) de P por un ítem, actual o hipotético, tiende a contar más a favor (o en contra), a la hora de clasificar aquel ítem como una X, de lo que puede contar la posesión (o carencia) de la propiedad Q para dicho item. Continuando con la amatista, diríamos que es más central la propiedad «estar compuesto por óxido de silicio» para caracterizar tal mineral que hacer referencia al color violeta. Descripciones lingüísticas. Las descripciones lingüísticas son las expresiones que indican las propiedades con las que definimos un término. Podemos distinguir dos tipos: Descripciones de tipo uno (DI) o descripciones en sentido fuerte, y descripciones de tipo dos (D2), o descripciones no totalmente definidas, es decir, con algunas propiedades desconocidas. DI: Ateniéndonos a cómo el término «X›› es normalmente utilizado por un sujeto, los items (tanto actuales como potenciales) pueden ser clasificados como X si y sólo si poseen cada una de las propiedades P,, P,,. Este tipo de descripciones suponen que la relación entre el término y la definición es lógicamente necesaria y suficiente.
EJEMi›i.i1=icAcióN DE i.As r›Esciui›cioNEs DE 'rn>o UNo (D1) Un término «X›› c-gobierna a otro término «Y$› si y sólo si ni X domina Yni Ydomina X y el primer nudo ramificado que domina X también domina Y (de la lingüística generativa).
Un grupo es un conjunto de elementos más una ley de composición interna entre ellos que cumplen las siguientes propiedades: asociativa, elemento neutro y elemento inverso.
D2: Ateniéndonos a cómo el término «X›› es utilizado normalmente por un sujeto, los items (tanto actuales como potenciales) pueden ser clasificados como X si y sólo si tienen la mayoria o al menos muchas de las propiedades P,, ..., P,,. Entre otras.
EL LENGUAJE ciENrli=ico
97
EJEMi>Lii=icAcióN DE LAs DEsc1u1›croNEs DE 'rrPo nos (D2) Los mamiferos son la clase de los vertebrados cuyos miembros poseen las siguientes propiedades: existencia de pelo, glándulas mamarias, no se reproducen mediante huevos y tienen cuatro miembros. La esquizofrenia es una psicosis en la que se produce una disociación dela personalidad acompañada por sintomas como inhibición del pensamiento, acciones estereotipadas, ruptura con el mundo exterior en forma de indiferencia o desinterés, etc.
2.2.
Clasificación de términos cientificos en función de su definición
Los filósofos de la ciencia siempre han intentado encontrar criterios para hacer clasificaciones significativas de los términos científicos. Algunas de estas clasificaciones han ocupado un lugar clave en
el análisis filosófico de la ciencia, tal es el caso de la clasificación entre términos observacionales y teóricos, cuestión que vamos a tratar en el apartado siguiente. _ Aqui vamos a ocuparnos sólo de aquellas clasificaciones que tengan que ver con los conceptos definidos anteriormente. Una posibilidad seria clasificar los términos cientificos en función del tipo de relación que hay entre dichos conceptos y sus definiens correspondientes. Asi tendriamos el grupo de los términos que establecen con sus definiens relaciones lógicamente necesarias o suficientes, o ambas, o pertinentes. También podríamos dividirlas entre términos cuya definición es una descripción de tipo uno (Dl) y aquellos cuya definición es de tipo dos (D2). Hay que señalar que, hasta aqui, estas clasificaciones son poco fructíferas, ya que desde el momento que establecimos las distintas relaciones entre definiendum y definiens, automáticamente quedaba hecha esta clasificación y, por tanto, no nos añade ninguna información nueva. Otra cosa es que pudiéramos conectar este tipo de relaciones (necesaria, suficiente, pertinente) con otras clasificaciones de términos científicos o con tipos de definiciones. Por ejemplo, que pudiéramos relacionar los términos observacionales y teóricos con
98
INTRODUCCIÓN A LA FIIDSDFÍA DE LA CIENCIA
algún tipo de relación lógica, o bien que la clasificación de las definiciones en descriptivas y estipulativas correspondiera también a un determinado tipo de relación lógica. Vamos a detenernos en la tipología de Achinstein de los términos científicos, analizando las posibilidades y alcance de dicha clasificación. Veamos algunos ejemplos de términos que Achinstein incluye en cada uno de los grupos: A: cobre, metal, electrón, átomo, ácido, insecto. B: sistema de conservación, molécula diatómica, sistema newtoniano, proceso reversible, cuerpo rígido, cuadrúpedo. C: energía cinética, velocidad, longitud, temperatura, entropía y energia potencial. La lista A designa objetos físicos y recibe definiciones de tipo B. La lista B representa conceptos más abstractos aplicables a objetos ffsicos. La lista C se refiere a conceptos con posibilidad de graduarlos numéricamente. Las propiedades que definen los términos de la lista A no son lógicamente necesarias ni lógicamente suficientes, aunque si son pertinentes, siendo la descripción lingüística de tipo dos (D2) la más habitual en estos casos. Los términos definidos por los lexicógrafos serían de esta naturaleza. Asi, al introducir un término, el lexicógrafo deberá escoger las propiedades más pertinentes, entre éstas las semánticamente pertinentes y, entre estas últimas, las más centrales_ La definición de «insecto›› no cumple ni la condición necesaria ni la suñciente, pues hay algunas excepciones a cualquier definición que se quiera dar. Por
ejemplo, si intentamos caracterizar los insectos como animales de seis patas tenemos el problema de las orugas, si lo hacemos mediante la propiedad «dos pares de alas» tenemos el problema de las moscas que sólo tienen un par, pero también son insectos. Las propiedades que definen los términos de la lista B son lógicamente necesarias y suficientes y el modelo de descripción lingüística es de tipo uno (Dl). La definición de «molécula diatónica›› como una molécula con dos átomos (Oz, I-I,) cumple las condiciones de necesidad y suficiencia lógica. El significado de los términos de la lista C se expresa por medio de definiciones matemáticas u operacionales. Por ejemplo, al decir que la Energía cinética = I/2 m.v2, estamos dando una definición mate-
EL LENouAiE ciEN'rli=ico
99
mática de energía cinética. Definir operacionalmente el término «más duro que» se realiza estableciendo una regla según la cual se dirá que un trozo de mineral x es más duro que otro trozo y, si la operación de trazar con x una raya sobre la superficie de y da como resultado una raya sobre ésta. Al hablar de definiciones operacionales es obligada la referencia a P. W. Bridgman, considerado como el padre del operacionalismo. Bridgman afirma que las definiciones operacionales proporcionan condiciones necesarias y suficientes, en cambio Carnap, Hempel y Achinstein, entre otros, tienen una concepción más amplia de la definición operacional. Para Bridgman, comprender el significado de un término significa conocer los criterios operacionales de su aplicación. En cambio para Hempel, lo importante de la definición operacional es que da significado experimental al término, pero para esto «lo que interesa es simplemente que las condiciones de test pertinentes y la respuesta requerida sean de tal tipo que investigaciones diferentes puedan discernir, por observación directa, y con un grado razonable de acuerdo, si en un caso dado se realizan las condiciones del test y si se obtiene la respuesta característica» (Hempel, l979:l29). Esta concepción de Hempel sería más compatible con algunos científicos sociales como R. Mayntz (Mayntz, 1980) para los que el concepto correspondiente al término que tratamos de definir y la definición operacional no siempre coinciden en extensión y contenido semántico. La total coincidencia correspondería a la postura de Bridgman, pero en las ciencias sociales es difícil tal coincidencia. Un ejemplo de definición operacional en sociología seria la de «clase social elevada» -«todas las personas que según los datos de Hacienda tienen unos ingresos anuales por encima de cinco millones»-. Sin embargo, esta definición no cumple los requisitos de Bridgman para las
definiciones operacionales, en cambio sí da significado experimental -como exige Hempel- al término en cuestión. Mayntz considera que las definiciones operacionales «consisten en la indicación de operaciones de investigación con ayuda de las cuales se pueda decidir acerca de la presencia e intensidad de aquellos hechos que permitirán la deducción de la presencia de fenómenos conceptualmente caracterizados» (Mayntz, 1980:28). La postura de Mayntz está mucho más cerca de Hempel que de Bridgman. La clasificación de Achinstein antes indicada pronto se vio acechada por numerosos problemas que la hacían insostenible. Él mismo reco-
IOO
'"Tn0DuccióN A LA EiLosoElA DE LA ciENciA
n°cc qnc a Vcccs Ilo hay una línea clara entre términos de tipo A Y dc nP° B- cstc cS› hay términos que no se sabe dónde ubicarlos. Por c-Icmpb' t°mem°5 el término «rojo›› definido en psicología como «sencación subjetiva que tiene un sujeto de un objeto que está percibiendo Y dl-1° Se c°“'c5P°¡1de con la propiedad natural de presentar un trío de reflectancias ame ¡a ¡uz de onda jaj-ga, media y corta, respectivaIncntc- que sc nana entre ciertos valores determinados del espacio de c°|°¡'”^ Esta c°nd¡0ión expresada en el definiens es suficiente pero no 1199953113» Ya que fixisten objetos llamados metámeros, los cuales a peSa' de tcnc' rcflcctdncias diferentes aparecen, dependiendo de las connicicncs dc lnnnnlâción, como si fueran del mismo color. Incluso Pncnc darse el caso de términos que, SCEÚH 00m0 Se nen'
HHH, Pueden S91' incluidos en la lista A o en la lista B. Por ejemplo.
In ncnnìción dc “áCìdo›› en el Webster's New International Dictionary _“"n npc nc substancia que es soluble en el agua, sabor salado, enmjccc ¡cs Vegetales azules como tornasol››- se incluiría en la lista A.
P°f° la d°f¡“¡°¡Ó“ que de este término da J. N. Bronsied en 1923 -«una
substancia quc puede dar un protón a otra substancia» (en contraposición a “base” dcfìnida como «una substancia que puede recibir Un
DPOÍÓH dc Otra S“bStaneia››)- se incluiría en la lista B. Otro caso pa-
recido es el de «coef¡c¡eme de ¡me|¡gen¢¡a»_ Si tomamos la definición C0m0 Si fufïfa esüpulativa, entonces cumple con todas las condiciones (necesarias Y 5“f¡Cientes, además de pertinentes) pero si lo tomamos c°m° si fuera la graduación métrica de una capacidad humana real, como es la de Ia imclìgencia, en ese caso podria ser incluso que nl SÍ' qlncfn Sc cnmpncffln las condiciones de pertinencia.
F¡"*11m°'"°› la Posibilidad de gmduaeidn numérica puede realizarse
tantc c°n ¡c“n¡n°S de la lista A como de la lista B. "tendríamos, por 1° ta"n°› cl'-le nn féfrnino pertenecería a dos listas, con lo cual la clasincncicn n° cnnlpnfía los requisitos formales exigidos para 188 Pard-
ciones.
3'
TÉRMINOS °BSERVAcioNALEs Y 'rEnMmos 'rEóiucos
La clasificación de los términos extralógicos utilizados en la literannn cicnnncn cn 017-Yervacionales y teóricos está en la base de muchas cncsncncs metodológicas y epistemológicas de la ciencia. Su importancia cs ¡n°t“'° de Polémica en la comunidad de filósofos de la cien-
EL LENGUAJE cnaurlrico
101
cia ya que una postura determinada en la distinción teórico-observacional condiciona la postura en otros temas. Una primera aproximación a los términos observacionales y teóficos nos lleva a caracterizar los primeros como capaces de ser observados, no determinados previamente y utilizados por científicos y no científicos, y los segundos como no-observables, detenninados por la teoría y utilizados sólo por cientificos. Como ejemplos tipicos de los primeros tenemos «rojo››, «madera››, «volumen›› y «duro››, y de los segun_ dos «electrón››, «átomo››, «gen›› y «virus››. Sin embargo, el asunto no es tan sencillo cuando pretendemos establecer criterios para la distinción teórico-observacional. El problema está en si es posible definir «términos observacionales» y «términos teóricos» con propiedades que sean condiciones necesarias y suficientes lógicamente. Para llevar a cabo este analisis vamos a presentar una serie de criterios de distinción, examinando el tipo de relación lógica que existe." Teniendo en cuenta estas consideraciones vamos a ver hasta qué punto podemos definirlos y delimitarlos. Este análisis vamos a hacerlo en dos partes: en primer lugar, definiremos los términos observacionales y consideraremos como términos teóricos los que no encajan con esta definición; en segundo lugar, definiremos a los términos teóricos y consideraremos como términos observacionales los que no encajan con la definición dada.
Términos observacionales Al tratar de caracterizar los términos observacionales lo primero que se nos plantea es qué entendemos por observación y cómo utilizamos esta palabra en el lenguaje natural. Veamos algunos de sus senti-
dos y usos más habituales: i) «observar algo» significa hacer alguna actividad que consiste en mirar, buscar características de este algo que miro; ii) se puede «observar›› algo sin reconocerlo porque no sé lo que es, por tanto no debe confundirse «observar›› con «ver››, «detectar›› o «reconocer››; iii) se puede «observar X» incluso estando en cierto sentido «escondido a la vista», es decir, uno puede «observar X›› por_ que «detecta Y» y sabe que Yestá asociado de alguna forma a X; por ejemplo, puedo decir que «observo›› fuego porque «veo›› humo y sé 4. Para los criterios establecidos para distinguir entre términos observacionales y términos teóricos voy a seguir de cerca a Achinstein (1968).
102
rN'rRoouccióN A LA F1Loso|=lA DE LA cnaNcrA
que el humo está producido por el fuego; iv) se puede «observar X» viendo una imagen de X, por ejemplo, digo que observo electrones cuando en realidad lo que veo es un trazo en la pantalla; v) puedo «observar X» y describirlo de formas distintas, por ejemplo, puedo observar carbón y describirlo como «un material combustible, de color negro y no comestible» o como «C,¡››, o de forma metafórica como «oro negro». Hechas estas consideraciones, veamos algunos criterios para la distinción teórico-observacional a partir de la caracterización de los términos observacionales: a) Se podría establecer la distinción entre «observar›› y «observar que››, reservando el primero para los términos observacionales y el segundo para los teóricos. El problema es que en el caso de un físico que detecta electrones en una pantalla quizás es más apropiado decir que «observa electrones» que «observa que pasan electrones» y, sin embargo, electrón está considerado como un término teórico. b) Podrían considerarse los términos observacionales como lo observado «en sentido estricto» y así diríamos que lo observado en sentido estricto no son los electrones sino el trazo que dejan. Pero el problema es que lo observado en sentido estricto depende fundamentalmente del contexto. c) Podríamos considerar que los términos observacionales poseen (y los teóricos no) la propiedad de «ser observables en sí mismos». Con todo, «no observable en sí mismo» indica que existe una observación con la cual se contrasta, que sí es observable en si misma, pero esto implica una gradación que depende del contexto y, en cualquier caso, no es posible una delimitación entre términos observacionales y teóricos. d) Podríamos caracterizar los términos observacionales como aquellos en los que interviene la observación directa, sin intermediarios, pero el problema que surge es qué entendemos por intermediarios, cuestión sobre la que es imposible dar un criterio definitivo. Por ejemplo, ¿se considera un intermediario el microscopio?, ¿y las gafas?
Términos teóricos La distinción teórico-observacional, tomando como punto de referencia los términos teóricos, puede centrarse en distintos criterios:
EL LENGUAJE c|EN'ri|=|co
103
2) Los criterios que se refieren a la relación de los términos con la teoría. Podemos caracterizar los términos teóricos como aquellos que forman parte de una teoría, en' el sentido de que forman parte de la organización conceptual de un campo dfilefmínfldfi Y Pueden, Por tanto, hacer inteligibles diversos aspectos del camP0 en CWSÍÍÓU-
El formar parte de una teoría implica una dependfllcifl, en HIHYOF 0 menor grado, de ella. De acuerdo con la metáfora de Ryle, al igual que una carta en un juego de naipes, un término teórico sólo adquiere significado dentro de una teoría. Esta dependencia puede concretarse de las siguientes formas: al) Un término que designa un X tal que las propiedades semánticamente pertinentes (incluyendo las condiciones necesarias y suficientes) de X son atribuidas a X sólo pOr 10s principios de la teoría en cuestión. Por ejemplo: la deducción de la existencia de «bosones W» y «Z», particulas necesarias para la unificación de las fuerzas débil y eléctrica, fue realizada a partir de la teoria de la unificación electrodébil, y todas las propiedades de tales nuevas particulas fueron dedu-
cidas solamente del marco teórico general. B2) Un término designa una expresión que HD arece en una fórmula cuya derivación en la teoría no será comprendida si no se conocen ciertas leyes de dicha teoría. Por ejemplo: la «constante gravitatoria universal G» en la ecuación de la gravitación universal de Newton sólo se comprende a partir de las leyes generales de la mecánica de Newton. a3) Cuando «¿qué es un X?›› sólo pueda contestarse conociendo los principios de la teoria en cuestión. Por ej¢mD101 ¿Qué CS Un «DÚmero irracional››? Sólo puede contestarse a partir de ciertos princi-
pios de la teoría de números. a4) Un término cuya extensión sólo pueda conocerse conociéndose la teoria en cuestión. Por ejemplo: «mamífero». Sólo sabemos la extensión de este término si conocemos la teoría taxonómica, entre otras razones porque si se descubriera un nuevo animal mañana, para decidir si es o no es un mamífero habríamos de recurrir a la taxonomía. a5) Un término cuyo «rol›› sólo pueda determinarse considerando los principios en los que se usa, o bien los principios teóricos en los que ha sido introducido. Por ejemplo: el término «c-gobierna» sólo Puede saberse a qué se aplica si se conocen los princiDÍ0S de 13 gramática generativa; en caso contrario resulta ser un término absolutamente inútil.
l04
mrnoouccrón A LA riLosoFIA oe LA cnaNc|A
b) Otra caracterización de los términos teóricos los asocia a conjeturas, hipótesis o inferencias en el sentido de que van más allá de lo establecido, en contraposición a «lo dado» que es la referencia de los términos observacionales. Esta caracterimción puede tomar varios matices: bl) Términos conjeturales en el sentido de que su verdad no ha sido establecida. El problema está en que hay términos como «electrón›› que hubo un tiempo que fue hipotético (y por tanto teórico) pero ahora ya no es hipotético pues nadie dudaría de la existencia de los electrones, con lo cual deberia ser considerado como no-teórico; sin embargo electrón, antes y ahora, ha sido considerado siempre como teórico. Además, por este mismo criterio, «el abominable hombre de las nieves» ha sido y es hipotético, pero nadie lo calificaría de teórico. b2) Los términos teóricos comprometen a quien los utiliza para más cosas de lo que puedan comprometer los no-teóricos. Por ejemplo: describir la luna diciendo que hay «cráteres›› nos compromete más que decir que hay «concavidades»; por tanto, «cráter›› es un término teórico, en cambio «concavidad›› es observacional. El problema es que si el criterio de compromiso es un criterio gradual, entonces también tendríamos que pensar en términos más o menos teóricos, pero esto no es lo que se pretende con la distinción teórico-observacional. b3) Los términos teóricos son más hipotéticos que los no-teóricos en el sentido de que los teóricos necesitan un razonamiento más complicado para su defensa, pero el problema está en que la noción de complejidad es demasiado ambigua para poder servir de criterio de distinción entre teórico y no-teórico. c) Otra característica de los términos teóricos es la precisión, que puede entenderse de diversas formas: cl) Se dice que un término es preciso si su definición está basada
en, o introduce, una escala numérica que permite reconocer diferencias de grado. Sin embargo, hay casos que resultan paradójicos, por ejemplo: «electrón›› o «molécula›› no se refieren a cantidades capaces de establecer una gradación numérica, mientras que «duro» sí. En cambio, electrón y molécula se consideran teóricos y duro observacional. c2) A veces «preciso›› se entiende como no-vago, pero también en este caso existen ejemplos paradójicos, a saber: «superego›› es más vago que «rojo», en cambio, el primero es teórico y el segundo observacional. d) También podemos referirnos a los términos teóricos\como tér-
EL LENGUAJE c|EN'rtErco
l05
minos abstractos frente a los observacionales que no lo son. Veamos distintos sentidos de abstracción: dl) Un término abstracto expresa una cualidad independiente de cualquier sujeto del que el predicado es término. Por ejemplo: «honestidad››, «belleza››. Pero éste no es el sentido al que podamos referirnos cuando hablamos de términos teóricos. d2) Abstracto en el sentido de extraído de la experiencia cotidiana y más difícil de entender. Pero «entropía» es más abstracto que «temperatura›› y, sin embargo, ambos son considerados como teóricos. d3) Un término es considerado teórico en tanto en cuanto desempeña un papel importante en una teoría, sin embargo «presión» tiene un papel fundamental en ciertas ecuaciones diferenciales de la termodinámica y es considerado como no-teórico. Las consecuencias que podemos sacar del análisis de los posibles criterios de demarcación entre términos observacionales y teóricos es que ninguno puede tomarse como condición necesaria y suficiente. Posiblemente la mayoria serían pertinentes en mayor o menor grado, pero esto no es suficiente para trazar la distinción teórico-observacional. En realidad esta es la tesis que Achinstein queria demostrar, es decir,
que ninguna de estas características sirven para trazar una línea clara entre términos observacionales y términos teóricos. Pero esto no significa que estos criterios sean triviales o infructuosos para la investigación científica. Es interesante saber qué puede observarse a simple vista o con ayuda del microscopio, o bien si los términos utilizados en la expresión lingüística del conocimiento científico son más o menos precisos, más o menos abstractos, o bien en qué grado nos comprometen teóricamente. Hay dos ideas fundamentales que pueden inferirse del análisis de Achinstein: hay diferentes tipos de términos entre el vocabulario extralógico utilizado para la expresión del conocimien-
to científico, pero estas diferencias no se agotan en la clasificación entre términos observacionales y términos teóricos; cualquier clasificación que se establezca entre los términos no puede olvidar el contexto, es decir, no hay una clasificación apriorística de los términos científicos. Como dice Suppe (Suppe, 19792113), no hay una división natural de los términos en observables e inobservables, aunque nada impide que pueda haber una clasificación artificial. Esta complejidad de la distinción teórico-observacional no parece haberse tenido en cuenta por algunas de las principales corrientes en filosofía de la ciencia. Por un lado, el positivismo lógico representado
106
INTRODUCCION A LA FILOSOFIA DE LA CIENCIA
por el Circulo de Viena y sus inmediatos sucesores no sólo mantienen la posibilidad de la clasificación de los términos científicos extralógicos en observacionales y teóricos sino que muchos de sus presupuestos metateóricos están fundamentados en esta distinción. Por otro lado, la corriente historicista representada por la nueva filosofia de la ciencia, no sólo rechaza los criterios para distinguir entre términos observacionales y teóricos sino que niega la existencia de términos observacionales. Vamos a presentar ambas posturas de la mano de dos de sus máximos exponentes, a saber: C. Hempel -como representante del positivismo lógico- y N. Hanson -como representante de la corriente historicista.
3.l.
El criterio empirista del significado
El positivismo lógico parte de una distinción de los términos extralógicos de una teoria en términos observacionales y términos teóricos. Los términos teóricos adquieren significado definiéndolos a partir del vocabulario observacional. Estos dos niveles de vocabulario extralógico corresponden --según Hempel- a dos etapas de sistematización científica. La primera corresponde a un nivel temprano de desarrollo y se manifiesta a través de generalizaciones empíricas, la segunda corresponde a un nivel más avanzado de desarrollo y se manifiesta en la fonnación de teorías. Dice Hempel: La noción de observación puede interpretarse aquí en forma tan am-
plia que incluya no sólo la percepción sino también la sensación y la introspección, o se la puede circunscribir a la percepción de lo que en principio se puede constatar públicamente, o sea, de lo que también otros pueden percibir Los enunciados que pretenden describir lecturas de instrumentos de medición, cambios en el color u olor que acompañan a una reacción quimica, verbalizaciones u otros tipos de comportamiento manifiesto de un sujeto dado en determinadas condiciones observables, todos ellos ilustran el uso de los términos observacionales «intersubjetivamente aplicables». Los términos teóricos, en cambio, habitualmente pretenden hacer referencia a entidades que no son directamente observables y a sus caracteristicas; operan en las teorias científicas que intentan explicar las generalizaciones empíricas de una manera que pronto se examinará más de cerca (Hempel, l979:l82-183).
EL LENGUAJE c|EN'riF|co
107
Si para dar significado a los términos teóricos hay que definirlos con el vocabulario observacional, Hempel se pregunta si no sería suficiente y menos complicado buscar un sistema de leyes generales que mencionaran sólo observables, pero su respuesta es que no es suficiente. Hempel propone una transición sistemática de los datos observacionales a la predicción que también se expresa en lenguaje observacional aunque en medio establece una serie de enunciados que conectan sistemáticamente con el vocabulario observacional pero que tienen algún término teórico. Esta conexión se realiza por medio de las reglas de correspondencia*
3.2.
La carga teórica de los términos observacionales
Hanson aborda el tema de la distinción teórico-observacional desde el análisis de la observación. Considera que la ciencia está situada entre la matemática pura y la experiencia sensorial bruta y es «a partir de la tensión conceptual entre estas coordenadas polares de la que provienen las perplejidades filosóficas sobre la ciencia» (Hanson, l977:ll). Pero Hanson no cree que la ciencia se halle en ninguno de los dos extremos a los que califica de «formalista›› y «sensorialista››, respectivamente. La distinción teórico-observacional propuesta por el positivismo lógico estaría en la tesis sensorialista. Hanson intenta (otra cosa es que lo logre) una solución equilibrada que nos lleve por «el centro del canal, es decir, una síntesis estable y realista». Hanson recurre a un caso de la historia de la Astronomía para exponer sus ideas sobre la observación. De todos es conocido que Ke-
pler creía que el sol estaba fijo y que la tierra se movía, mientras que Tycho Brahe, siguiendo a Ptolomeo, creía que la tierra estaba fija. Respecto a este hecho hay dos lecturas posibles: una es pensar que ambos veían la misma cosa pero la interpretaban de forma distinta; otra es pensar que, «realmente», veían cosas distintas. Hempel argumentaría como la primera, Hanson como la segunda. Leamos a Hanson: Decir que Kepler y Tycho ven la misma cosa al amanecer sólo porque sus ojos son afectados de un modo similar es un error elemental. 5. Para un estudio detallado de la relación entre términos teóricos y términos observacionales. véase Hempel (Hempel, 1979, capítulo Vlll).
108
INTRODUCCION A LA E1|.osoEíA DE LA cnaNcrA Existe una gran diferencia entre un estado fisico y una experiencia visual. Supóngase. sin embargo, que se sostiene, como se ha hecho más arriba, que ven la misma cosa porque tienen la misma experiencia de datos sensoriales. Las disparidades entre sus descripciones aparecerán en interpretaciones ex post facto de lo que se ve, no en los datos visuales básicos. Si se sostiene esto, aparecerán pronto dificultades adicionales (Hanson, l977:84).
Este análisis que hace Hanson de un caso de la historia de la ciencia lo aplica también a las observaciones del entorno cotidiano. Recurre a figuras que tienen varias interpretaciones posibles (por ejemplo, una figura que puede interpretarse como pájaros o como antilopes) para argumentar que la visión no es solamente el hecho de tener una experiencia visual, sino también la forma en la que se tiene esta experiencia visual. Hanson concluye: En cierto sentido, la visión es una acción que lleva una «carga teórica». La observación está moldeada por un conocimiento previo de «X››...
La observación en física no es un encuentro con destellos, sonidos y sacudidas poco familiares e inconexos, sino más bien un encuentro calculado con éstos como destellos, sonidos y sacudidas de una clase particular; esto podría figurar en una descripción de lo que es la observación. No es seguro, sin embargo, que la observación no pudiera ser
de otra manera. En este momento es necesario este último tipo de argumentación; con ella se debe establecer que una descripción alternativa sería, no solamente falsa sino absurda (Hanson, 1977299-105). De las afirmaciones de Hanson podemos concluir que todos los términos son teóricos, es decir, no hay términos observacionales, con
lo cual la fundamentación de las teorías hay que buscarla (si es que existe) fuera de la base empírica proporcionada por el vocabulario observacional. En este punto hay que hacer algunas consideraciones. Si por «cargado de teoría» se quiere indicar que cualquier observación está condicionada por un aparato conceptual, tiene razón Hanson, pero esto es trivial. Si Hanson quiere ir más lejos (como parece que es el caso) y por «cargado de teorfa›› quiere indicar que no es posible la observación neutra e intersubjetiva, que el conocimiento sistematizado que se nos ofrece bajo la forma de teorías no tiene fundamentación empírica abocando asi a un cierto relativismo, entonces, tenga
EL LENGUAJE cIiaN'ríi=ic0
109
. , estos o no razón, se necesitan argumentos mas potentes que ¡OS exp" por Hanson. 3.3.
Balance de la distinción teórico-observacional
Cuando la Concepción Heredada estableció la distinción tet5l'lC0' observacional el objetivo era sentar las bases de una metodolfwla em' pirista y el modo de conseguirlo era dar significado C08f""V° a 195 términos no lógicos de una teoria. Pero muy pronto empezaron a surgll' las críticas poniendo en evidencia que esta distinción era insostenible. al menos en los términos planteados por la Concepción Hffcdadm ES` tas críticas proceden de diversos flancos que a continuación vamos 2 resumir. La crítica procedente de la corriente historicista «a lo Hfiflïffm” es una crítica frontal y que se sitúa en los antípodas de la tradicion empirista, tal como hemos podido comprobar en el apartado ant€fl0fHay otro bloque de críticas que proceden de filósofos que fec°gen la tradición empirista aunque difieren en numerosos temas, uno de ellofi
el de la distinción teórico-observacional. Aquí podríamos incluir a
Achinstein (Achinstein, 1963), Putnam (Putnam, 1980) y S“PP° (S“'¡°` pe, 1979). Como representante de este bloque hemos desarl'0"ad° 3 argumentación de Achinstein pero, aunque no con los mlS_m°s argumentos, Putnam y Suppe pretenden demostrar la misma idea. H 53' ber: que ninguno de los modos en que los defensores de la COHCCÄ9' ción Heredada han intentado especificar esta distinción lo ha 10€" ° con precisión. Putnam expone algunos argumentos a fin de demoäïfflf que "° es posible establecer de forma satisfactoria esta distinción: Lo que quiero decir cuando afirmo que esta dicotomía está <
Muchos términos que hacen referencia, en Pfimer hfgar' a 0-S
que Carnap clasificaria como «inobservabIes›› no son términos teóricos; y al menos algunos términos teóricos hacen referencia, en Pflmef lugar, a observables. C) Las exposiciones observacionales pueden y 8 men udo contienen términos teóricos.
IIO
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
D) Una teoria científica, en sentido estricto, puede hacer referencia sólo a observables (la teoría de la evolución de Darwin, tal como se formuló en su origen, es un ejemplo) (Putnam, 1980). Suppe afirma: Por otra parte, no se ha conseguido establecer de una forma lograda esta distinción y, lo que es más, no se puede establecer de una forma plausible sobre la base del uso ordinario de los términos en los lenguajes científìcos naturales. El único modo en que se puede trazar es artificialmente, echando mano de un lenguaje reconstruido, lo cual supone introducir un injustificado grado de complejidad en el análisis. Además, aun en el supuesto de que se establezca de forma satisfactoria la distinción, ésta no marcará ninguna distinción filosófica o epistemológicamente significativa. Por último, esta distinción no consigue recoger lo que tienen de especifico los términos teóricos y los informes de la observación de la ciencia. Es evidente, pues, que la distinción teórico-observacional es insostenible (Suppe, l979:ll3-ll4). Giere da un argumento de tipo práctico que es importante constatar: Más importante que estos argumentos filosóficos es el hecho de que esta distinción no se encuentra en la práctica científica. En los libros de texto de mecánica no se distingue entre la observabilidad de las fuerzas como opuestas a sus posiciones. Tampoco se plantea ninguna dificultad de principio para medir las fuerzas como opuestas a las posiciones (Giere, 198895). Finalmente, creo que es interesante la propuesta de Van Fraassen, no tanto porque ofrezca una nueva distinción de los términos científicos extralógicos sino porque hace un nuevo planteamiento del problema. La idea de Van Fraassen es que se establezcan dos dicotomías, una entre términos observacionales y no-observacionales para las entidades y otra entre términos teóricos y no-teóricos para los términos. Dice Van Fraassen: Expresiones tales como «entidad teórica» y «dicotomía teóricoobservacional» son, a primera vista, ejemplos de categorias erróneas. Los términos o los conceptos son teóricos (introducidos o adaptados
EL LENGUAJE ciENríEico
lll
a los propósitos de la construcción de teorías); las entidades son observables o inobservables. Esto puede parecer trivial, pero separa la discusión en dos cuestiones. ¿Podemos dividir nuestro lenguaje en teórico y no-teórico? Por otro lado, ¿podemos clasificar los conceptos y acontecimientos en observables e inobservables? (Van Fraassen, l980:l4).
Resumiendo, podemos decir que actualmente hay unanimidad en no aceptar una división natural y absoluta de los términos científicos extralógicos en observacionales y teóricos, aunque las alternativas son distintas. Esto significa que no se ven los enunciados observacionales como la base sobre la que contrastar los enunciados teóricos. Por tanto, las diferencias en las alternativas están en función del enfoque en la justificación de las hipótesis teóricas.
4.
DE LO CUALITATIVO A LO CUANTITATIVO
Al principio de este capitulo hablábamos de los conceptos científicos como el primer nivel de sistematización del conocimiento científico. Sin embargo, dentro de este primer nivel de sistematización hay diferencias importantes según estos conceptos estén definidos a partir de propiedades cualitativas o cuantitativas. Estas diferencias están reflejadas en tres grandes grupos de conceptos científicos: clasificatorios, comparativos y métricos. Los clasificatorios son puramente cualitativos, los métricos son necesariamente cuantitativos y los comparativos pueden ser cualitativos y cuantitativos. A partir de un concepto métrico podemos hacer clasificaciones y establecer un orden, por ejem-
plo, la altura es un concepto métrico, pero también podemos clasificar una población dada en función de su altura y también podemos ordenar esta población. Sin embargo, puedo establecer una clasificación de las iglesias de Cataluña en función del estilo arquitectónico: románico, gótico, barroco, neoclásico, etc., pero no puedo establecer un orden entre ellas. Por tanto, si podemos metrificar un conjunto de entidades también podemos ordenarlas y clasificarlas, pero no sucede lo mismo en sentido inverso, es decir, el clasificar un conjunto de entidades no significa que necesariamente podamos ordenarlas y medirlas. La historia de la ciencia nos muestra que el paso de lo cualitativo a lo cuantitativo siempre ha supuesto un progreso epistemológico en la ciencia que ha dado este paso. Sin embargo, esta valoración positi-
112
iNriiooUccioN A LA i=iiJosoi=lA nE LA ciENciA
va de lo cuantitativo no implica que haya que desdeñar los conceptos clasificatorios y comparativos (o de orden) en campos en que su complejidad (momentánea o esencial) no puede ser captada mediante conceptos métricos.
4.l.
Conceptos clasificatorios
Los conceptos clasificatorios sirven para referirnos a un grupo determinado de objetos o sucesos que tienen algo en común. Ubican un objeto en una clase. En el lenguaje ordinario los sustantivos y los adjetivos pueden considerarse conceptos clasificatorios. Para definir un concepto podemos hacerlo por intensión, es decir, determinando las características semánticamente relevantes, o por extensión, determinando la clase de las cosas a las que este concepto se aplica. Si identificamos los conceptos clasificatorios con sus extensiones, entonces podemos determinar las condiciones formales de adecuación de una clasificación diciendo que la clasificación debe constituir una partición en el sentido matemático del término. Condiciones formales de adecuación: Sea A una clase cualquiera de objetos. B,, __., B,, (subconjuntos de A) constituyen una partición de A si y sólo si: l) Cada uno de estos conjuntos es un subconjunto no vacío de A,B, §AyB, ¢ øparacadai(l sia n). Dicho de otra forma, a cada concepto clasificatorio le correspon-
de al menos un individuo del ámbito o dominio. 2) No hay ningún elemento común a dos de estos conjuntos. B, F) B, = ø parai=j(l 5 i,j 2 n). Dicho de otra forma, ningún individuo puede caer bajo dos conceptos clasificatorios distintos. 3) Cada elemento de A está en alguno de estos conjuntos.
B, U B, U,
U B, = A.
Dicho de otra forma, todo individuo del ámbito en cuestión tiene que caer bajo alguno de los conceptos de la clasificación. En matemáticas, lógica y otras ciencias formales hay muchos conceptos clasificatorios (función continua y función discontinua, fórmula
EL LENGUAJE CIENTÍFICO
U3
bien formada y fórmula mal formada) y siempre se cumplen las °°¡f` diciones formales de adecuación. También la clasificación de los dlversos tipos de anáfora en lingüística (distinción entre pronombrfi PCT' sonales, reflexivos, etc.) cumple estas condiciones. Sin embargo, hay otras disciplinas que utilizan mucho los conceptos clasificatorios pero que no cumplen las condiciones formales .dc adecuación. En biología tenemos muchísimas: especie, mam¡f€f°› _"¡' secto, etc., pero normalmente no cumplen la condición 2 o la 3. O bien hay algún elemento común o difícil de adjudicar a alguna de ¡af Pan" ciones (por ejemplo, ¿una oruga es un insecto o no lo es?) 0 bl°“_ hay elementos que escapan al ámbito de las particiones (¿\1U Vifus está V“'°?' ¿pertenece al reino animal, al vegetal, al mineral. 3 °"°?)'lambién en ciencias sociales y en psicología encontramos numerosos conceptos clasificatorios, pero difícilmente cumplen estrictamente las condiciones de una partición en el sentido matemático. Por elfim' plo, clase social, personalidad extrovertida, sociedad agfflfìtfi _¢lC- E§t° no quiere decir que sea imposible introducir conceptos Cl8Slfl¢flï0"°5 en las ciencias sociales que respondan a las condiciones formales antes indicadas; de hecho, en sociología cuantitativa la introducción de conceptos taxonómicos (distancia y aproximación) en las variables da como resultado una división de los objetos del camD0 °S[“d“fd° que cumple los requisitos expuestos. Pero también en sociología exlste “na larga tradición que aboga por la construcción de tipol0g1'3$ QUÉ "° res' ponden a los principios de la lógica clásica y a la interpretación que de la partición hace la teoría de conjuntos. Frente a esta situación podemos tomar dos alternativas: una_c0nsiste en que consideremos las condiciones formales como criterio de
demarcación para saber qué clasificaciones podemos aceptar como cientificas, la otra consiste en tomar otro tipo de lóåìfïas Que “° 5°” la estándar de la teoría de conjuntos como aparato formal que dé wen' ta de las clasificaciones. No vamos a desarrollar aquí esta segunda P0sibilidad pero la teoria de conjuntos borrosos podría ser una línea de investigación de esta alternativa. Condiciones materiales de adecuación: _ Las condiciones materiales están en función de la fecundidad cientifica de los conceptos clasificatorios introducidos. Es decir, si_estaS clasificaciones están fundadas en leyes y teorías científicas» 0 Sl Uenen mayor poder explicativo y predictivo. Otro de los motivos por los que una clasificación puede aumfllïaf
1l4
iN'ritoDucc|óN A LA i=iLosoi=IA DE LA ciENc|A
su adecuación material es la introducción de «clasificaciones naturales» entendiendo «natural›› como Putnam (Putnam, 1983271) lo entiende al hablar de «palabras de tipo natural» («natural kind words››). Putnam las define como «nombres que representan cosas tales como substancias naturales, especies y magnitudes físicas» y la extensión de estos términos «no está determinada por un conjunto de criterios establecidos con anterioridad, sino que están determinados por el mundo». Haciendo la extrapolación a los conceptos clasificatorios podríamos decir que una clasificación tiene que ser lo más «natural» posible, entendiendo por ello que la clasificación no es`té designada arbitrariamente por nosotros sino que responda a lo fijado por el mundo y que implique un conjunto de leyes de la naturaleza. Las consideraciones sobre las condiciones materiales de adecuación valen también para los conceptos comparativos y para los conceptos métricos. De lo que se trata, en último término, es que sean pertinentes.
4.2.
Conceptos comparativos
En el lenguaje natural los conceptos clasificatorios corresponden al grado comparativo de los adjetivos «tan como», «más que», «menos que». Para introducir conceptos comparativos en un dominio de individuos hay que definir dos relaciones, una de coincidencia (C) y otra de precedencia (P), y cumplir unas condiciones formales determinadas. Sea un sistema comparativo (A, C P) donde A es el dominio de
objetos. Si suponemos que x, y, z 6 A, entonces las relaciones de coincidencia y de precedencia tienen las propiedades de reflexividad, simetría, transitividad y conectividad. I.
Reflexiva C V x Cxx 2. Simétrica C
V Xi' (Cxy -' CYX) 3. Transitiva C V xyz (Cxy /\ Cyz -t Cxz) 4. Transitiva P V xyz (Pxy A Pyz -r Pxz)
EL LENGUAJE ciEN'rti=ico
ll5
5. P es C-irreflexiva V xy (Cxy -f ¬ Pxy) 6. P es C-conexa V xy (Cxy V Pxy V Pyx) 7. Irreflexiva P V x (¬ Pxx) 8. Asimétrica P V xy (Pxy -> ¬ Pyx) Estos enunciados pueden resumirse del modo siguiente: C debe ser una relación de equivalencia. C y P deben excluirse mutuamente. Respecto a dos objetos cualesquiera, x, y 6 A, debe darse una de las siguientes posibilidades: C se da entre x e y, P se da entre x e y, P se da entre y y x. En la ciencia encontramos muchos conceptos comparativos. Seilalaremos algunos de ellos. En psicología, las enfermedades mentales como paranoia, esquizofrenia, etc., son conceptos comparativos que, en principio, no admiten una metrización posterior, al contrario de otros conceptos comparativos que si lo admiten, como el de dureza, que puede ser metrificado mediante la escala de dureza de Moss. ` En teoría de la música y de la pintura (artes que utilizan la ciencia) también tenemos conceptos comparativos que pueden ser metrificados a posteriori: agudo y grave de la teoría de la música tienen correlatos métricos en el concepto defrecuencia; lo mismo sucede en teoría de la pintura con conceptos como color, luminosidad, ete, que pueden ser explicados a partir de la óptica y de las teorías de la visión. En sociología tenemos numerosos ejemplos de conceptos comparativos, que no son metrificables. La categorización social (clase alta, clase media y clase baja), el nivel de estudios acabados (superiores, secundaria, primaria, sin estudios), nivel cultural (alto, medio, bajo), son ejemplos de este tipo. A veces se construye un índice para poderlos medir. Por ejemplo, se puede construir un indicador cultural a través del número de periódicos que una persona lee cada dia (o cada semana o cada mes).
116 4.3.
iN'rRoDUccióN A LA Fii.osoi=lA DE LA ciENciA Conceptos métricos
Los conceptos métricos, llamados también cuantitativos, o magnitudes, no tienen correspondencia en el lenguaje natural. Son una creación original de los lenguajes cientificos. Los conceptos métricos se introducen como funciones numéricas, asignando números reales o vectores a objetos o sucesos. Si se les asignan números reales se llaman magnitudes escalares y si asignan vectores, magnitudes vectoriales. Aquí vamos a limitarnos a las magnitudes escalares. Sea A el dominio y f una función del dominio a los números reales: F: A -› R A veces nos interesa metrizar un ámbito ya ordenado. Supongamos que tenemos (A, C P) entonces tendríamos: l. Si Cxy entonces f(x) = f(y) 2. Si Pxy entonces f(x) < f(y) bo que hemos hecho es establecer un homomorfismo entre el sistema empírico comparativo (A, C, P) y el numérico (R, =, < ). Esta representación entre un sistema empírico y uno numérico constituye la esencia del concepto métrico. Ya que hemos hablado de «homomorfismo›› vamos a definir «sistema homólogo››. Decimos que dos sistemas son homólogos si tienen el mismo número de relaciones y de funciones y si los números n-arios corresponden, es decir, si la primera relación de un sistema es binaria, también lo es la del otro. Como ejemplos de conceptos métricos tenemos los siguientes: peso, fuerza, cantidad de movimiento, coeficiente de inteligencia, grado de participación en unas elecciones, similitud entre el ADN de dos espe-
cies, número de hijos, edad, renta per cápita, etc. Los conceptos métricos tienen enormes ventajas sobre los comparativos y los clasificatorios. El vocabulario científico resulta mucho más simple, claro y manejable, y facilita la búsqueda de leyes científicas. Pero sobre todo, los conceptos métricos nos permiten aplicar a un campo de investigación toda el álgebra de los números reales. Por ejemplo, en sociología sin conceptos métricos no se puede obtener la media aritmética, no se pueden establecer correlaciones ni se puede realizar análisis multivariable. Los conceptos métricos constituyen un puente entre el mundo real y el mundo ideal de la matemática.
4. I.
LAS HIPÓTESIS CIENTÍFICAS LAS HDÓTESIS EN EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA
En términos generales podemos decir que una hipótesis es un enunciado que es susceptible de ser sometido a contrastación. Las hipótesis científicas serian aquellas que versan sobre los enunciados de la ciencia. Dentro de las hipótesis científicas habría que distinguir entre los enunciados que describen un hecho y los que expresan una ley.' Las hipótesis científicas tienen la estructura de un enunciado condicional: «Si se dan las condiciones de tipo C, entonces se producirá un acontecimiento de tipo E». En función de si es o no posible crear
a voluntad las condiciones C, las contrastaciones serán experimentales o no-experimentales. Por ejemplo, todas las investigaciones de laboratorio son contrastaciones experimentales, en cambio las investigaciones en astronomía no lo son porque las condiciones C no pueden ser provocadas o variadas por medios tecnológicos disponibles. También en las ciencias sociales la mayoría de las contrastaciones corresponden al tipo de contrastación no experimental.
En el análisis de las hipótesis científicas hay que distinguir dos etapas: la formulación de hipótesis y la contrastación de hipótesis.
En la etapa de la formulación se plantea la cuestión de cómo llegamos a las hipótesis adecuadas! Según la concepción inductivista estrecha de la investigación cientifica -así la denomina Hempel- las etapas de la investigación científica son las siguientes: (1) observación l. Aqui sólo vamosa tratar de las hipótesis científicas en general, no de los problemas especificos de las leyes, cuestión que vamos a tratar en un capítulo aparte. 2. Para el análisis de la etapa de formulación de hipótesis voy a seguir de cerca a Hempel (Hempel, 1977).
ll8
1N†Ro|:›ucc|oN A LA Frtosoru. DE LA cnaNc|›\
y registro de los hechos; (2) análisis y clasificación de éstos; (3) derivación inductiva de generalizaciones a partir de ellos; y (4) contrastación ulterior de las generalizaciones. Un ejemplo de esta concepción lo encontramos en A. B. Wolfe: Si intentamos imaginar cómo utilizaría el método científico
una
mente de poder y alcance sobrehumanos, pero normal en lo que se re~ fiere a los procesos lógicos de su pensamiento, el proceso sería el siguiente: en primer lugar, se observarian y registrarlan todos los hechos, sin seleccionarlos ni hacer conjeturas a priori acerca de su pertinencia. En segundo lugar, se analizarían, compararían y clasificarian esos hechos observados y registrados, sin más hipótesis ni postulados que los que necesariamente supone la lógica del pensamiento. En tercer lugar, a partir de este análisis de los hechos se harían generalizaciones inductivas referentes a las relaciones, clasificatorias o causales, entre ellos. En cuarto lugar, las investigaciones subsiguientes serían deductivas tanto
como inductivas, haciéndose inferencias a partir de generalizaciones previamente establecidas (Wolfe, l924:4S0). En primer lugar, Hempel no cree que la formulación de hipótesis se sitúa en la tercera fase de la investigación cientifica, después de la recogida de datos y del análisis de éstos ya que es imposible reunir todos los datos siendo como son infinitos en número y variedad. Una posible respuesta, por parte de Wolfe, podría ser que sólo se recogen los datos pertinentes, pero el problema es que para calificar un hecho de pertinente hay que especificar respecto a que' tiene esta característica, por tanto, «los “hechos” o hallazgos empíricos sólo se pueden calificar como lógicamente pertinentes o no pertinentes por referencia
a una hipótesis dada, y no por referencia a un problema dado» (Hempel, 1977229).
En segundo lugar -según Hempel- el proceso de análisis y clasificación delos datos es ciego si no se realiza a partir de una hipótesis, ya que no hay reglas por medio de las cuales se puedan derivar o inferir mecánicamente hipótesis a partir de datos empíricos, sino que el paso de los hechos empíricos a las hipótesis requiere imaginación y creatividad. Esta idea de Hempel parece chocar con la afirmación de Newton de que las hipótesis no se inventan (hypothesis nan fingo), y puede dar a entender que las hipótesis no están empiricamente fundadas. Sinembargo, la fundamentación está asegurada si llegamos a la etapa de la contrastación de hipótesis. Dice Hempel:
|..›.s 1-|n›ó'r|asls cieurlncns
119
La objetividad científica queda salvaguardada por el principio de que, en la ciencia, si bien las hipótesis y teorias pueden ser libremente investigadas y propuestas, sólo pueden ser aceptadas e incorporadas al corpus del conocimiento científico si resisten la revisión crítica, que comprende, en particular, la comprobación, mediante cuidadosa observación y experimentación, de las apropiadas implicaciones contrastadoras (Hempel, l977:34). Por tanto, podemos decir que la contrastación es lo que, en último término, va a decidir qué hipótesis podemos aceptar. Sin embargo, hay una serie de requisitos que las hipótesis tienen que cumplir antes de someterlas a contrastación. Las hipótesis tienen que ser adecuadas, es decir, no contradictorias con la evidencia ya obtenida; consistentes, se refiere sobre todo a las hipótesis complejas en las que no puede haber contradicción entre las partes que constituyen dichas hipótesis; compatibles con otros datos científicos; y comprobables, lo cual significa que deben tener alcance empírico.
EJnM|›Lr|=rcAclóN DE r-ln=ó'rEsls QUE No CUMPLEN Es'rAs counicromzs
Hipótesis no adecuadas Lingüística. Suponer que a la hora de caracterizar sintácticamente una frase sólo importan las palabras realmente emitidas o escritas. Es inadecuada, ya que existen elementos sin representación fónica o escrita que tienen importancia sintáctica;
por ejemplo, los sujetos elípticos. Geologia. Suponer (como de hecho hacen los creacionistas) que la Tierra sólo tiene 6.000 años de antigüedad, pues es incompatible con una cantidad enorme de evidencias: el registro fósil, las evidencias geológicas de procesos de erosión que requieren cientos de millones de años, la existencia de diversos procesos de desintegración nuclear, etc.
Hipótesis no consistentes Matemáticas. Suponer que un número par superior a dos es primo. Es inconsistente pues se contradice con la definición de primo: número que sólo es divisible por si mismo y por la
120
INTRODUCCION A LA r=rr.osoFi›\ DE LA CIENCIA
unidad. Evidentemente, un número par siempre será divisible por 2. Informática. La hipótesis de que cierto código generado por un programa de ordenador puede ser genuinamente aleatorio. Es contradictorio, pues, según la definición de aleatoriedad de Cherniak, una secuencia es aleatoria si y sólo si no puede ser generada por ningún algoritmo más pequeño que la propia secuencia.
Hipótesis no comprobables Zoología. La afirmación de que existe un tipo de virus menor que la longitud de onda asociada a cualquier partícula elemental y que además no interactúa para nada con porciones de materia más grandes que ellos. Tal hipótesis no puede ser contrastada de forma directa (escapa a la observación del mejor microscopio electrónico posible) o indirecta (tampoco puede observarse su influencia sobre el medio ya que sólo interaccionan con materia inobservable), por tanto, es una hipótesis no comprobable. Física y/o astronomía. Existen universos paralelos al nuestro, con los cuales es totalmente imposible cualquier tipo de interacción (dicho sea de paso, esto no es un ejemplo estúpido para mostrar una idea, diversos físicos entusiastas de versiones «heterodoxas» de la mecánica cuántica lo mantienen). Evidentemente, es una hipótesis lógicamente incomprobable.
2. Los Exrenmerrros como esse PARA LA coN'mAs'rAc1óN DE ms Hmóresrs Entendemos por contrastación de una hipótesis todo proceso que nos lleve a obtener la información necesaria para justificar o rechazar esta hipótesis. Al realizar un test para contrastar una hipótesis hay que tener en cuenta tanto el experimento en sí como el resultado del experimento. Con estos datos podemos construir el argumento para justificar o rechazar la hipótesis? 3. Para la contrastación de hipótesis voy a seguir de cerca a Giere (Giere, 1992).
LAS r-rrPórresrs crEN'rlF1cAs
121
Los experimentos los entendemos en sentido amplio, es decir, no solamente los realizados en el laboratorio sino cualquier prueba destinada a comprobar si se cumple la hipótesis: puede ser desde una reacción química a una encuesta sociológica. En el argumento para justificar una hipótesis intervienen dos condiciones que Giere llama «requisitos para la contrastación de hipótesis». Para enunciar estos requisitos necesitamos introducir los conceptos siguientes: a) La predicción (P). La predicción es lo que se espera que ocurra en una contrastación experimental, es decir, es el resultado del experimento. La predicción describe siempre, o bien la ocurrencia de un estado posible del sistema que se investiga, o bien ciertas propiedades o relaciones posibles de los objetos que se investigan. b) Las condiciones iniciales (Cl). Las condiciones iniciales describen el estado del sistema o de las propiedades y relaciones de los objetos al comienzo del experimento. c) Los supuestos auxiliares (SA). A veces se les denomina hipótesis auxiliares. Son aquellos supuestos adicionales sobre el sistema que se estudia. Estos supuestos tienen la misión de simplificar la contrastación de una hipótesis y, en cualquier caso, no hay ninguna contrastación en que, implícita o explícitamente, no tengamos en cuenta algunos supuestos auxiliares; de lo contrario, cada vez tendríamos que revisar todo el conocimiento objetivo anterior. Tenemos ahora todos los instrumentos conceptuales necesarios para enunciar las condiciones de contrastación. La primera condición exi-
ge que la predicción sea consecuencia del conjunto de la hipótesis, de las condiciones iniciales y de los supuestos auxiliares. La segunda condición afirma que si la hipótesis es falsa y se dan las condiciones iniciales y los supuestos auxiliares, la predicción será, muy probablemente, falsa. Podemos expresarlas de la forma siguiente: Condición l: Si (H y CI y SA) entonces P Condición 2: Si (no-H y CI y SA) entonces, muy probablemente, no-P A partir de estas dos condiciones, podemos precisar los argumentos que serán la base para la justificación y la refutación de la hipótesis.
122
mrrzopuccron A Lx Frtosortx De LA cnaucrx
Si una contrastación experimental cumple estas condiciones y el resultado del experimento muestra que la predicción es verdadera será posible entonces formular una argumentación inductiva en favor de la hipótesis. La forma general del argumento es el siguiente: (l) Si (no-H y CI y SA) entonces, muy probablemente, noP......(Condición 2) (2) P.................... ..(Resultado del experimento) (3) Muy probablemente no-(no-H y Cl y SA).....(Modus Tollens aplicado a (1) y (2)) (4) Muy probablemente H o no-Cl o no-SA ........ ..(I_eyes de Morgan aplicadas a (3)) (5) Cl y SA .................. ..(Premisa. Se parte de esta premisa porque se supone que hemos realizado correctamente este experimento y que aceptamos el conjunto de conocimiento sistematizado que existe en el momento de realizar el experimento) (6) Muy probablemente H.........(Eliminación del disyuntor aplicado a (4) y (5)). Por tanto, las hipótesis científicas en estos argumentos son la conclusión de un argumento inductivo, lo que hace que su verdad sea sólo probable. Si el experimento está pensado para refutar una hipótesis, tendremos que tener en cuenta la condición 1. La estructura del argumento será la siguiente: (1) Si (H y Cl y SA) entonces P....(Condición l) (2) No-P. .............. ..(Resultado del experimento)
(3) No-(H y CI y SA)..(Modus 'Ibllens aplicado a (1) y (2)) (4) No-I-I o no-CI o no-SA.(I.eyes de Morgan aplicadas a (3)) (5) CI y SA.....(Premisas. Las suponemos por las mismas razones que en el argumento de la justificación) (6) No-H...((Eliminación del disyuntor aplicado a (4) y (5)). Este es un argumento deductivo, por tanto la hipótesis es necesariamente falsa. Como puede verse, para refutar una hipótesis es suficiente que se cumpla la condición l y que la predicción sea falsa. Sin embargo, para justificar una hipótesis, aunque se cumpla la predicción, sólo pode-
Lxs r-nroresrs crenrrrrcxs
123
mos estar seguros de la hipótesis hasta cierto punto. La clave está en que, mientras que para la justificación tenemos un argumento inductivo, para la refutación tenemos un argumento deductivo.
EIEMPLH-'rcxcióu DE courrutsrxcrón DE UNA r-rtrórrasrs Hipótesis. El universo se halla en expansión. ¿Qué predicciones se siguen de esta hipótesis? Veamos cuál sería el proceso deductivo mínimo para obtener alguna posible predicción. Si el universo está en expansión las galaxias han de alejarse las unas de las otras. En concreto, parecería como si todas las galaxias se alejaran de nosotros. Cuanto más lejos estuviera una galaxia, a mayor velocidad se alejaría. Además, según diversas teorías de la física ya aceptadas, conocemos la realidad del efecto Doppler, por el que las ondas electromagnéticas de un objeto en movimiento tienden a presentar un desplazamiento en su espectro; hacia el rojo si el objeto se aleja de nosotros y hacia el azul si se acerca. A mayor velocidad, mayor es el desplazamiento en el espectro. Predicción. La luz de las galaxias observable ha de presentar un corrimiento hacia el rojo en su espectro, que será mayor cuanto más lejos esté la galaxia de nosotros. Condiciones iniciales. l) El hecho de que podemos observar diversas radiaciones electromagnéticas (luz visible, infrarroja, rayos ultravioleta, etc.) procedentes de diversas galaxias; 2)
la distancia a la que se encuentran las galaxias cercanas a nosotros (obtenidas por medio del paralaje). Supuestos auxiliares. En concreto podemos mencionar uno: que la luz, por el hecho de viajar a grandes distancias no sufre un corrimiento hacia el rojo en su espectro. Por lo que sabemos parece un supuesto verosímil pero nunca ha sido confirmado.
La hipótesis fue contrastada con éxito, observándose efectivamente un corrimiento hacia el rojo en la luz proveniente de las galaxias, que se ajustaba a la predicha por el efecto Doppler.
124
rN'rRooucc|oN A LA r=rr.osoFtA DE LA c|raNc|A
Experimentos cruciales En el caso de que tengamos dos hipótesis en competencia, relativas al mismo fenómeno, y que, hasta el momento, han superado con el mismo éxito las contrastaciones empíricas, de tal forma que los datos disponibles favorecen igualmente a las dos hipótesis, lo más apropiado es someter a las hipótesis en competencia a un experimento crucial. Este tipo de experimento consiste en programar una contrastación respecto a las hipótesis en conflicto que predigan resultados distintos. Es decir, si la Hl es aceptable el resultado del experimento será R1 y si es aceptable H2 el resultado será R2, donde RI y R2 se excluyen mutuamente. La realización de este experimento refutará una de las hipótesis y ratificará la otra. No cabe duda de que este es el mejor tipo de experimentos para dirimir la cuestión entre dos hipótesis en conflicto; el problema está en que no siempre es posible diseñar un experimento en que puedan acota.rse los resultados y establecer las condiciones de contrastación requeridas.
EJEMPLIFICACIÓN DE EXPERIMENTOS CRUCIALES
El experimento de Michelson-Morley. Michelson y Morley intentaron medir el movimiento de la Tierra a la velocidad de las ondas electromagnéticas en relación al éter en el cual se movían las ondas electromagnéticas, observando la diferencia de velocidades entre dos rayos, uno que seguía el movimiento de
la Tierra y otro que no. El resultado fue que los rayos se movían a la misma velocidad, que el éter no existía y que había algo radicalmente erróneo en la electrodinámica clásica. El experimento de Rutheford sobre la estructura atómica. Al bombardear una delgada lámina de oro con partículas alfa y al observar que algunas traspasaban limpiamente la placa mientras que otras rebotaban se mostró claramente que la estructura atómica no era (como pensaban algunos) como la de una esfera compacta de protones y electrones unidos sino que el átomo estaba en buena parte «vacío››. Este experimento permitió la generación del modelo atómico de Rutheford como un sistema solar en miniatura.
LAs r-urórrcsrs cr|sN'rtFrcAs
125
El experimento de Pasteur sobre la generación espontánea. La orina contenida en un matraz no entraba en ningún proceso de fermentación ni se generaba en él materia orgánica si era puesto en ebullición y después mantenido aislado del aire. En el momento en que se permitía pasar aire por él, se producía toda una serie de procesos biológicos como los indicados anteriormente. Ello indicaba que ni la vida ni los procesos de fermentación, putrefacción, etc., se generaban espontáneamente, sino que se necesitaba la participación de seres vivos (en este caso microorganismos presentes en el aire) para ello.
Credibilidad de las hipótesis Aunque no podemos tener certeza absoluta en la justificación, sí podemos indicar una serie de factores que hacen aumentar la credibilidad de las hipótesis. La credibilidad aumenta: con el número de casos favorables aunque el incremento de credibilidad será menor a medida que aumente el número de casos favorables; con la variedad y diversidad de casos; con nuevas implicaciones contrastadoras; con apoyo teórico en el sentido de que existan hipótesis y teorias más amplias que impliquen las hipótesis que estamos contrastando. Todos estos factores hay que tenerlos en cuenta a la hora de contrastar una hipótesis, pero no es posible cuantificar la credibilidad (Hempel, 1977). En cuanto a las preferencias respecto a dos hipótesis, ambas justificadas en el sentido antes indicado, se preferirá la más simple. Un
ejemplo claro de aplicación del principio de simplicidad es la aceptación del sistema heliocéntrico de Copérnico frente al egocéntrico de Ptolomeo. Sin embargo, los criterios de simplicidad no son tan evidentes. En primer lugar porque no es fácil establecer los criterios de simplicidad. En segundo lugar, porque no hay fundamento empírico para la preferencia de la simplicidad frente a la complejidad (Hempel, 1977).
126
rN^raoDuccróN A LA FrLos0FlA DE LA cnaNcrA
EIEMPLIPICACIÓN DE FACTORES QUE AUMENTAN LA CREDLBILIDAD
Hipótesis de Darwin. Consideremos la hipótesis de Darwin de que la evolución de las especies es resultado de la selección natural. Veamos ejemplos de diversos hechos que aumentan su credibilidad: 1) Casos favorables. Los diversos ejemplos que Darwin observó en su viaje alrededor del mundo como naturalista en el Beagle actuaron como casos favorables que permitieron al propio Darwin idear y, más tarde, contrastar su hipótesis al ir aumentando progresivamente su credibilidad: así, la comparación entre los diversos pinzones de las islas Galápagos, cada uno adaptado a su propio hábitat; el hallazgo de fósiles en Suramérica con características parecidas a animales actuales de la misma zona, pero observando ciertas variaciones debidas a los diferentes ambientes, etc., fueron ejemplos que convencieron a Darwin de que su hipótesis tenía cierta credibilidad. 2) Variedad y diversidad de casos. Por un lado, la teoría se podía aplicar tanto a los diversos animales de las Galápagos como a los observados en Suramérica y Oceanía. Por otro, Darwin se percató de que su teoría podía explicar, por ejemplo, la selección artificial, tanto de los palomos como de los granos de trigo; ya que dos hechos aparentemente muy diferentes como son el pico grueso -apto para comer semillas- de un pinzón de las Galápagos y que los granos de trigo para cultivar fueran mucho más grandes y nutritivos que los de trigo silvestre, pueden
ser explicados con la misma hipótesis. 3) Nuevas hipótesis contrastadoras. Consideremos un cultivo de determinadas bacterias. Ataquemos el cultivo con un antibiótico. Según la teoría de la evolución por selección natural, las bacterias no adaptadas al medio sucumbirán y desaparecerán; por el contrario, si existe algún tipo de bacterias resistente al antibiótico, éstas no sólo sobrevivirán sino que se reproducirán mucho más que las otras y acabarán copando todo el «hábitat». Se trata de un experimento muy fácil de hacer y los resultados, efectivamente, se corresponden con lo predicho por la hipótesis. 4) Apoyo teórico. La genética mendeliana y, más tarde, la
LAs Hrrórrssrs cr|1N'rí|=|cAs
127
genética molecular representaron un apoyo enorme a la teoría de Darwin, ya que permitían explicar desde un grado de generalidad mucho más amplio una suposición básica de la teoría, sin la cual no podía funcionar, a saber: que los descendientes de una especie tienden a ser muy similares a sus progenitores, pero normalmente siempre se dan algunas pequeñas diferencias. Éste es el motor de la selección y el hecho de poder explicarlo representó un aumento enorme de la credibilidad de la teoría de Darwin.
Falacias Asi como hay factores que aumentan la credibilidad de la hipótesis y criterios de elección de hipótesis, hay criterios para desechar las hipótesis antes de pasar a su contrastación. Presentar una hipótesis absolutamente inmune a cualquier contrastación empírica sería motivo suficiente para no aceptarla. El ejemplo más paradigmático es seguramente la interpretación de los sueños de Freud, para quien todos los sueños son, en el fondo, manifestaciones subconscientes de deseos reprimidos. Tampoco la máxima «la heterodoxia de hoy es la ortodoxia del mañana» puede tomarse como premisa a partir de la cual justificar la existencia de los OVNIS, la reencarnación, la brujería, etc. Hay también lo que podriamos llamar falacias de la justificación y se refieren a los argumentos, diseñados para la justificación o la refutación, que no son válidos por algún defecto en alguna de las premisas. Veamos algunas de las falacias más comunes. Predicciones vagas.
Predicciones ambiguas, poco precisas, que no
especifican exactamente el estado del sistema después del experimento. Por ejemplo, las predicciones de los oráculos o de las bolas de cristal. Predicciones múltiples. Este tipo de predicciones tienen la estructura formal de una disyunción. Sabemos que para que una disyunción sea verdadera basta con que lo sea uno de los miembros de la disyunción; por tanto, siempre podemos añadir nuevos elementos a la disyunción y la hipótesis siempre será verdadera. Por ejemplo, los que predicen el futuro utilizan mucho este truco: hacen muchas predicciones y, por supuesto, siempre hay alguna que aciertan, con lo cual es cierto que adivinan el futuro.
128
|N†nor›ucc1oN A LA Fn.›osoFiA DE LA cmuci».
Falacia del «cajón de sastre» (Patchwork quílt). Formular una hipótesis que, si fuera cierta, explicaría una serie de fenómenos aislados. Por ejemplo, Erich von Dàniken en Charíots of the Gods dice que si los extraterrestres existieran, explicarían muchas de las construcciones antiguas encontradas en Egipto y Perú. Hipótesis ad hoc. Hipótesis adicionales que se formulan cuando falla la predicción. Por ejemplo, ¿por qué no aparecen los extraterrestres?, porque son tímidos. Justificación por eliminación. Si tenemos una hipótesis que es una disyunción, Hl, H2, H3, esta falacia consiste en decir que Hl tiene que ser verdadera porque H2 y H3 son falsas. No se tiene en cuenta que las tres pueden ser falsas. Por ejemplo, supongamos las tres hipótesis siguientes: HI) la enfermedad que aqueja a la población X se debe a que duermen pocas horas; H2) dicha enfermedad se debe a que tienen demasiadas relaciones sexuales; H3) dicha enfermedad se debe a que viven en casas construidas con paja. Supongamos que se demuestra que H2 y H3 son falsas e inmediatamente se infiere que Hl es verdadera. Sin embargo, podría ser el caso de que la causa de la enfermedad fuera el hecho de que dicha población bebiera agua no potable. Estas son algunas de las falacias que pueden ser motivo de argumentos no válidos y, por tanto, las hipótesis no quedarían justificadas. Habría que tener en cuenta también todas las falacias formales (tales como la afirmación del consecuente y la negación del antecedente) e informales (tales como las ad hominem, ad baculum, ad misericordiam, etc.) de las que dan cuenta los libros de lógica formal. Sin embargo, hay que señalar que las falacias informales son poco significativas en el contexto de la formulación y contrastación de las hipótesis científicas ya que, normalmente, este tipo de falacias son razonamientos erróneos muy generales y fácilmente detectables que nunca han aparecido en una discusión científica. Es impensable una discusión cìentífica histórica donde se haya utilizado un ad hominem contra Einstein por ser judio. Quizás se han dado situaciones remotamente parecidas a éstas por cuestiones sociológicas, pero esto es una cuestión aparte que nada tiene que ver con la justificación de las hipótesis científicas.
LAS 1-|n>úr|as|s c|EN'rI|=1cAs 3.
129
Srs1'rzMAsrzs'rocÁs'rrcos
En todo lo dicho hasta ahora acerca de las hipótesis se da por supuesto que estamos en un sistema determinista. Sin embargo, muchas ciencias, desde la biología hasta la sociología expresan sus resultados por medio de enunciados estadísticos, con lo cual las hipótesis con las que trabajan estas ciencias pertenecen a sistemas estocásticos y no deterministas. Se entiende por sistema un conjunto de individuos y objetos y las relaciones entre ellos. Un sistema es determinista si el conocimiento de su estado en un momento dado implica necesariamente el conocimiento de su estado en cualquier otro tiempo; un sistema es estocástico si el conocimiento de su estado en un tiempo dado implica sólo el conocimiento de la probabilidad de varios estados posibles en cualquier tiempo futuro.” Las hipótesis que encontramos en los sistemas estocásticos son enunciados estadísticosf Una hipótesis estadística consta de tres elementos: una población de referencia, un atributo que es la variable estadística con sus valores y la cantidad en porcentajes de los valores de esta variable. La forma estándar de estas hipótesis es: X por ciento de (dicha población) tiene tal valor de (dicho atributo) Una variable es un atributo (concepto operativo) que puede tomar dos o más valores, clasificando una población en grupos. Por ejemplo, la variable «sexo›› toma dos valores: hombre y mujer; la variable «color de los ojos», cuatro valores: negro, marrón, verde y azul. Los valores de una variable se fijan al comienzo de una investigación, pero hay que señalar que los valores de las variables serán más o menos determinados en función de que el campo de investigación esté más o menos desarrollado, y dichos valores serán más o menos precisos en función de la capacidad de dicho campo para ser metrificable. Por ejemplo, no es lo mismo fijar los valores de la variable «color de los ojos» que de la variable «clase social». Según la teoría marxista 4. Aquí no vamos a entrar en la complejidad del concepto de determinismo, ya que en el capítulo sobre leyes (capítulo 5) analizaremos este tema. S. Para los argumentos para contrastar hipótesis estocásticas voy a seguir de cerca a Giere (Giere, 1992).
130
INTRODUCCION A LA Fu.osor=t/\ DE LA CIENCIA
clásica esta variable adquiriría dos valores: burguesía y proletariado, pero incluso para un analista marxista actual, estas categorías se han quedado obsoletas para dividir una sociedad occidental actual en grupos más o menos homogéneos. Hay otros casos de variables en que la elección de los valores que pueden tomar son absolutamente convencionales -lo cual no quiere decir arbitrarias-, es decir, dependen del investigador. Por ejemplo, las variables «altura››, «peso››, «fumar›› o «beber café» pueden tomar un número diferente de valores según nos interese. Una distribución de una variable estadística es el conjunto de frecuencias que toman los distintos valores de la variable. Las distribuciones suelen expresarse por medio de diagramas. Si se parte de la variable «fumar» entre una población dada y se consideran cuatro valores: no fumar, fumar de 1 a IO cigarrillos, fumar de ll a 25 cigarrillos y fumar más de 25 cigarrillos al dia, la distribución vendría dada por el número (el cero por uno o el tanto por ciento) de los que fuman en cada uno de los intervalos.
4.
HIPÓTESIS ESTADÍSTICAS SIMPLES Y CORRELACIONES
Las hipótesis estadisticas simples son las que tienen en cuenta una sola variable y, por tanto, constan de una sola proposición. Ejemplos de hipótesis estadísticas simples son los siguientes: «el 4l "lo de los universitarios españoles varones fuma cigarrillos», «una de cada 20 personas que viven y trabajan en Barcelona es alcohólica», «el 10 "70 de la población mundial del año 2000 serán minusválidos», «aproximadamente el 40 % de las mujeres españolas adultas trabaja remuneradamente». Aunque nadie pone en duda que las hipótesis estadísticas
simples proporcionan información, las correlaciones son mucho más fructíferas desde el punto de vista explicativo. Las correlaciones nos dicen que dos o más variables están relacionadas, es decir, que la aparición de una propiedad va ligada a la aparición de otra. Aquí nos limitaremos a considerar la correlación entre dos variables que toman, cada una de ellas, dos valores. Sin embargo, hay que señalar que en el proceso de investigación se toman muchas variables en juego, para lo cual hay que recurrir al análisis multivariable, Ejemplos de correlaciones con dos variables son los siguientes: el peso y la altura, el fumar y el pertenecer al sexo masculino, el ser pelirrojo y pecoso, etc.
LAS 1-nrúrlasis cnaN'rIr=1cAs
131
La correlación puede ser positiva o negativa y, en el caso de que no sea ninguna de las dos, decimos que no existe correlación o bien que la correlación es neutra o irrelevante. Al hablar de formas de correlación hay que señalar que no tiene sentido adscribir correlación a las variables en sí mismas, sino que es a partir de valores de las variables y de la distribución de las concurrencias de los fenómenos que se puede hablar de correlaciones. Supongamos una población cualquiera en la que definimos dos variables o propiedades X e Y. En cada una de ellas establecemos dos valores. uno la posesión de esta propiedad y otra su ausencia: X(›ç X) y Y(y, 5'). Cada una de las propiedades divide a la población en dos grupos: el que exhibe la propiedad y el que no la exhibe. Ahora podemos distinguir entre correlación positiva, negativa y neutra, que definiremos en los términos siguientes: X está positivamente (negativamente) relacionada con Y en una población dada si y sólo si el porcentaje de los que tienen la propiedad X entre los que tienen la propiedad Y es mayor (menor) que el porcentaje de los que tienen la propiedad X entre los que no tienen la propiedad Y. X no esta' relacionada con Y en una población dada si y sólo si los porcentajes de los que son X entre los que son Y son los mismos que los porcentajes de X entre los que no son Y Vamos a ilustrar estos conceptos con el siguiente ejemplo: supongamos que el 37 °7o de los varones adultos chinos fuman opio, mientras que entre las mujeres adultas chinas sólo lo hace el 28 %. En este caso diremos que la variable «fumar opio» está en correlación con la variable «sexo›› en adultos chinos, ya que el porcentaje entre ser un
fumador de opio hombre entre los hombres es diferente del porcentaje de fumadores de opio mujeres entre las mujeres. Que la correlación sea positiva o negativa depende de la elección del sentido al tomar como origen de referencia el hombre o la mujer. En el caso de que tengamos una correlación positiva (o negativa) ésta puede tener más o menos fuerza o intensidad. Decimos que la fuerza o intensidad de la correlación entre X e Y es proporcional a la diferencia entre el porcentaje de los que son fumadores de opio hombres entre los hombres y el porcentaje de los que son fumadores de opio mujeres entre las mujeres. Por ejemplo, en 1930, supongamos que el tanto por ciento de mujeres
132
INTRODUCCION A LA E1Los0FIA DE LA crENc1A
fumadoras de opio era muy inferior al de 1992, mientras que el porcentaje de hombres debía ser parecido, por tanto, podemos decir que la intensidad de la correlación era mayor en 1930 que en 1992. Ahora nos podemos preguntar cuándo una correlación es una hipótesis causal. A pesar de algunas similitudes entre correlaciones e hipótesis causales, hay diferencias importantes. En primer lugar, mientras la relación entre variables correlacionadas es simétrica, la relación causal no lo es. En segundo lugar, decir que fumar es un factor causal positivo del cáncer de pulmón significa no sólo que hay más cáncer de pulmón entre los fumadores que entre los no fumadores en la población existente, sino también que si hubiera una población en que todos fumaran y otra en que nadie lo hiciera, la proporción de enfermos de cáncer en la primera sería mayor que en la segunda. Es decir, los factores causales fundamentan los contrafácticos estadísticos. Finalmente, las exigencias para justificar una hipótesis causal son mayores que para justificar una correlación. Es decir, las hipótesis causales tienen más poder explicativo que las correlaciones. No nos podemos detener ahora en analizar en qué consiste el poder explicativo, ya que el capitulo séptimo está dedicado a la explicación científica.
5.
CoN'rRAsrAc1óN DE LAs 1-rn›ó'rEsrs Es'rADis'rrcAs
Tal como hemos ya indicado, una hipótesis estadística tiene la forma siguiente: «el X °7o de la población P tiene la propiedad A». Para justificar una hipótesis de este tipo no comprobamos habitualmente si esto se cumple en la población real total sino si se cumple en una
muestra de esta población seleccionada al azar. El proceso es el siguiente: tenemos una muestra S, de tamaño n que ha sido seleccionada aleatoriamente de una población P. La frecuencia con la que la muestra S exhibe la propiedad A es f(A), por tanto, concluimos que el porcentaje de individuos que poseen la propiedad A en P es f(A). Pero, en primer lugar, este argumento es inductivo, en segundo lugar, el porcentaje de individuos con la propiedad A en P no es necesariamente exactamente f(A). La probabilidad de que el porcentaje de individuos con la propiedad A en P sea exactamente f(A) es prácticamente nula pero la probabilidad de que dicho porcentaje esté próximo a f(A) es muy alta. Al porcentaje de la muestra que exhibe la propiedad A lo llama-
LAs 1-m›ó'rEs1s c1EN'ríE|cAs
133
mos frecuencia relativa observada. Dicha frecuencia se toma como frecuencia estimada (FE) en la población total. Como ya hemos indicado, la f(A) (frecuencia observada) con la que estimamos la probabilidad de P, no coincide exactamente con Pr(P). El valor observado es, salvo error medible, una buena estimación de la Pr(P) y el valor esperado de f(A) coincide con Pr(P). Para distribuciones probabilísticas la diferencia entre Pr(P) y el valor con que se estima, o sea la frecuencia observada, depende de la desviación, siendo la unidad para medir dicha desviación la desviación estándar (DE). Una desviación estándar equivale al 67 °7o de la muestra, dos DE equivalen al 95 °7o de la muestra y tres DE al 99 °7o de la muestra. Cuanto mayor sea la muestra, las frecuencias observadas en este conjunto se acercan cada vez más a la frecuencia esperada, es decir a la Pr(P). Veamos otros conceptos relacionados con la justificación de las hipótesis estadísticas: Estimación es el proceso mediante el cual se sacan unas conclusiones para la población real a partir de unas premisas que reflejan la frecuencia de la muestra. Margen de error (ME) es lo que hay que sumar y restar a f(A) para obtener el intervalo entre el que se encuentra Pr(P) en la población real. El ME depende del tamaño de la muestra y es menor cuanto mayor sea la muestra. Intervalo de estimación (IE) es la distancia entre f(A) _ ME y f(A) + ME. Nivel de confianza (NC) es la probabilidad que corresponde a que el valor verdadero esté en el IE. A mayor nivel de confianza mayor
IE pero, para un NC dado, el IE depende del tamaño de la muestra. Muchas inferencias de la muestra a la población se hacen en términos de intervalos estimativos. Este tipo de metodología es ampliamente utilizada en biología, psicologia y ciencias sociales. Para poner a prueba una hipótesis miramos la frecuencia en la muestra y comprobamos si está dentro del intervalo adecuado. Para saber si el intervalo es correcto necesitamos saber si es estadristicamente significativo (ES), lo cual nos viene dado en función de las desviaciones, es decir, para dos DE que cogen el 95 070 (NC) de la muestra, lo ES sería el 5 %. Por tanto, «ES al nivel 5 070» significa que la frecuencia observada en la muestra difiere en más de dos DE de la frecuencia esperada. Hay
134
mrnobucciom A LA Fnoso|=tA DE LA c|ENc|A
que señalar que para decir lo que es ES es necesario mencionar el tamaño de la muestra y cuántas DE (una, dos o tres) tenemos en cuenta, aunque si no se dice lo contrario, se suele entender que cogemos dos DE. Ahora tenemos todos los conceptos para construir los argumentos para probar hipótesis estadísticas. Al igual que en el caso de los sistemas deterministas, también para probar hipótesis de los sistemas estocásticos vamos a introducir dos condiciones: Condición 1: Si (H y CI) entonces, con Pr=95 07o, f no es ES(.O5) Condición 2: Si (no-H y CI) entonces (Pr=95 °7o) f es ES(.05) Para refutar la hipótesis tendríamos el siguiente argumento: (1) H y CI -› (Pr=95 070) f no es ES(5 °7o) Condición 1 (2) f es ES(5 "7o) resultado del experimento (3) no(H y CI) Modus Tollens (1) y (2) (4) no-H o no-Cl Leyes de Morgan (3) (5) CI Premisa (6) no-H Eliminación del disyuntor (4) y (5) Para aceptar la hipótesis lo que intentamos probar es el intervalo en el que se encuentra la hipótesis. Por ello, cuando se habla de justificar las hipótesis estadísticas, se dice que lo que tratamos de probar es la hipótesis difusa o intervalo en el que se encuentra la hipótesis. Cuanto más grande sea la muestra, mayor será el número de frecuencias posibles que pueden ser ES. El contenido de la HD depende del tamaño de la muestra; cuanto mayor sea ésta, menor será la proporción de la población incluida en ella. El argumento para probar la HD sería el siguiente: (I) (2) (3) (4) (5) (6)
Si no-HD y Cl -> f no es ES(.05) no (no-HD y CI) HD o no CI Cl HD
(Pr=95 %) f es ES(5 Wo) Condición 2 resultado del experimento Modus Tollens (1) y (2) Leyes de Morgan (3) Premisa Eliminación del disyuntor (3) y (4)
También en este caso se reproduce la asimetría entre la refutación y la aceptación de las hipótesis, ya que mientras en la primera tenemos una inferencia deductiva, en la segunda la tenemos inductiva.
LAs r-nPorEs1s CIENTIFICAS 6.
135
CoN1'iLAs'rAcróN DE co1u1ELAc1oNEs
La contrastación de correlaciones puede llevarse a cabo de dos formas. Una consiste en contrastar las hipótesis cuya conjunción forma la correlación. Para ello hay que construir los intervalos estimativos para cada una de las hipótesis. Si los intervalos no se solapan, la hipótesis correlacional está justificada; si se solapan no lo está. Lafuerza de la correlación será un intervalo de valores, resultado de los intervalos de las hipótesis estadísticas. Para fijar el intervalo, por un lado, tomaremos la diferencia entre los dos extremos más bajos y, por otro, la diferencia entre los extremos más altos.
EJEM1>Lr1=rcAcròN DE LA coN'rxAs1'AcióN DE coRRELAcroNEs Vamos a poner un ejemplo que ilustre los conceptos que hemos introducido. Supongamos que queremos poner a prueba la hipótesis de que las mujeres no están discriminadas a la hora de pasar la selectividad. Si esta hipótesis es aceptada quiere decir que la probabilidad de ser mujer, entre todos los que se presentan a la selectividad, es igual a la probabilidad de ser mujer y pasar la selectividad entre todos los que pasan la selectividad. Suponemos que la proporción de las mujeres que se presentan a la selectividad es del S0 %. Cogemos una muestra de 100 individuos que han pasado la selectividad y comprobamos que 38 son mujeres. Resumamos
los datos: n = 100
ME = 10 "70
f(M) = 38 °7o
El intervalo de confianza está entre las cantidades obtenidas al sumar y restar el margen de error a la frecuencia observada. Entonces tenemos: f(M) - ME = 28 °7u;
f(M) + ME = 52 070.
O sea: 28 "70 < Probabilidad real < 48 °7o. La hipótesis es falsa ya que a pesar de que el ME es muy alto el intervalo de confianza no incluye el 50 %.
136
n~mzoDucc|óN A LA Fn.osorIA DE LA c1ENc1A
Ahora supongamos que f(M) = 42 °7o, manteniendo todos los demás datos iguales. El intervalo estimativo estará entre 32 y 52 ya que: f(M) _ ME = 32 070; f(M) + ME = 52 070. Este intervalo incluye el 50 °7o, por tanto, no hay correlación. Respecto a la significación estadistica, cuando f`(M)= 38 %, entonces f` es ES(.05), por tanto rechazamos la hipótesis, en cam-
bio cuando f(M)=42 "7o, f no es ES(.05), por tanto aceptamos la hipótesis. Supongamos que no sabemos la frecuencia de la muestra pero sabemos que no es ES(.0S), entonces podemos concluir que f está entre .40 y .60 (siempre con n= 100). Por lo bajo puede estar entre .30 y .50 y por lo alto entre .50 y .70. A este intervalo, entre .30 y .70, es a lo que llamamos hipótesis difusa. La HD no da mucha información pero cuanto mayor sea la muestra menor será el intervalo de la HD y, por tanto, mayor información tendremos. Podemos concluir que si nos dan la frecuencia observada, construimos el intervalo estimativo apropiado, pero si no nos dan la frecuencia observada, aceptamos la HD. Otra forma de probar correlaciones es probar la hipótesis nula (HN). La contrastación se hace a través de una muestra, ahora bien, en lugar de contrastar las dos hipótesis estadísticas simples de que se compone una correlación, se reducen dichas hipótesis a una sola, a la que llamamos HN. Si queremos probar que la variable A está correlacionada con la variable B, entonces la HN dice: «no hay diferencia entre el porcentaje de los A que tienen B y el porcentaje de los no-A que tienen B». Si la
HN es rechazada significa que hay correlación y si es aceptada significa que no hay correlación. Vamos a ilustrar este tipo de justificación con el siguiente ejemplo. Supongamos que queremos saber si existe alguna correlación entre fumar marihuana (M) y esnifar cocaína (C). Esta hipótesis no es una hipótesis estadística simple sino que afirma
que dos variables están relacionadas. Ahora bien, esta correlación puede reducirse a una hipótesis estadística simple: «no hay diferencia entre la probabilidad de que los estudiantes esnifen cocaína y fumen marihuana y la probabilidad de que los estudian-
LAs r-nP0frEs1s crENrlr=1cAs
137
tes esnifen cocaína y no fumen marihuana». Esta sería la HN. La probabilidad de que los fumadores de marihuana esnifen cocaina puede ser representada por una probabilidad condicional: Pr(C/M). Lo mismo para los que no han fumado marihuana y han esnifado cocaína: Pr(C/no-M). La fuerza de la correlación (FC) es la diferencia entre estas dos probabilidades: FC(C y M) = Pr(C/M) - Pr(C/no-M) = d La HN dice: FC(C y M) = O Del mismo modo que al contrastar una hipótesis estadística simple no pretendíamos que la frecuencia observada fuera exactamente la frecuencia esperada, en el caso de la HN tampoco pretendemos que la diferencia (d) sea exactamente cero, sino que se acerque a cero. Para contrastar la HN de nuestro ejemplo hay que observar la frecuencia relativa de individuos que han esnifado cocaína entre los que fuman y entre los que no fuman marihuana: f(C/M) _ f(C/no-M) = d. 0 lo que es lo mismo: d = 0A partir de lo expuesto anteriormente, los argumentos para correlaciones podemos transformarlos en argumentos para hiPótesis nulas. Las condiciones serian las mismas que para las hipótesis estadísticas simples, pero en vez de H, pondríamos HN. También los argumentos tendrian la misma estructura con la introducción de las HN.
7.
PROBLEMAS ErLosór=rcos DE LA coNEmMAcIóN DE r-1u=ó'rEsIs
Todo lo dicho hasta ahora sobre la estructura y dinámica de la contrastación de hipótesis podría formar parte de cualquier manual de metodologia o técnicas de investigación (metodología de primer orden) de cualquier disciplina. El hecho de que este tipo de materias sólo se encuentren en los curricula de las ciencias sociales y no en los de las ciencias naturales sólo se debe a que, por ejemplo, en física el método y las técnicas de investigación están incorporados desde el principio y se da por supuesto. Estas guias metodológicas forman parte del proceso socializador como científico, no así en los científicos sociales. Una analogía puede ayudarnos en la comprensión de estas diferencias. Las normas de comportamiento de un grupo social no se
138
1N'rRoDucc|óN A LA E|LosortA DE LA c1ENc1A
acostumbra a enseñarlas de forma explícita, ya que el individuo las va incorporando a medida que va socializándose. No ocurre así cuando uno (por las circunstancias que sea) se encuentra en un grupo social distinto del que le ha socializado. Entonces tiene que aprender explícitamente todos y cada uno de los comportamientos si quiere integrarse en este grupo y no ser un elemento marginado, para lo cual puede ser que tenga que recurrir a un manual de urbanidad de dicho grupo. Esta analogía creo que es pertinente para explicarse por qué hay cursos y manuales de urbanidad cientifica para los investigadores sociales. Los físicos no necesitan textos de metodología, los sociólogos sí, al menos por el momento. Estas diferencias entre fisicos y sociólogos (tomándolos como ejemplos paradigmáticos de científicos naturales y sociales, respectivamente) desaparecen cuando pasamos de la metodolögía de primer orden a la de segundo orden. Aun suponiendo que se cumplan todos los requisitos y guías de la metodología de primer orden, permanecen los problemas filosóficos. Este tipo de cuestiones ya no suelen formar parte de los cursos metodológicos de las ciencias particulares, ya que sólo un reducido número de científicos está interesado en la metateoría. Por tanto, los problemas filosóficos de los que vamos a hablar a continuación repercuten en todas las ciencias empíricas.
8.
LA coNrnAsrAcróN DE Los ENuNcrADos Eueíiucosf'
Contrastrar un enunciado empírico significa indicar exactamente qué datos experimentales constituyen elementos de juicio favorables y cuáles son desfavorables para dicho enunciado. Diremos que un enunciado empírico es contrastable o testable si es posible indicar estos da-
tos. La idea de Hempel es elaborar una teoría general de la confirmación, cuestión que considera una de las tareas más urgentes de la metodología de las ciencias empíricas. Es importante distinguir entre confirmación y desconfirmación, por un lado, y verificación y refutación, por otro. El primer par es más amplio que el segundo, ya que hay enunciados que no pueden ser verificados pero sí confirmados, 0 bien desconfirmados pero no refuta6. Para los problemas filosóficos de la contrastación voy a seguir de cerca a Hempel (Hempel, 1975) y a 'lbulmin (Toulmin, 1958).
LAs 1-nPó'rEs|s c|EN'ríEicAs
139
dos. Por ejemplo, por muchos cisnes blancos que encontremos nunca se puede verificar la hipótesis «todos los cisnes son blancos», pero sí se puede confirmarla; o bien, a pesar de no haber encontrado un cisne negro hasta el momento, no por ello queda refutada la hipótesis «hay un cisne negro» aunque sí podemos decir que está desconfirmada. Esta teoría de la confirmación parte de unos supuestos que pueden resumirse en los siguientes: a) Los juicios pertinentes para una hipótesis no pueden ser introducidos con anterioridad a la formulación de dicha hipótesis, sino que es ésta la que marca qué es y qué no es pertinente para una hipótesis. b) Una instancia de una hipótesis es un fenómeno que está de acuerdo con la hipótesis y que, por tanto, constituye un elemento de juicio confirmatorio de ella. c) Las reglas de inducción, en el sentido de que podamos determinar lógicamente el salto de los datos a la hipótesis, no existen ya que «si bien el proceso de invención por el cual se realizan los descubrimientos científicos está, por lo general, “guiado y estimulado psicológicamente" por el conocimiento anterior a los hechos específicos, sus resultados no están “determinados lógicamente" por ellos» (Hempel, 1975). Lo que determina la corrección de una hipótesis no es la forma como se ha llegado a ella sino su confrontación con los datos. La consecuencia es que no hay lógica del descubrimiento, lo único que pode-
mos determinar es: i) si la hipótesis H está corroborada por un conjunto de datos E; y ii) en qué grado. Este seria el núcleo de una teoría
de la confirmación. i) Determinar el significado de «E confirma H» y de «E desconfirma H». ii) Una posibilidad es definir métricamente «grado de confirmación de H con respecto a E», cuyos valores sean números reales. Si esto no es posible, definir dos conceptos relacionales, «más confirmado que›› e «igualmente confirmado que», que permitan una comparación no métrica de la hipótesis.
140
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
Establecer el grado de confirmación (o probabilidad) de una hipótesis no parece ser una tarea fácil. Aqui no vamos a discutir estos intentos, sólo indicar que los trabajos de Carnap sobre lógica inductiva pueden considerarse avances en este sentido. Carnap desarrolló una teoría de la lógica inductiva que permitía, explícitamente, definir un concepto cuantitativo de grado de confirmación, sin usar la noción cualitativa de instancia confirmatoria. Esta definición se aplicaba a lenguajes formalizados de cierto tipo. Otra fuente de problemas en la teoría de la contrastación procede de las llamadas paradojas dela confirmación, que podemos enunciar en los términos siguientes: supongamos que tenemos la hipótesis «todos los cuervos son negros». La forma lógica de este enunciado es: (I) vx (si x es un cuervo, entonces x es negro). Este enunciado equivale, lógicamente, a: (2) Vx (si x no es negro, entonces x no es un cuervo) Cada cuervo que encontremos que sea negro constituirá una instancia confirmatoria de (1) y cada cosa no negra que encontremos que no sea un cuervo constituirá una instancia confirmatoria de (2). Pero
como (2) es equivalente a (l), resulta que todo objeto que no sea negro ni sea un cuervo confirma la hipótesis. Así todo libro rojo, toda hoja verde, todo cordero negro, etc., se convierte en elemento de juicio confirmatorio de la hipótesis de que todos los cuervos son negros. Hempel hace un balance de las posibilidades y dificultades de una teoria lógica de la confirmación en los términos siguientes: Una reconstrucción racional de las normas de la convalidación cien-
tífica, pues, no puede implicar referencia alguna a una sensación de evidencia, sino que debe basarse en criterios objetivos. De hecho, parece razonable exigir que los criterios de confirmación empírica, además de tener un carácter objetivo, no contengan ninguna referencia al objeto específico de la hipótesis o de los elementos de juicio en cuestión;
debe ser posible, creemos, establecer criterios puramente formales de confirmación, análogamente a la manera como la lógica deductiva suministra criterios puramente formales para determinar la validez de la inferencia deductiva (Hcmpcl, 1975117).
Hempel rechaza cualquier interferencia de la psicología en la confirmación de hipótesis y establece las «condiciones de adecuación para toda definición de la confirmación».
LAS HIPÓTESIS CIENTIFICAS
14]
Estas normas incluyen la condición de C4-llI¡Val°n¢¡H Y el 1-gquisito
de que la definición de confirmación sea flplifäflblfi 3 hipótesis de cualquier grado de complejidad lógica, y no solamente al tipo más simple
de condicional universal. Una definición adecuada de Confirmación, pues, debe satisfacer varios requisitos lógiC0S. 21 CUY21 mnslderación pa-
samos ahora. Ante todo, se convendrá en que toda oración lÓBÍCfifi"_^ente implica-
da por un informe de observación determinado debe considerarse como confirmada por este informe: la implicación es un caso eSPe<:ia1 de ¢0n_ firmación Llegamos asi a la estipulación CIC CII-le lüdfl definición ade_
cuada de confirmación debe asegurar el cumP1¡m¡°¡_“° qe: (8.1.) Condición de implicación. Toda oración lmplkrada por un informe observacional está confirmada por éste..
Esta condición la sugiere la consideración anterior, pef0._ Dor supuesto, ésta no la prueba. Hacer de ella una norma de adecuación de la de-
finición de confirmacion significa estipulan que una dfifimón propuesta
de confirmación será rechazada por lógicamente inadecuada si no ¡má construida de tal manera que (8.1.) sea satisfecha incondrcionalmente.
Una observación análoga se aplica a las Síglliemes “°¡'maS adicionales propuestas como criterios de adecuaciónEn segundo término, un informe de observación que Cofifirmara ciertas hipótesis sería considerado invariablemente como cflflfìrmante de toda consecuencia de esas hipótesis. Y en verdad. Cualquiera de tales
consecuencias no es más que la afirmación del contenido conjunto, 1°. tal o parcial, de las hipótesis originales Y, POT ende» 5° 1? deb@ conside-
rar confirmada por todo elemento de ji-li¢ì0 que °0l¶f|fm° estas últimas, Esto sugiere la siguiente condición de adecuaclóllï (8.2.)
Condición de consecuencia. Si un informe observacional con-
firma cada una de las oraciones de una clase K. 01'll°“°°5 también conñrma toda oración que sea una consecuencia IÓEÍC3 de K-
Si se satisface (8.2.) entonces lo mismo es válid0 Pam las dos condiciones especiales siguientes: _ (8.2.l.) Condición especial de consecuencia. Si un informe obsej-_ vacional confirma una hipótesis H, entonces también confirma toda consecuencia de H. (8.2.2.) Condición de equivalencia. Si un informe Obsenracional confirma una hipótesis H, entonces también confirma toda h¡pó¿eS¡s que sea lógicamente equivalente a H. _
(8.2.2.) se sigue de (s.2.1.) en razon de que las h¡P°*F“S equivalen.
tes son consecuencias mutuas, una de otra. Así. la Sfmsffifición de la condición de consecuencia implica la de nuestra anterior Condición de
equivalencia, y ésta pierde su carácter de r<=q\I¡S¡l° mdelwfldiente Nos queda por enunciar una tercera condición:
142
INTRODUCCION A LA Fi|,oso|=íA DE LA ciENc|A (8.3.)
Condición de consistencia. Todo informe observacional ló-
gicamente consistente es lógicamente compatible con la clase de todas las hipótesis que confirma.
Las dos implicaciones más importantes de este requisito son las siguientes: (8.3.l.)
A menos que un informe observacional sea contradicto-
rio, no confirma ninguna hipótesis con la que no sea lógicamente compatible. (8.3.2.) A menos que un informe observacional sea contradictorio no confirma hipótesis que se contradigan mutuamente. La satisfacción de estos requisitos, que pueden ser considerados como
leyes generales de la lógica de la confirmación, sólo es, por supuesto, una condición necesaria. no suficiente, para la adecuación de cualquier definición de confirmación que se proponga Por otra parte, la corrección del análisis lógico (el cual, en un sentido claro, siempre supone una reconstrucción lógica) de un concepto
teórico no puede ser evaluada simplemente por nuestros sentimientos de satisfacción ante determinado análisis que se proponga; y si hay, digamos, dos propuestas alternativas para definir un término sobre la base de un análisis lógico, y si ambas parecen acercarse al significado que
se quiere lograr, entonces la elección debe hacerse en gran medida con referencia a aspectos tales como las propiedades lógicas de las dos reconstrucciones, y a la amplitud y la simplicidad de las teorías a las cuales conducen (Hempel, l975:40-53). De las tres fases que Hempel distingue en la contrastación de hipótesis, a saber: la realización de experimentos u observaciones adecuados; la puesta a prueba de los informes observacionales a fin de decidir si éstos son o no pertinentes para la confimiación de las hipótesis; y la aceptación o rechazo de la hipótesis a partir de los datos obteni-
dos (Hempel, 1975160), Hempel desarrolla, fundamentalmente, la segunda y es a la que nosotros hemos atribuido los problemas filosóficos de la confirmación. Hempel considera la primera y tercera fase como aspectos pragmáticos de la confirmación y corresponde a lo que nosotros llamamos técnicas de investigación o metodología de primer orden.
9. Pscutinniom ora Las nirórrasrs Esr›.nísricAs La justificación de hipótesis estadisticas se lleva a cabo --tal como hemos visto al principio de este capitulo- a través de argumentos en los que se introduce el elemento de probabilidad. Estos argumentos
LAs |-m>ó'rEs1s CIENTIFICAS
143
o silogìsmos dan lugar a ciertas inconsistencias. Supongamos el siguiente ejemplo de razonamiento casi-silogistico -así denomina 'lbulmin (Toulmin, 1958) los argumentos con enunciados estadísticos: (l) Petersen es sueco La proporción de suecos que son católicos es menor que el 2 070. Luego, casi ciertamente (o probablemente) Petersen no es católico. Supongamos que las premisas de este razonamiento son ciertas, entonces -como señala Cooley (Cooley, 1959)- las premisas del siguiente razonamiento también pueden ser verdaderas: (2) Petersen hizo una peregrinación a Lourdes. Menos del 2 070 de los que hacen una peregrinación a Lourdes no son católicos. Luego, casi ciertamente (0 probablemente) Petersen es católico. La inconsistencia consiste en que este esquema casi-silogistico puede conducir de premisas verdaderas a conclusiones incompatibles. Estas inconsistencias -afirma Hempel- no prueban que los razonamientos basados en información estadistica sean incorrectos, sólo prueban que no pueden ser considerados como silogísticos, ni siquiera como casi-silogisticos. Está claro que en los razonamientos estadisticos la verdad de las premisas no garantizan la verdad de la conclusión, pero frente a este hecho hay dos posturas: una, la de Hempel para el que sólo cuentan las relaciones entre los enunciados y, por tan-
to, en este caso la relación entre premisas y conclusión no corresponde a la relación lógica requerida para los silogismos; otra, la de Toulmin, para el que estos razonamientos pueden ser considerados casisilogismos y los términos de «ciertamente›› y «probab1emente›› pueden interpretarse como calificativos modales. Estas dificultades pueden subsanarse en parte -según Hempel-teniendo en cuenta el «requisito de los elementos de juicios totales», propuesto por Carnap y que formula en los términos siguientes: «En la aplicación de la lógica inductiva a una situación cognoscitiva dada, deben tomarse los elementos de juicio totales como base para determinar el grado de confirmación» (Carnap, l950:2ll). Vemos, pues, que según el esquema de Hempel (que es también
I44
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
el de la tradición del empirismo lógico) el problema de la inducción es clave para el programa verificacionista de la contrastación de hipótesis. En los razonamientos con enunciados estadísticos la inferencia inductiva es más evidente, pero tampoco se salva de los problemas de la inducción la contrastación de hipótesis no estadísticas, o sea aquellas pertenecientes a sistemas deterministas.
10.
EL PROGRAMA ¡ALS/lcioNis'rA DE Kun PQPPER
Popper elaboró una alternativa a la contrastación de hipótesis, fuera del programa verificacionista de tal forma que evitara los problemas de la inducción. En realidad Popper compartía con Hempel los problemas provenientes de las inferencias inductivas. La diferencia entre los dos filósofos reside en cómo resuelven estos problemas. Así como Hempel recurrió a la posibilidad de una lógica inductiva y estableció la distinción entre confirmación/disconfirmación y verificación/refutación para resolver los problemas que originaba, Popper partió de la imposibilidad de una lógica inductiva y buscó la solución a la fundamentación del conocimiento cientifico en el programa falsacionista. Popper representó, en su momento, una «revolución copernicana» en filosofía de la ciencia al fijarse, no en la verificación sino en la falsación de una hipótesis como procedimiento de contrastación y de decisión sobre su posible adecuación al mundo real. Aunque ha llovido mucho desde La lógica dela investigación ciennfica, Popper sigue siendo un punto de referencia ineludible desde el cual examinar las teorías e hipótesis científicas. Popper plantea la cuestión de cómo podemos
saber si una teoría interpreta, o no, adecuadamente la realidad. La postura clásica de la epistemología hasta entonces había sido la de postular algún tipo de verificacionismo (llámesele fenomenalismo, inductivismo, etc.). Sin embargo, Popper observó que lo que, paradójicamente, nos permitía contrastar la adecuación de una teoría al mundo no era los fenómenos que podía predecir sino más bien aquellos fenómenos que podían falsar la teoría. Según Popper, nunca podremos saber con certeza absoluta que nos encontramos ante una teoría que nos interpreta el sistema exactamente tal cual es, pues no existe ningún sistema de verificación sistemático. Lo que si podemos saber es cuándo una teoría ya no funciona, pues hemos podido falsarla al encontrar fenómenos que la teoría no permitía, pero que de hecho ocurren.
Lxs Hirórrasis c|EN1'lFicAs
145
Esta idea de falsación es básica en la filosofía de Popper, pues es el fundamento sobre el que se puede contrastar totalmente la potencia de las teorías e hipótesis. El principio de falsación conlleva en Popper una serie de conceptos subsidiarios: a) El criterio de demarcación. Este criten`o nos permite decidir si un sistema teórico dado pertenece o no al campo de la ciencia. La idea es simple: si una teoría es incompatible con la existencia de determinados fenómenos y eventos, entonces podemos decir que es científica, ya que existe lo que Popper llama la clase de falsadores potenciales de esta teoría. Si no existe tal clase, entonces la teoría es irrefutable (es decir, no existe ningún evento que sea realmente incompatible con ella y, por tanto, la teoría es capaz de explicar cualquierfenómeno conectable con ella) y por ello no es científica. Para que una teoría pueda ser considerada como perteneciente a una ciencia empírica, es necesario hacer una clasificación de todos los enunciados relacionados con ella en dos clases no vacías: de un lado, los enunciados que son compatibles con la teoria y, de otro, los que son incompatibles con dicha teoria (es decir, los falsadores potenciales). Asi, según Popper, el psicoanálisis no seria realmente una ciencia empírica, ya que el mismo Freud demostró en su práctica diaria que su sistema era capaz de explicar cualquier fenómeno que cayera dentro del ámbito del psicoanálisis. Freud era capaz de encajar cualquier caso clínico sin ningún problema. La irrefutabilidad, aparentemente una fortaleza, se conviene en la mayor debilidad de la teoría freudiana. b) La teoría. Para caracterizar una teoría no se parte tanto de lo que en ella se afirma como de lo que se niega. El contenido empírico de una teoría es precisamente la clase de los falsadores potenciales.
Cuanto mayor sea esta clase más contenido empírico tendrá una teoria. Esta idea de Popper comporta varios problemas, siendo uno de ellos el que no se ajusta a la práctica científica real. c) Las hipótesis auxiliares. La condición principal para que una teoría admita una hipótesis auxiliar es que ésta contribuya a que la teoria sea más fácilmentefalsable y no a la inversa. Ello le permite rechazar cualquier intento de convertir en irrefutable una teoria problemática añadiéndole cualquier hipótesis ad hoc que solucione las dificultades en las que se encuentra la teoría. Popper pone como ejemplo de hipótesis auxiliar válida el principio de exclusión de Pauli que, efectivamente, hace más fácilmente falsable la mecánica cuántica, pues le
146
INTRODUCCIÓN A LA FIIDSOFÍA DE LA CIENCIA
añade un grado de restricción extra: que dos electrones de un mismo átomo no puedan tener todos sus números cuánticos iguales aumenta, evidentemente, el número de fenómenos que la teoria prohíbe. Una vez hemos introducido estos conceptos, la cuestión es cómo hacerlos operativos, es decir, cómo los utilizamos para comparar dos teorías rivales aceptando una u otra en función de su falsabilidad. Popper dice que una teoría resultará falsada cuando tengamos enunciados básicos que la contradigan, pero sólo si tales resultados son reproducibles. Si son resultados que sólo han sucedido una o muy pocas veces y no hay manera de reproducirlos normalmente en condiciones de laboratorio con todas las garantías, entonces tales resultados no prueban nada. Lo más probable es que sean errores en la medición o en los aparatos o se dé algún defecto colateral. Así, por ejemplo, las famosas afirmaciones de que el ser humano posee poderes de telepatia (transmisión del pensamiento) o de telequinesis (movimiento de objetos a distancia por el «poder dela mente››) no tienen ningún fundamento ya que nunca han sido reproducidos de forma significativa en un laboratorio con garantias y por ello ningún científico serio hace el menor caso de tales «resultados››. Esta idea es formalizada por Popper a partir de su idea de acontecimiento. Pero antes de determinar lo que Popper entiende por acontecimiento, necesitamos la noción de ocurrencia. Una ocurrencia es simplemente un fenómeno concreto situado espacial y temporalmente. Por ejemplo, que la taza de café que ahora, 23 de noviembre de l992, tengo delante mío en mi despacho de la Universidad de California, San Diego (UCSD) se acaba se volcar. Un acontecimiento es la clase de todas las ocurrencias de un mis-
mo tipo, dejando de lado su concreción espaciotemporal. En nuestro ejemplo, el acontecimiento es el «volcarse una taza de café». La ocurrencia antes mencionada afirma simplemente que el acontecimiento «volcarse una taza de café» ha tenido lugar el 23 de noviembre de 1992 en mi despacho de la UCSD. Así podemos decir que para que una teoría sea falsada no es suñciente que lo haga una ocurrencia (que es un evento espaciotemporal aislado) sino un acontecimiento (que es una clase de elementos reproducibles). Para Popper el contenido empírico de una teoría aumenta con su grado de falsabilidad, de manera que para medir este contenido empírico necesitamos hallar una manera de comparar grados de falsabilidad entre dos teorias. Esto no resulta fácil: contar simplemente todos
Las Hieófriasis ci|aN'ríFic›.s
147
los enunciados que falsarían la teoría no funcionaría, pues para cada teoría el número de falsadores potenciales son inñnitos. Sin embargo, indirectamente, pueden hallarse dos métodos para comparar el grado de falsabilidad de dos teorías rivales: la relación de subclase y la dimensión. El método de la relación de subclase es el más sencillo de aplicar, pero sólo funciona cuando las teorias rivales comparten las clases de enunciados. La idea es la siguiente: si todos los posibles enunciados falsadores de la teoria A están incluidos en la clase de los falsadores de la teoria B, entonces está claro que la teoría B tiene más enunciados falsadores que la teoría A y, por tanto, es más falsable y tiene mayor contenido empírico. Si la clase de falsadores de la teoría B es igual a la dela teoría A, entonces diremos que tienen el mismo grado de falsabilidad. El problema aquí es, como hemos dicho, que sólo funciona cuando la clase de todos los falsadores posibles de una teoría guarda una relación de inclusión o igualdad con la clase de falsadores de la otra teoría. Si ello no sucede asi, las teorías son incomparables. La otra técnica, aplicable de forma mucho más general, es la de la dimensión. Para aplicarla necesitamos, primero, encontrar los enunciados «atómicos›› o «elementales›› de la teoria. Según Popper, estos enunciados dependen de Ios tipos de teorías que vayamos a comparar. Con todo, siempre podrá hallarse una clase de enunciados que, para nuestros propósitos, puedan ser considerados «relativamente atómicos». Llamaremos «campo›› al conjunto formado por todos los enunciados atómicos más sus conjunciones. Popper llama «n-tuple del campo» a una conjunción de n diferentes enunciados relativamente atómicos, siendo n su «número de composición». Consideremos una teoría I Supongamos que ningún d-tuplo de enunciados básicos es capaz de falsar T, sino que se necesitan enun-
ciados agrupados en d + l tuplos. Llamamos d al «número característico» o «dimensión›› de una teoría con respecto al campo de enunciados básicos. Entonces cuanto mayor sea el número de enunciados posibles capaces de falsarla mayor será su contenido empírico. Otro concepto importante en la propuesta de Popper es el de probabilidad lógica. La probabilidad lógica nos dice el grado de falsabilidad de un enunciado en función de su forma lógica, es decir, en función de los enunciados que están implicados por él. La probabilidad lógica es inversamente proporcional al grado de falsabilidad: dado un enunciado cualquiera, cuantos más enunciados estén implicados por él, menor será su probabilidad de refutarlo, ya que «explica›› muchos
148
|N'rRoDuccioN A LA F1i›osoFlA DE LA ciENciA
más enunciados y «prohíbe›› mucho menos. Este concepto muestra que hay una importante correlación entre falsabilidad y deductibilidad: cuantos más enunciados sean deducibles de una teoría, menor será su falsabilidad y viceversa. Así, una teoría contradictoria nunca podrá ser científica ya que el número de sus falsadores potenciales es cero (una contradicción implica cualquier enunciado). A partir del programa falsacionista de Popper podemos hacer las siguientes consideraciones: a) La falsabilidad continúa siendo un concepto clave a la hora de contrastar y, por consiguiente, de exponer claramente una hipótesis, al menos como criterio de demarcación para distinguir la ciencia de la pseudociencia. Sin embargo, el problema surge cuando tomamos este criterio de forma unilateral. Identificar el contenido empírico de una teoría con su grado de falsación se adecua poco con la práctica científica. No parece que los científicos se dediquen a generar teorías lo más improbables posibles. Por ejemplo, «los planetas giran alrededor del Sol siguiendo elipses con el Sol en uno de los focos» tiene mucho menos contenido empírico que «los planetas giran alrededor del Sol siguiendo elipses con el Sol en uno de los focos, yendo para adelante y para atrás siguiendo el ritmo de la Polonesa de Chopin», hipótesis que no se le ocurriría proponer a nadie. Por tanto, necesitamos otros criterios como el concepto de verosimilitud, o el de la concordancia con otras ciencias, o el de simplicidad, que guíen al científico en su función investigadora. b) Popper es uno de los más persistentes detractores de la inducción. Sin embargo, su teoría puede ser criticada por introducir, subrepticiamente, lo que él tanto ha rechazado, a saber: la inducción. Como hemos visto, la idea de Popper es que la aceptabilidad de una teoría
se mide por la cantidad de tests que ha pasado con éxito. Pero si los falsadores potenciales de una teoría son infinitos, lo que se puede afirmar es que, cuando se añade la realización de una prueba con un falsador a los tests precedentes de falsación, aumenta la aceptabilidad de una teoría: esto «suena›› a la idea del programa verificacionista de que cada instancia o ocurrencia de una hipótesis aumenta su aceptabilidad, pero ahora por acumulación de falsadores.
5. 1.
LAS LEYES CIENTÍFICAS ACLARACIONES Y DISTINCIONES
Al abordar el tema de las leyes científicas nos encontramos con una serie de cuestiones que necesitan una clarificación previa a cualquier análisis de las mismas. a) Las leyes en el marco conceptual de la ciencia. Una vez establecido el lenguaje conceptual para captar el mundo, la investigación científica nos lleva a establecer leyes que nos permitan comprender lo que observamos a través del descubrimiento tanto de algún orden sistemático en los sucesos, en las cosas y en las cualidades como de las relaciones entre acontecimientos que ocurren a nuestro alrededor. Las leyes expresan relaciones de dependencia entre hechos o entre fenómenos. Podemos establecer una organización jerárquica entre observaciones, leyes y teorías (Thagard, 1988). /J¢oría\ ley l I \ observación l.l observación 1.2
ley 2 I \ observación 2.1 observación 2.2
Esta primera aproximación a los niveles de sistematización de conocimiento en la ciencia es correcta y, aunque adolezca de simplicidad, nos sirve para establecer el orden de tratamiento de estos temas. b) Problemas filosóficos y metafilosóficos de las leyes científicas.
En la literatura sobre cuestiones epistemológicas de las leyes encontramos problemas que podemos considerar situados en planos
ISO
INTRODUCCION A LA |=n.osoFíA DE LA cn:Nc|/›.
distintos. Teniendo en cuenta los diversos niveles conceptuales que hemos distinguido en el capítulo 1 en relación a la metodología y la ontologia, se puede proponer, análogamente, que el análisis de las leyes discurre en tres planos correspondientes a las teorizaciones de primer, segundo y tercer orden. Aquí nos centraremos solamente en el segundo orden (el plano filosófico) y en el tercero (el metafilosófico y metafísico). Desde el plano filosófico consideraremos cuestiones como la estructura sintáctica y las características de las leyes. Desde el plano de la metafilosofía-metafísica cuestiones como la relación entre ley cientifica y causalidad, causalidad y determinismo y el problema de la inducción. c) La ambigüedad del término «ley››. El término «Iey›› conlleva una cierta ambigüedad que es conveniente esclarecer desde el principio. Se suele, por ejemplo, usar el mismo término para referirse a una proposición y al hecho descrito por esta proposición. No esclarecer esta ambigüedad puede llevar a confusiones como el decir que las leyes no pueden ser verdaderas o falsas. Si por ley nos referimos a los hechos, por supuesto que éstos no pueden ser verdaderos o falsos, pero si nos referimos a las proposiciones que describen dichos hechos, éstas si pueden ser verdaderas o falsas. d) Distinciones. l) Ley científica vs. ley de la naturaleza. Es habitual encontrar en la literatura filosófica una identificación (explícita o implícita) entre ley cientifica y Iey de Ia naturaleza. Esta idea se remonta a los griegos y se ha mantenido hasta nuestros días. Los tres textos siguientes ejemplifican esta identificación: El principio que permite la inferencia desde «frotamos esta cerilla sobre papel de lija, esta cerilla está seca, hay suficiente oxígeno en el aire, etc.›› a «esta cerilla se enciende» no es una ley de la lógica sino lo que llamamos una ley natural o física o causal (Goodman, l983:8-9). Lo que llamamos una ley natural no es otra cosa que una realidad establecida, con seguridad suficiente, de las observadas en el acontecer natural, siempre y cuando se la considere necesaria, en el sentido del postulado según el cual todo proceso natural está absolutamente y cuantitativamente determinado al menos por la totalidad de las circunstancias o condiciones físicas que acompañan a su aparición (Schrödinger, l975:l6-17).
Las LEYES c|EN'ríl=icAs
ISI
Es cierto que tanto en nuestra vida cotidiana como en la ciencia di-
ferenciamos bastante claramente entre orden y desorden, regularidad e irregularidad. ¿Cómo entendemos esto? A primera vista la respuesta no parece muy dificil. Parece que sólo necesitamos estar seguros de cómo la física realmente representa las leyes de la naturaleza, en qué forma describe la dependencia de los eventos (Schlick, l93l).
En estos textos subyace la idea de que las leyes científicas cubren sólo los procesos naturales, entendiendo por ellos los fenómenos estudiados por la física. Esta idea supone un concepto muy determinado de «naturaleza›› de la que los humanos no forman parte y encaja con la división entre ciencias naturales y ciencias sociales, clasificación no muy acorde con el estado actual de las ciencias particulares. Por ejemplo, ¿dónde situamos la psicologia? Además, cuestiones como la causalidad y el determinismo, que hasta ahora parecían criterios claros de demarcación entre ciencias naturales (cc.nn.) y ciencias sociales (cc.ss.), ya no lo son después del surgimiento de la mecánica cuántica y del desarrollo de las cc.ss. Por tanto, es mejor hablar de leyes científicas; en todo caso ya haremos las distinciones convenientes y veremos hasta qué punto las distintas disciplinas producen los distintos
tipos de leyes. Veremos también las limitaciones que algunas disciplinas tienen para determinados tipos de leyes. Pero hay que señalar que cualquier distinción tiene que hacerse bajo criterios claros: posiblemente, según el criterio elegido, las disciplinas se agruparán de forma distinta. 2) Leyes de la lógica y leyes de las ciencias empíricas. Una distinción previa a cualquier análisis sobre las leyes es la dis-
tinción entre las leyes de la lógica y de la matemática y las leyes de las ciencias empíricas. En este capítulo sólo vamos a referirnos a las segundas. Esta clasificación corresponde a la distinción entre ciencias formales y ciencias empíricas, basada en el criterio de conocimiento a priori, atribuido a las ciencias formales y no a las empíricas'
l. Esta clasificación también es cuestionable, pero dejamos para un curso de filosofía de la matemática el análisis de esta división. Aquí suponemos que hay diferencias pertinentes entre ciencias formales y ciencias empíricas.
152
mrkooucciou A LA Eruosortx DE LA ciENciA
EJEMi>LLr~'rcAcróN DE LEYEs c1EN'ri1=icAs Los enunciados presentados a continuación han sido formulados por los científicos como leyes. Sociologia Ley de los tres estados (formulada por A. Comte en el Cours de philosaphie positive, 1830-1842): «El progreso de los acontecimientos humanos atraviesa tres estadios o estados: 1) El estado teológico, estado en el que el hombre explica las cosas y los acontecimientos atribuyendo, o bien a las cosas mismas, o bien a seres o a fuerzas sobrenaturales e invisibles, su propia naturaleza, su voluntad, sus sentimientos, sus pasiones, etcétera. 2) El estado metafísico, estado que se caracteriza por el recurso a entidades abstractas, a ideas, en cuya virtud se cree poder explicar la naturaleza de las cosas y la causa delos acontecimientos. 3) El estado positivo, estado en el que el hombre intenta, mediante la observación y el razonamiento, percibir las relaciones necesarias entre las cosas y entre los acontecimientos, y explicarlas por medio de la formulación de unas leyes» (Rocher, 1973:195-196). Ley de la gmvitación del mundo social (formulada por Durkheim en De la division du travail social): «El crecimiento de la densidad demográfica da lugar simultáneamente al progreso de la división del trabajo y al progreso de la densidad moral. La división del trabajo y la densidad moral constituyen, a su vez, los factores principales del progreso de la “civilización”, es decir, del desarrollo económico, social y cultural» (Rocher, 19792429). Arqueologia Ley de Worsaae que lleva el nombre de la persona que la formuló, Iens J. A. Worsaae, un arqueólogo danés que en 1843 enunció el principio según el cual «los objetos que acompañan a una sepultura eran, en la mayoria de los casos, objetos que se utilizaban durante la época en que murió la persona sepulta-
da» (Row, 1962).
Lxs LEYES c1ENrli=icAs
153
Quimica Ley de Boyle-Mariotte: «El volumen de un peso dado de cualquier gas seco, a temperatura constante, varía inversamente a la presión a que se somete» (Babor-lbarz, l968:46). Ley de Charles-Gay-Lussac: «Todos los gases se dilatan igualmente por los mismos grados de calor y que, por consecuencia, su mayor o menor densidad, su mayor o menor solubilidad en agua y su naturaleza particular no influyen nada sobre su dilatación» (Babor-lbarz, 1968:48). Fisica ley l del movimiento: «Todo cuerpo continúa en su estado de reposo o de movimiento uniforme en línea recta a menos que sea forzado a cambiar ese estado por fuerzas que actúan sobre él». ley ll del movimiento: «El cambio de movimiento (es decir, de momento mecánico) es proporcional a la fuerza motriz que se le ha impreso, y sigue la dirección de la línea recta en que se le imprimió la fuerza». Ley lll del movimiento: «A toda acción se opone siempre una reacción igual; o las acciones recíprocas de dos cuerpos uno sobre otro son siempre iguales y dirigidas a partes opuestas». Icy de la gravitación universal: «Todo cuerpo material atrae a otro con una fuerza directamente proporcional a sus masas e inversamente proporcional al cuadrado de la distancia entre
ellos». Principio l de la termodinámica: «La diferencia entre las energías internas de dos estados de un sistema es igual a la dife-
rencia entre el calor absorbido y el trabajo externo hecho al ir de un estado a otro». Principio ll de la termodinámica: «Es imposible convertir calor en energía mecánica sin que el calor “caiga” desde un lugar caliente a un lugar frío» (Gamow, 1980). Lingüística Principio de proyección: La información léxica se halla representada sintácticamente (Haegeman, 1991).
154
INTRODUCCIÓN A LA FILOSOFIA DE LA CIENCIA
Biologúx En la mayoría de los mamíferos practicantes de la poligamia, cuanto mayor es el harén mayor es la diferencia de tamaño del macho con respecto a la hembra (siendo el macho siempre el mayor) (Alexander, 1989). Cristalografúz Icy de Steno: Los ángulos entre las caras equivalentes de los cristales de la misma substancia medidos a la misma temperatura son constantes. Psicologia Si se plantea a un grupo resolver un problema de lógica, el tanto por ciento de personas que lo resuelven es mucho mayor si el problema está planteado dentro de un contexto concreto que si está planteado de forma abstracta (Holland et al., 1986). ley de Hofstadter: A la hora de llevar a cabo una tarea, siempre se necesitará más tiempo del que en principio se había calculado, incluso si se tiene en cuenta la ley de I-Iofstadter. Desde el momento que las disciplinas de las que proceden estas leyes se consideran ciencias (más o menos desarrolladas pero en ningún caso pseudociencias) el filósofo de la ciencia no puede ser ajeno a lo que sus investigadores llaman «1ey›› ni a lo que en los libros de texto correspondientes se presenta bajo este rótulo.
2.
Esrnucrunn Lóorcn DE Las LEYES
Desde el punto de vista de la lógica, una ley es un enunciado universal de la forma siguiente:
v›t(Ax-›B›<) que se lee como «todos los A son B» o «para cualquier x, si x es A, entonces x es B». El «si entonces ...›› es una conectiva interpretada
Las LEYB ciEN'rlFrcAS
155
como implicación material y simbolizada p0f <<*'”~ El *Ílcance del cuantificador universal es sobre todas las entidades. esta interpretación del cuantificador se la denomina «intel'D1`eta°'°“ °Xtensi°n,abi` Sin embargo, aunque no hay discusión sobre la estructura sintacgca de las leyes, hay desacuerdo sobre la interpretaciófl' de este Guam' " cador universal. Las diversas posturas están en funcion 185 Cafafle' risticas atribuidas a las leyes. Si interpretamos el CI-lflmlflcador (Nx): desde la lógica de primer orden , nos encontram0S C0" Pf°P|°mas a _ . res. Por querer representar simbólicamente algunas de las ¡GWS fim¢"° ejemplo, la ley de la biología que empieza con «en la maymía "'» no puede subsumirse al cuantificador. En el caso de la ley de W°rSaa.e habría que acotar el dominio o añadir al antecedente alglmflS C°“d1* ciones, tales como que la sepultura que se está investigando pefffllelca a una cultura en que se enterrase a los muel'l0S 0°" sus °b-'cms pep sonales.
3. LA c.uu\c'rEnizAcióN DE Las LEvEs ciisN'ri'.ricAS Una vez vistos algunos ejemplos de lo que ¡HS dlsnfnas menclas particulares consideran leyes, lo que nos interesa es ver si hay algl-1005 fas' gos compartidos por todas ellas. Vamos a centrarnos en tres rasgos fundamentales: regularidad, universalidad y necesidadí La 0119511011 está en saber hasta qué punto estas características dfififlen ¡És ¡eyes si pueden ser consideradas condiciones lógicamente fl¢C¢5a"a5› mg" camente suficientes, ambas o ninguna. Es decir, 10 que P1fimea"Í°s es si es posible establecer criterios de demarcación entre los enul'IC1fid0S que son leyes de los que no lo son.
3.1.
Las leyes como expresión de regularidadeé'
. ' b' Las leyes antes expuestas se refieren al comD_0"am'°_m° de Sax_ tos, substancias o individuos, y a sus acciones. lnÍ°"a°°'°“esrgsan es bios bajo ciertas condiciones. Por tanto, lo que las leyes exp alguna regularidad en la conducta. . ' ca el estu2. Para el desarrollo de las características delas leyeS VOY 3 "su" de C" dio de Achinstein (1971).
156
iNrRoDuccioN A LA i-*iiosorlx DE LA ciENc|›.
Siguiendo con el esquema anterior lo que nos interesa es ver si la regularidad es una condición necesaria, suficiente, ambas o ninguna de ellas. Supongamos que la regularidad es una condición suficiente, entonces tendríamos la implicación siguiente: Si «p›› expresa una regularidad, entonces «p›› es una ley. Un contraejemplo a la idea de considerar la regularidad como condición suficiente para detectar las leyes consistiría en encontrar alguna regularidad que no fuera una ley. Por ejemplo, por el hecho de que las cigüeñas aparezcan cada primavera no podemos decir que «las cigüeñas llegan en primavera» es una ley aunque sí es una regularidad. Un intento de conservar la regularidad como condición suficiente es restringir la condición suficiente para los aspectos cuantitativos de la regularidad, pero, ¿qué pasa con las leyes que no tienen una formulación matemática? Además, hay regularidades que pueden expresarse numéricamente pero no son leyes. Por ejemplo, la proporción de muertes en los hospitales es mayor que fuera de ellos y esto puede expresarse con un tanto por ciento; sin embargo, no podemos decir que hay una ley que afirma que «la posibilidad de morir es mayor si uno va al hospital que si no va». Supongamos ahora que la regularidad es una condición necesaria, entonces la implicación siguiente debería ser verdadera: Si «p›› es una ley, entonces «p›› expresa una regularidad. En este caso podríamos contestar afirmativamente pero con mati-
ces. En primer lugar, deberiamos ampliar el concepto de regularidad, ya que en el caso de las leyes fundamentales de la física contemporánea se considera que no expresan regularidades sino distribuciones probabilísticas. Por tanto, si queremos mantener la regularidad como condición necesaria de las leyes debemos hacer algunas consideraciones. En primer lugar, que la regularidad descrita por la ley puede referirse bien a la conducta de los objetos o substancias, bien a las características que exhiben los objetos o substancias; en segundo lugar, que la regularidad se da bajo ciertas condiciones. Por ejemplo, en la ley de los tres estados, la ley de la gravitación del mundo social, la ley de Worsaae y la ley de I-lofstadter el establecimiento de las condiciones adicionales es crucial para que la regularidad que expresan sea necesaria.
Las LEYES ciEN†li=ic›.s
157
1-[echas estas consideraciones podemos perfilar los 115305 de las leyes científicas que tienen que ver con la regularidad. 1.aS1°Y°S °Xpre` san la regularidad más fundamental de un fenómeno dad° C0" °1ma` yor grado de perfección posible y ello aislando los diversos factores que intervienen e indicando la forma enla que están relaGÍ0“_aÉI°S' Las leyes intentan formular una regularidad más precisa si se "Uma" cr* terios objetivos y explícitos en la construcción de los C0"°°p“Ís Énfpleados. Estos criterios de precisión se refieren al conten¡d° Y s'gm_f" cado de cada uno de ellos y a su cuantificación siempre en el åmbno de los fenómenos que están dentro de la ley. Las leyes intentan una formulación simple, entendiendo por simplicidad el núm°f° de maig' res o variables que tiene en cuenta la ley, el tipo de térmífi°S que “fmza para su formulación -es decir, si son términos primiti'/05 ° d°"Va` dos- y la relación entre los términos que introduce. _ Ninguna de estas características puede considerarse ¢0m° °°"d" ciones suficientes para que una regularidad sea una ley, B““q“° todas pueden considerarse necesarias en un cierto grado, es deCÍf† 5°_"°°es" ta un minimo de precisión, de simplicidad, etc., pero no 95 P°S'bI° d°` terminar de forma métrica el nivel de precisión o simplicidad q“° debe poseer una regularidad para considerarla una ley. _ Al caracterizar las leyes hemos hablado de su formlllaclón' qm cuestión a tener en cuenta es la posibilidad de que una 16)' ¡enga cm-e' rentes formulaciones, es decir, diferentes proposiones que €X_P¡°5a“ '_ma misma ley, precisamente siendo unas más completas, pl'¢É's_as ° S'm` ples que otras e, incluso, unas introduciendo conceptos d15"“¡°§ Í°s` pecto a las otras. El problema que se plantea es si estas f0l'm“la°'°n°s son, o no, equivalentes. En el caso de que sean equivalel1ï°5› pued?? serlo, o bien lógicamente, si se implican mutuamente, o bie" 3'"-0"" camente, si cada una puede ser derivada de la otra cuand° s°_ añafien
enunciados empíricos verdaderos que no implican o no S011 Implicadas por ninguna de las proposiciones comparadas. Un Cjempk) de le' yes equivalentes con formulaciones distintas sería la seg'-'nda ley dçl movimiento de Newton que podemos formular de las d0S fmmas S" guientes: a) la fuerza es igual a la masa por la aceleraciófi (f = m`a); b) la variación del impulso mecánico es igual a la variaciÓ“ 4° Ia cam tidad de movimiento (dl = dQ). En el caso de las formlllacwnes ng' equivalentes, ni lógica ni empiricamente, la cuestión está en Éóm° d" ferenciar las formulaciones no-equivalentes de las leyes d¡5U“ta5'_ La respuesta de Achinstein es que una condición suficiente pam comme-
158
¡Ni-izoouccion A LA i=iiosoi=tA DE LA ciENciA
rar que dos formulaciones pertenecen a leyes distintas es que las regularidades que describen sean incompatibles. 1-lay que señalar que el criterio de incompatibilidad es razón suficiente para que nos encontremos ante dos leyes distintas, pero de ningún modo puede considerarse una condición necesaria, es decir, puede, y de hecho es lo más habitual, que haya leyes distintas que no sean incompatibles.
3.2.
Las leyes y su carácter universal
Al establecer la estructura formal de las leyes vimos que se expresaba del modo siguiente: V x (Ax -› Bx) Esta estructura formal concede a las leyes un carácter universal y condicional. Lo primero que plantea este enunciado universal es el ámbito del universo del discurso que es donde radica el carácter universal de las leyes. En la expresión «todos los A son B», los A constituyen el sujeto y los B el predicado, por tanto determinar el ámbito del universo del discurso significa determinar el sujeto de la ley. Por sujeto de una ley entendemos cualquier objeto (u objetos) o substancia (o substancias) que cumplen las condiciones siguientes: a) Los objetos o substancias exhiben la regularidad descrita por la ley. b) Estos objetos o substancias son los que van a ser investigados cuando se ponga a prueba la ley.
c) La regularidad exhibida en a) sería atribuida como característica a dichos objetos o substancias. Por ejemplo, los planetas, las colectividades unidas por lazos culturales, los objetos que acompañan a una sepultura, los mamíferos practicantes dela poligamia, son sujetos de sus leyes respectivas. En el caso de que haya varios sujetos que cumplan las condiciones 3), b) y c), tomaremos aquel que incluye a todos los demás y no es incluido por ninguno. Supongamos que tenemos dos sujetos S, y S2, si S, C S, pero S, (Z S, y no hay un S, tal que S, C S,, entonces S, es el sujeto de la ley. Por ejemplo, supongamos que tenemos dos sujetos posibles para la ley de Alexander: «mamíferos» y aprimatcs». Mamíferos incluye primates pero no a la inversa. Además, no se conoce
LAs LEYES c|ENTli=|cAs
159
ninguna especie que incluya mamífero, que practique la poligamia y que a medida que aumente las relaciones sexuales (se entiende en un mismo momento y con individuos distintos) aumente su volumen corporal. Humanos de sexo masculino incluye a los mamíferos y algunos son polígamos, pero la evidencia no demuestra que en las culturas en que se practica la poligamia sus elementos masculinos tengan un volumen corporal mayor que el de aquellas culturas que no la practican. A veces, el sujeto de la ley no queda claramente expresado desde el punto de vista gramatical. Por ejemplo, hay algunas formulaciones del segundo principio de la termodinámica en las que no se menciona la entropía. En otros casos el sujeto gramatical no es precisamente el objeto del que se predica la regularidad, por ejemplo, en la ley de los gases ideales el hidrógeno es el sujeto gramatical, en cambio de quien se predica la regularidad es de todos los gases. Vamos a señalar algunos criterios de universalidad y a analizar hasta quópunto son patrimonio de las leyes o los poseen también otro tipo de geiieralizaciones. Como en el caso de las regularidades, está claro que e carácter universal es una condición necesaria (con matices como luegàveremos) de las leyes, pero no es una condición suficiente ya que no todas las generalizaciones son leyes. Al establecer los criterios de universalidad lo que hacemos es acotar al máximo aquellos sentidos de universalidad que son característicos sólo de las leyes. Los sujetos de las leyes son generales, es decir, son cuerpos (Ley I de Newton), sistemas termodinámicos (Principio II de la termodinámica), gases (ley de Charles-Gay-Lussac) y no un proyectil, esta agua o este hidrógeno, respectivamente. Por ejemplo, una ley que rezara así:
«todas las bolas caen con movimiento acelerado si no se las sostiene», violaría esta condición. Los universales con los que se formulan las leyes no deben ser restrictivos. Ejemplos de universales restrictivos serían: (1) Todos los hombres de esta habitación son calvos. (2) Toda manzana de la cesta b en el momento I es roja. En cambio los universales de las leyes de Newton no son restrictivos. Una ley es universal en el sentido de que lo que se dice sobre un sujeto se supone que vale para cada instancia o muestra particular. Es decir, si el sujeto de la ley se refiere a los gases, cada muestra de
160
mrnobucción A LA Pwosorlx DE LA cnaNc1A
gas tiene que exhibir la regularidad expresada por la ley. En una palabra, una ley no admite excepciones. Aquí hay que determinar cómo interpretamos esta restricción de los enunciados generales en el caso de las leyes probabilísticas, ya que, tomada al pie de la letra, esta restricción no se cumple para las leyes probabilísticas. Una ley no puede introducir referencias a objetos particulares. Una ley no puede ser formulada en los términos siguientes: (3) Los ángulos entre las caras equivalentes de los cristales del diamante expuesto en el Museo de la Ciencia de Barcelona medidos a la misma temperatura son constantes. (4) Todos los 16 cubos de hielo de la bandeja del refrigerador tienen una temperatura inferior a 10 grados centígrados. Sin embargo, Kepler cita al Sol en una de sus leyes y Galileo en la ley del péndulo simple hace referencia a un lugar específico. La cuestión es si tenemos criterios adicionales que nos permitan distinguir entre (3) y (4), por un lado, y las leyes de Kepler y Galileo, por otro. Achinstein propone el criterio de que el mencionar objetos específicos no es una violación del criterio de universalidad si en el tiempo que se formula la ley no se conoce que la regularidad afecte a términos más generales, es decir, si el sujeto de la ley de Kepler es el Sol, pero no se conoce otro sujeto posible más general, puede considerarse una ley. En el caso de que los cristales expuestos en el Museo de la Ciencia de Barcelona y los cubos de hielo fueran los sujetos de una ley, ésta no sería una Icy porque el sujeto puede ser sustituido por otro más general, por ejemplo, «todos los cristales de la misma temperatura» y «todo trozo de hielo».
Hempel (Hempel, l979:267) hace otra distinción, agrupando (l) y (2) por un lado, (3) y (4) y las leyes de Kepler, por otro. El criterio que introduce para esta distinción es que mientras el segundo grupo, si bien de extensión finita, es consecuencia de leyes más inclusivas cuyo alcance no es limitado, el primer grupo no tiene esta característica. Esto lleva a Hempel a distinguir entre leyes fundamentales y leyes derivadas. Las leyes fundamentales son oraciones legales, de forma universal, sin ocurrencias esenciales (es decir no eliminables) de designaciones de objetos particulares y con predicados que sean de índole cualitativa pura. Esta restricción sobre los predicados de las leyes fundamentales su-
LAS LEYES CIENTÍFICAS
pone aceptar sólo universales puros, entendiendo por ell0S 3'-IUCUOS enunciados que no hacen referencia a objeto concreto alguno ni a ninguna localización espaciotemporal. Así, los términos «suave››, «verde››, «más caliente que», «mujer››, «padre de», constituyen P1'¢d¡¢a“ dos cualitativos puros, mientras que «más alto que Colón», «medieval››, bolchevique›› no lo son. Desde esta clasificación (1) Y (2) 110 Sella" 1°' yes de ningún tipo, y (3) y (4) y las leyes de Kepler Y Gama) seña" leyes derivadas. Las leyes de Newton serían leyes fundamentales.
3.3.
Ley y necesidad
El concepto de necesidad ligado a las leyes científicas y, en particular, a las leyes de la naturaleza ha sido un tema sobre el '-ll-1° han escrito todos los filósofos que han hecho alguna reflmción sobre la cienciaƒdesde Aristóteles hasta los positivistas del siglo xx. En el COHICXIO de las\'leyes científicas se entiende necesidad como contrapuesto a continïäcia, posibilidad, accidente y coincidencia. niendo en cuenta el tipo de enunciados con los que expr¢SHm0S las leyes, a saber: «Todas las x que cumplen la condición A cumplen la condición B», nos planteamos qué tipo de relación hay entre A y B. Si a la condición A la llamamos condición antecedente y a la condición B condición consecuenle, lo que interesa es poder iflll'0dUC¡l' criterios para distinguir las generalizaciones en que la l'0laCíÓl1 CHÍW antecedente y consecuente es necesaria de aquellas en que dicha relación es accidental. Vamos a ver algunos criterios que pueden establecer esta distinción:
a) La relación entre la condición antecedente y la COHSGCUCHÍG df* un enunciado es necesaria cuando dicho enunciado es dedll¢ibl¢ de una ley, cosa que no puede ocurrir en una generalización accidental.” b) Una ley puede servir de base para una explicación, cosa que no puede hacer una generalización accidental (Hempel 1977ï33)- La ley de I-lofstadter puede explicar el hecho de que la autora de este libro hubiera planeado terminarlo en agosto de 1992 Y› Sin Cmbafã@ no estuviera terminado hasta diciembre de ese mismo año. En cam3. Criterio propuesto por H. Reichenbach en Elements' of SJMIUOÍÍC LOSÍC (1947) Y N0m0IogicaI Slatements and Adrnissible Operations (1954).
162
rN'rRoDuccróN A LA 1=n.osoFiA Dra LA c|ENc1A
bio, este hecho no queda explicado por una generalización del tipo «las profesoras de la Universitat Autònoma de Barcelona siempre se retrasan en la finalización de los libros que escriben». c) Si una generalización es una ley siempre podemos encontrar nuevos ejemplos que la confirmen. Goodman (Goodman, l983:73) dice que si un enunciado es legal -independientemente de su verdad o falsedad o de su importancia científica- puede recibir confirmación de una de sus instancias. Cualquiera de las leyes antes enunciadas constituyen ejemplos de esta característica. La cuestión está en si hay enunciados universales que son considerados como leyes pero que (al menos hasta el momento) no tienen instancias concretas, o, dicho de otra forma, no tienen modelos reales. d) Si una proposición expresa una ley entonces se puede apelar al hecho de que una ocurrencia satisfaga un término-sujeto y la condición antecedente para ofrecer una correcta explicación de por qué dicha ocurrencia satisface la condición consecuente, es decir, se puede recurrir a la condición antecedente para contestar a preguntas como la siguiente: «¿por qué esta ocurrencia satisface la condición consccuente?›› (Achinstein, l97l:43). Esta condición es similar a la b), la única diferencia es que mientras Hempel pone el acento en su capacidad explicativa, Achinstein remarca su capacidad de poseer modelos reales. e) Se puede atribuir necesidad a una ley si hay hechos que proporcionan fuerte soporte a su favor y en contra de sus competidores. En el caso de encontrar alguna ocurrencia que pertenezca al sujeto y satisfaga la condición A pero no la condición B, desde un punto de vista falsacionista, es suficiente para abandonar la ley. Achinstein es más moderado y dice que, aunque hay que tener en cuenta los con-
traejemplos, habrá cierta reticencia a abandonar la ley, pudiéndose tomar varias alternativas: pensar que no está claro que la ocurrencia pertenezca al sujeto o que no satisface plenamente la condición A; pensar que la ley está restringida a cierta clase de casos; y sostener que la ley es sólo una aproximación (Achinstein, l97l:46). Esta condición constituye un grave problema para el establecimiento de leyes en muchas ciencias sociales. La posibilidad de falsación constituye para Popper un criterio de demarcación. En los ejemplos de leyes antes expuestos, ni la ley de Comte ni la de Durkheim resistirian la prueba de Popper. f) La necesidad de las leyes puede entenderse en el sentido de que expresan verdades analíticas. El carácter analítico puede expresarse, bien apelando al uso de sus términos, bien apelando a expresiones del
|.As uzves cnzN†ir=rcAs
163
tipo «todas las X son P» cuando la propiedad P es semánticamente pertinente para ser X (Achinstein, 1971154). Este criterio de Achinstein no añade nada a la clarificación de las leyes. En las verdades analíticas, procedentes de la matemática y de la lógica, la necesidad está implícita, y en el caso de enunciados analíticos en que el predicado esté contenido en el sujeto, no se considerarían leyes. Por ejemplo, «los solteros no están casados» es un enunciado verdadero, con un vínculo de necesidad entre la condición antecedente (ser soltero) y la condición consecuente (no estar casado), pero no es una ley. g) Una proposición expresa lo no accidental o lo no coincidente si hay una explicación correcta de por qué la ley está justificada. Por ejemplo, podemos atribuir necesidad a la ley de Boyle en virtud de la teoría cinética de los gases. Este criterio consiste en pensar que, a las proposiciones que puedan fundamentarse en una teoria, se les puede atribuir aut\omáticamente, no accidentalidadf* Tal como está planteado este crite `o, parece que el estar integrado en una teoría es una condición sulìci nte, aunque no necesaria. Sin embargo, la necesidad no puede fun rse sólo en este criterio independientemente de los otros, a no ser ue lo añadamos «en una teoría probada». En realidad, es traspasar el problema de las leyes a las teorias. h) N. Rescher (Rescher, 1970) llama a la necesidad de las leyes «necesidad nómica›› y la liga a los enunciados legales. Rescher establece como criterio, para distinguir las generalizaciones que son leyes de las que no lo son, la legalidad de sus enunciados correspondientes y una de las características de los enunciados legales es la necesidad nómica. En este caso es una definición circular ya que la necesidad nómica se define en función de la legalidad y viceversa. La postura de Achinstein, a diferencia de otros autores que introducen criterios de forma unívoca, es que no es posible definir condiciones necesarias y suficientes para el concepto de ley; lo único que podemos pretender es encontrar características que sean pertinentes y más o menos centrales para la definición de leyf 4. Este criterio fue propuesto por Achinstein (l97l), sin embargo, podría ser oompartido por todos los cientificos y filósofos dela ciencia. Una cuestión más discutida seria hasta qué punto este criterio se considera como el único válido en la distinción entre generalizaciones accidentales y no-accidentales. S. Véanse las consideraciones en torno a los conceptos de pertinencia y centralidad introducidos en el marco de las definiciones en el capítulo 2.
l64 3.4.
rm-Roouccrou A LA Fnosortx DE LA cr|aNc|A El papel de los contrafácticos en la caracterización de las leyes
Entre los criterios para distinguir las generalizaciones que son leyes de las que no lo son adquiere especial importancia el criterio basado en los contrafácticos. Podríamos enunciarlo en los términos siguientes: «Una ley puede servir -mientras que una generalización accidental no- para justificar condicionales contrafa'cticos››. Vamos a detenernos en la propuesta de N. Goodman (Goodman, 1983) y de N. Rescher (Rescher, l964), dos autores que han tomado los contrafácticos como criterio para establecer las diferencias entre leyes y generalizaciones accidentales. Un contrafáctico -o condicional contrario a los hechos- es un enunciado condicional en el que interviene la noción de posibilidad, expresada gramaticalmente por la introducción del subjuntivo. La forma estándar de un contrafáctico es: «Si A fuera (hubiera sido) el caso, entonces B sería (habría sido) el caso», donde A no es (no ha sido) de hecho el caso. Así, la aserción «si hubiéramos puesto esta vela de parafina en una caldera de agua hirviendo, se habría fundido» podría justificarse recurriendo a la ley de que la parafina es líquida por encima de los 60 grados centígrados, además del hecho de que el punto de ebullición del agua son 100 grados centígrados. Sin embargo, el enunciado «todos los minerales que hay en esta caja contienen hierro» no podría ser utilizado de forma análoga para justificar el enunciado contrafáctico «si hubiéramos puesto este mineral en la caja, contendría hierro». Goodman plantea una serie de problemas filosóficos acerca de las leyes, de los enunciados contrafácticos y del razonamiento inductivo, examinándolos desde un punto de vista analítico. Sin ánimo de repro-
ducir el interesante análisis de Goodman vamos a hacernos eco de algunas de las cuestiones que plantea: a) Clasificación de los contrafácticos. Condicional semífáctico es el que tiene la fuerza de negar lo que es afirmado por su opuesto. Así, «incluso si hubiera tomado la medicina no habría sanado» nos dice que el tomar la medicina no implica sanar. Condicional contraidéntico es el que hace referencia a individuos, por ejemplo: «si Carnap fuera Wittgenstein, habría escrito el Tractarus». Condicional contracompnrativo es el que establece una comparación, por ejemplo: «si tuviera más dinero del que tengo ahora, me compraría un coche». Condicio-
|.As LEYES c|EN1'lr-*rcAs
165
nal contralegal es el que el antecedente expresa una imposibilidad, por ejemplo: «si los triángulos fueran cuadrados, iría de viaje». b) Problema lógico. Teniendo en cuenta los valores de verdad del condicional, todos los contrafácticos son verdaderos ya que tienen el antecedente falso. Así, (l) «si Julio César no hubiera cruzado el Rubicón, otra hubiera sido la suerte de Roma» y (2) «si el vaso se hubiera caído se habría roto» son proposiciones verdaderas. La conexión entre la condición antecedente y la condición consecuente está dada por la lógica. De este problema se deduce que la conexión tiene que ser entre el antecedente y el consecuente más otras proposiciones que describan condiciones pertinentes. Por tanto, el problema es definir las condiciones pertinentes, es decir, especificar qué enunciados hay que añadir al antecedente para inferir el consecuente. Para ello hay que tener en cuenta que dicha inferencia no es una ley de la lógica sino una ley empírica. c) El problema de las condiciones pertinentes. El problema de las condiciones pertinentes es que, si el antecedente es falso, aunque le añada estos enunciados el conjunto continuará siendo falso. Si «A ›› es el antecedente, «C›› el consecuente y «S›› el conjunto de enunciados que forman las condiciones pertinentes, entonces con S como antecedente. Si A es falso, el condicional «A A S -› C» seguirá siendo verdadero. Goodman intenta una serie de restricciones sobre los enunciados de las condiciones pertinentes, tales como que las leyes sobre las que se basan los contrafácticos no sean vacías y que A y S sean compatibles, pero ninguna parece ser definitiva, es decir, ninguna puede cons-
tituirse en condición suficiente, para determinar la verdad de un contrafáctico. d) La relación de cosostenibílidad (cotenability). las condiciones pertinentes «S›› no sólo tienen que ser compatibles con A sino también cosostenibles simultáneamente. A es cosostenible y la conjunción «A y S» cosostenible en simisma, si no se da el caso de que S pudiera no ser verdadera si A lo fuera. Es decir, A y S tienen que poder ser defendibles o justiñcables conjuntamente. l-lay que señalar que, incluso esta solución, hay que verla como parcial en el sentido de que esto no soluciona el problema de la inducción y de la confirmación de los enunciados en función de la eviden-
166
iN'rizoDUccióN A LA i=iLosoi=tA De LA ciENciA
cia y del conocimiento dado. Concluye Goodman su estudio de los contrafácticos con las siguientes consideraciones: En conclusión, algunos problemas sobre contrafácticos dependen
de la definición de cosostenibilidad, que a su vez parece depender de la solución anterior a aquellos problemas. Otros problemas requieren una adecuada definición de ley. El criterio aproximado de ley aqui propuesto es razonablemente satisfactorio al excluir los tipos de enunciados no aceptados y, en efecto, reduce un aspecto de nuestro problema a la cuestión de cómo definir las circunstancias bajo las cuales un enunciado es aceptable independientemente de la determinación de cualquier instancia dada. Pero esta cuestión no sé cómo contestarla (Goodman,
193321).
Estos problemas, que suponen cuestiones metafilosóficas y metafísicas, los dejaremos para la última parte de este capítulo sobre las leyes científicas. Rescher (Rescher, l970:98) introduce un segundo elemento para caracterizar los enunciados legales (el primero, ya hemos visto antes, era la necesidad nómica), a saber: la fuerza hipotética, entendien o por
ello el poder de justificar los contrafácticos. Rescher mantiene que confirmar un contrafáctico es a eptar una serie de creencias. Por ejemplo, confirmar que «si dejara de sostener este cuerpo se caería con movimiento uniformemente acelerado» implica partir de las siguientes creencias: (1) Todos los cuerpos que no se sostienen caen con movimiento uniformemente acelerado. (2) El cuerpo B es sostenido en el tiempo I.
(3) El cuerpo B no cae en el tiempo t con movimiento uniformemente acelerado. Supongamos la situación en que el cuerpo B no es sostenido en el tiempo I. Esto hace abandonar (2) y, en consecuencia, no podemos mantener (1) y (3) simultáneamente. Abandonar (3) y retener (l) es confirmar el contrafáctico siguiente: «si el cuerpo B no hubiera sido sostenido en el tiempo I, hubiera caído con movimiento uniformemente acelerado en t››. Si (l) es una ley siempre hay que retenerla en contra de lo que no es una ley.
LAs LEvm ciENrli=icAs
167
(Jomparemos este caso con otro análogo, pero esta vez (1) no es min ley: (l) Todos los hombres de esta habitación son rubios.
(2) Pere es un hombre que no está en esta habitación. (3) Pere no es rubio. Supongamos la situación en que Pere es un hombre que está en v-mi habitación. Esto nos hace abandonar (2), pero al tener que elegir mire (l) y (3) no tenemos una alternativa clara y unívoca. La razón vu porque no nos atrevemos a confirmar el contrafáctico siguiente: «si I'crc hubiera estado en esta habitación, hubiera sido rubio». Generalizando estos ejemplos, podemos decir que confirmar un miitrafáctico significa partir de las creencias siguientes: (I) 'Ibdas las S que satisfacen A, satisfacen C. (2) i, que es un S, no satisface A. (3) i, que es un S, no satisface C. Supongamos que i, que es un S, satisface A, si (1) es una ley, entonces al abandonar (2), y no poder mantener simultáneamente (1) y (3), abandonaremos (3) y retendremos (1). La propuesta de Rescher aclara el papel que los contrafácticos pueden representar en la justificación de las leyes y en la distinción entre leyes y generalizaciones accidentales, sin embargo; dejan sin resolver los problemas planteados por Goodman en sus conclusiones. La razón es que las cuestiones pendientes no pueden resolverse con criterios extraídos, ni del primer, ni del segundo nivel de teorización. Las posibles soluciones (o al menos consideraciones) hay que hacerlas desde
otro plano, a saber: metafilosófico y metafísico. Este es el objeto del próximo apartado. 4.
CrrEs'rioNEs ME'rAErLosó1=icAs Y i/iErAFisicAs DE i.As LEYES crEN'ri'i=rcAs
Desde el punto de vista de la concepción que defiende la naturalización de la epistemología poco más podríamos añadir a lo dicho sobre las leyes científicas. Quine en «Epistemology Naturalized›› señaló que Hume nos enseñó que no podemos justificar nustro conocimiento,
168
|NTRooucc|óN A LA r=1uosoFlA DE LA c|ENc|A
señaló también que el programa cartesiano para la justificación habla fracasado, del mismo modo que el fenomenalismo representado por Carnap en Logische der Aufbau. Además de las alternativas a Quine, en relación a la naturalización de la epistemología, como la procedente de Putnam (Putnam, 1982) y de revisiones como la de Giere (Giere, 1988), los filósofos no han cejado en su empeño de encontrar fundamentación al conocimiento científico y de superar posturas escépticas. A lo largo del libro se habla varias veces del problema de la inducción. A primera vista puede parecer reiterativo pero, en realidad, el problema de la inducción afecta a diversos temas, fundamentalmente a las cuestiones relacionadas con la justificación de hipótesis y con las leyes pero, aunque de forma implícita, también en la explicación científica. Existen intentos de solucionar el problema de la inducción desde diversas perspectivas, por ejemplo, con un criterio práctico, desde la lógica inductiva, recurriendo a principios metafísicos y aplicando el cálculo de probabilidades. Hay otros problemas que se sitúan en este nivel de análisis filosófico pero que no proceden de la fundamentación del conocimiento sino de cuestiones metafísicas relacionadas con las leyes, como la causalidad y el determinismo. En este punto la cuestión esta en ver hasta qué punto la causalidad y el determinismo constituyyíelementos imprescindibles de las leyes científicas. I En el caso de las leyes, la distinción entre cu`__estiones metafilosóficas -relacionadas con la valoración epistemológlca de la metateoríay cuestiones metafísicas -relacionadas con principios no empíricoses a veces débil ya que hay puntos importantes de contacto entre cuestiones metafilosóficas y metafísicas.
Vamos a analizar este tercer nivel de análisis filosófico a través de dos temas: la inducción y la causalidad, ambos tienen aspectos metafilosóficos y metafísicos pero, al mismo tiempo, tienen cada uno de ellos sus problemáticas específicas. 4.l.
El problema de la inducción°
Tanto en la vida cotidiana como los propios cientificos en su quehacer investigador se hacen continuamente inferencias inductivas. Por 6. Pam un estudio sobre la inducción y las diversas altemativas vhnse A. Griinbaum y W. Salmon, eds. (1988), y M. Black. R. Brailhwaile, R. Russell y W. Salmon (1976).
Lxs uaves c1EN'rIi=|cAs
169
lo que se reñere a nuestro objeto de estudio, a saber: las leyes científirus, resulta que en la contrastación de las hipótesis que luego elevaremos al estatus de ley, hacemos una inferencia inductiva. El problema está en que, desde el punto de vista lógico, en un argumento inductivo Ius premisas hacen «probable›› la conclusión o, dicho en otras palabras, «hacen razonable» la conclusión, pero no la «hacen necesaria» como en los argumentos deductivos. En este punto surge el problema «lc cómo fundamentar las leyes científicas. Newton establece la «regla de razonamiento en filosofía» que está formulada en los términos siguientes: Las cualidades de los cuerpos, que no admiten intensificación ni disminución en sus grados, y que hemos encontrado presentes en todos los cuerpos dentro del ámbito de nuestros experimentos, han de estimarse como cualidades universales de todos los cuerpos (Newton, Mathematical Principles, II, 398-400) (Losee, l985:l0l).
Esta regla expresa el principio de la inducción: a partir de una cierta evidencia argumentamos que podemos sacar conclusiones que van más allá de dicha evidencia. Este principio expresa la creencia de que el futuro será igual que el pasado. Pero ¿cómo fundamentar este principio? Si la respuesta es que hasta ahora ha funcionado correctamente estamos dando un argumento circular, ya que funda el principio de la inducción en una inferencia inductiva. Hume es el que de forma más sistemática y contundente puso de relieve este problema y su respuesta fue que no había justificación racional para el problema de la inducción. Hume lo expresa en los términos siguientes: Se debe confesar que la inferencia no es intuitiva; ni demostrativa; ¿de que naturaleza es, entonces? Decir que es experimental es una petición de principio, ya que todas las inferencias a partir de la experiencia
suponen, como fundamento, que el futuro se asemejará al pasado, y que poderes semejantes estarán en conjunción con cualidades sensibles semejantes. Si hay alguna sospecha de que el curso de la naturaleza pueda cambiar, y de que el pasado no pueda establecer reglas para el futu-
ro, todas las experiencias serán inútiles y no podrán dar origen a ninguna inferencia o conclusión. Por tanto, es imposible que argumentos procedentes de la experiencia puedan probar esta semejanza del pasa-
170
mrnoouccion A LA ritosoi-'IA oe LA c|ENclA do al futuro; ya que estos argumentos están basados en la suposición de esa semejanza (Hume, 1751, en Black y Braithwaite, 1976119).
Para Hume, pues, la creencia en la uniformidad de la naturaleza no tiene una base racional, esto es, no tenemos ninguna justificación para creer que las cosas continuarán comportándose como se han comportado hasta ahora. Lo creemos y actuamos sobre esta suposición como una cuestión de hábito, pero no hay justificación para que lo
hagamos asi. La postura de Hume tuvo (y sigue teniendo) una repercusión sobre la concepción de las leyes científicas -que en la literatura filosófica, como hemos visto, se las denomina muchas veces leyes de la naturaleza- en el sentido de que el aceptar o no el principio de la inducción determina las diversas concepciones sobre las leyes científicas. Esta aceptación o rechazo del principio de inducción puede ser por los motivos que sean: aqui no vamos a entrar en las alternativas a la justificación de la inducción, aunque hay que reconocer que cualquier variación en la justificación de este principio repercute directamente sobre la base justificativa de las leyes. La teoria sobre qué es una ley, asociada a la postura humeiana, es la denominada «teoría de la regularidad» que consiste en reducir las leyes a regularidades, denominadas a veces «unifor ¡dades humeianas››. La teoria de la regularidad supone una defivyilón de causa en los términos siguientes: I \ Podemos definir «causa›› como objeto precedente y contiguo a otro,
de modo que todos los objetos semejantes al primero estén situados en relaciones parecidas de precedencia y contigüidad con respecto a los objetos semejantes al último (Datado, libro I, parte Ill, sección XIV). La constante conjunción de eventos establece un hábito que lleva a la mente a esperar un evento de un tipo determinado cuando aparece otro evento como el del caso anterior. La base de que el futuro sea igual que el pasado está en la costumbre o hábito, que pasa a desempeñar un rol muy importante en la fundamentación del conocimiento. Esto, según muchos filósofos, es un escándalo para la filosofía, ya que si Hume está en lo cierto nuestra creencia en la racionalidad de la ciencia está completamente sin fundamento. No es pues extraño que, desde diversos puntos de vista, se hayan buscado salidas a este escepticis-
mo epistemológico de Hume.
LAs LEYES ciEN'riFicAs
171
El problema de la inducción también puede plantearse en términos de la distinción analítico-sintética. Hume distingue claramente entre rstas dos categorias como excluyentes. Es en este sentido que puede considerarse que los juicios sintéticos-a priori de Kant constituyen una mlución al problema de la inducción. Decir que no hay verdades sinléticas a priori es aceptar que nada puede ser conocido sobre el mundo. En este punto hay que señalar que, actualmente, hay filósofos empiristas que cuestionan la distinción sintética-a priori, poniendo asi cn tela de juicio cualquier tipo de conexión necesaria. Un estudio sobre los argumentos a favor y en contra de mantener cl principio de la inducción como principio metafísico o sobre la polémica para mantener, o rechazar, la distinción analítico-sintética seria interminable y va más allá de las pretensiones de este libro introductorio. 4.2.
Las leyes de la naturaleza como relación entre universales
La búsqueda de alternativas a Hume y, por tanto, de la posibilidad de la fundamentación de las leyes, no ha cejado a pesar de las dificultades. A continuación vamos a exponer una de estas alternativas consistente en ver las leyes de la naturaleza como una relación entre universales. D. Armstrong (Armstrong, 1983) no pone en duda que las leyes de la naturaleza expresen regularidades pero lo que cuestiona es que sean sólo esto. La crítica de Armstrong a la teoria de la regularidad discurre en tres fases: i) Demostrar-quelas uniformidades humeianas no son suficientes para la existencia de leyes de la naturaleza. Para ello basta con detectar uniformidades humeianas que no sean leyes de la natura1eza;7 ii) la segunda fase consiste en investigar casos, reales o posibles, donde existan leyes pero falten uniformidades humeianas;' y iii)
incluso en el caso de que las leyes de la naturaleza tengan la forma de «las F son G» y que se manifieste enla uniformidad de que «cada F es una G», hay grandes diñcultades para identificar ley y uniformidad.” 7. Los ejemplos que pone Armstrong van en la linea de los ejemplos que hemos puesto en el apartado sobre «ley y regularidad», en el sentido de encontrar enunciados que expresaran regularidades pero no eran leyes. 8. Estos casos se refieren a la discusión sobre si la regularidad era o no una condición necesaria para que un enunciado fuera una ley. 9. Pensemos en las conslricciones impuestas a los enunciados universales para distinguir entre generalizaciones accidentales y leyes.
172
mrnooucciou A LA Fitosot-'IA DE LA crENciA
Armstrong concluye que si las leyes de la naturaleza no son más que uniformidades humeianas, entonces el escepticismo sobre la inducción, con todo lo que ello comporta, es inevitable. Una vez descartadas todas las posibilidades de mantener la teoría de la regularidad sobre las leyes de la naturaleza, Armstrong presenta una propuesta que permita una conexión de necesidad entre la condición antecedente y la condición consecuente de los condicionales que son leyes de la naturaleza. Según Armstrong una ley de la naturaleza dice lo siguiente: (1) Las F son G. Podemos interpretar (1) de tres formas distintas: (2) Todas las F son G. (3) Es físicamente necesario que las F sean G. (4) Es lógicamente necesario que las F sean G. La teoria de la regularidad interpreta (1) como (2). Armstrong muestra sus preferencias por (3). La formulación (2) es más débil que la (3) y ésta, a su vez, más débil que (4), pero tanto (3) como (4) suponen el reconocimiento de la realidad de los universales. Si tomamos la interpretación (3), la cuestión está en encontrar el fundamento ontológico de necesidad (N) que une las F y las G. Para ello analizamos en qué consiste ser una F y ser una G. ice Armstrong al respecto: \ No sé cómo puede hacerse a no ser que acordem`os que hay algo
idéntico en cada F que lo cataloga como una F; y algo idéntico en cada G que lo cataloga como una G. Entonces y sólo entonces, puede la colección de elementos necesarios de cada individuo hacer que sea algo más que una simple colección. Ya que entonces y sólo entonces, podemos decir que una F necesita ser una G y a causa de esto, cada individuo de G debe ser una G. Pero esto es lo mismo que decir que la necesidad implicada en una ley de la naturaleza es una relación entre universales (Armstrong, l983:78).
La propuesta de Armstrong es que una ley de la naturaleza es una relación entre universales, y sólo entonces queda fundamentado el operador de necesidad (N) entre las F y las G, explicitada de la forma siguiente: N(F,G). Ya que el concepto de universal desempeña un papel crucial en la
LAs LEvEs ciEN'rtrrcAs
173
caracterización de las leyes de la naturaleza, Armstrong hace un paréntesis para aclarar lo que entiende por universal: Los universales son propiedades monádicas o relaciones diádicas,
triadicas, n-ádicas. Una propiedad debe ser la propiedad de algún particular real; una relación se da entre particulares reales. Lo que es real, sin embargo, no hay que limitarlo a lo presente. El pasado, el presente y el futuro pueden ser igualmente reales. Un universal no necesita tener instancias ahora (Armstrong, 1983:82).
Dentro del reconocimiento del realismo de los universales, Armstrong distingue entre realismo a priori y realismo a posteriori, sosteniendo lo segundo que define como sigue: los universales que existen en el mundo, esto es, las propiedades que
tienen los particulares y las relaciones que hay entre particulares, hay que decidirlo a posteriori, sobre la base de la ciencia total (Armstrong,
1983:83). Por tanto, las conexiones nómicas entre universales no pueden ser establecidas a priori. Una vez definido lo que entiende por universales, Armstrong hace la siguiente formulación de las leyes de la naturaleza: (1) N(F,G) implica V x Fx Gx) (2) V x (Fx -> Gx) no mplica N(F,G) Esta formulación no está e nta de dificultades, según reconoce el pro-
pio Armstrong, pero ningu insalvable. Si una ley es una relación entre universales, entonces los va res, instancias o interpretaciones de la ley serán los particulares de la elación que existe entre universales. Por tanto, así como los universaies están presentes en cada particular, del mismo modo dicha relación está presente en cada uno de los valores, instancias o interpretaciones de la ley. Siguiendo con la caracterización de lo que podriamos llamar operador de necesidad (N), Armstrong se pregunta si «N›› es a su vez un universal. Antes de responder establece varios niveles conceptuales tanto entre los particulares como entre los universales, dando por supuesto que los universales ocupan un lugar de rango superior a los particula-
174
INTRODUCCION A LA F|LosoFíA DE LA CIENCIA
res y que no existe particularidad o universalidad en abstracto sino en función de propiedades o relaciones. Supongamos que dos particulares «a›› y «b›› son particulares de primer orden y «R›› un universal diádico de primer orden. Entonces «Rab››, considerado como una situación concreta en el sentido de hecho atómico es un particular de primer orden. Con estas premisas vamos a analizar la formulación de Armstrong de ley natural, a saber: N(F,G), donde «F›› y «G›› son universales de primer orden y «N›› un universal de segundo orden. La cuestión está en cómo caracterizamos la situación en la que damos un valor (léase interpretación o también la búsqueda de una instancia), por ejemplo, «a es F» y por N(F,G) la «a›› es también «G››. La interpretación de una ley en un caso concreto equivale a un hecho atómico como el caso de «Rab››, en el que «R›› equivale a «N››, «a›› equivale a «donde las a son F» y «b›› equivale a «donde las a son G». Por lo tanto, la interpretación concreta de una ley sería un hecho atómico de segundo orden. Algunos lógicos pondrían objeciones a estas consideraciones, pero Armstrong dice que no hay problemas ni contradicciones porque lo que podría parecer contradictorio está en niveles distintos. Armstrong extrapola la solución a otros tipos de leyes como son las leyes funcionales y las leyes probabilistas. 'lämbién extrapola su propuesta a aquellas teorizaciones que no tienen un rango claro como leyes de la naturaleza a fin de reformularlas en ,su marco conceptual. Por ejemplo, las correlaciones o leyes asociativas tienen algunas características de las leyes como la universalida/d pero no la necesidad; las identificaciones cientificas, como la defiriición del agua en términos de l~l,O; las leyes exclusivas como las queintroducen universales
negativos; o las leyes disyuntivas como las que introducen una disyunción en su condición consecuente. Finalmente, veamos las propiedades formales de la relación de necesidad: 1. N es irreflexiva. Una ley de la naturaleza no puede tener la forma «N(F,F)››. 2. N es no-transitiva. De N(F,G) y N(G,F) no se sigue N(F,H). Puede ser que en algún caso sea cierto pero entonces lo consideraríamos una ley derivada. 3. No hay contraposición entre F y G. De N(F,G) no se sigue N(noG, no-F). Si así ocurriera sería una ley derivada.
LAs LEvEs crEN'riFicAs
175
4. N es no-simétrica. De N(F,G) no se sigue N(G,F). Puede ser simétrica pero no necesariamente. Respecto a la propuesta de Armstrong podemos hacer las consideraciones siguientes: a) la apelación a los universales para resolver el problema de la inducción supone conectar la solución de /problemas científicos al plano metafísico; b) la puntualización de que los universales no pueden establecerse a priori indica que Armstrong, aunque no renuncia a la autonomía de la filosofía de la ciencia, no por ello la desliga de los resultados de la ciencia.
4.3.
Ley de la naturaleza, causalidad y determinismo”
Si nos situamos en la época en que la mecánica clásica era el paradigma prevalente en física y ésta el modelo a imitar por todas las demás disciplinas, encontramos que «ley científica», «ley de la naturaleza», «ley causal» y «ley determinista» eran expresiones con el mismo significado. Pero han ocurrido una serie de acontecimientos en la ciencia que, actualmente, hacen insostenible esta equivalencia. Entre las razones que más han contribuido a poner en tela de juicio dicha equivalencia están: la mecánica cuántica, la falta de criterios claros para la demarcación entre ciencias naturales y ciencias sociales y la dificultad de definir el concepto de naturaleza. Desde Hume, la tradición empiricista ha sido muy reticente a hablar de causas. B. Russell decía: La ley de la gravitación ilus rará lo que ocurre en cualquier ciencia exacta Se encuentran cie ecuaciones diferenciales que rigen en cada instante para cada parti la del sistema Pero no hay nada que pueda llamarse con propiedad rcausa» y nada que pueda llamarse con propiedad «efecto›› en un sist ma de este tipo (Russell, 1975). \
Sin embargo, filósofas de la ciencia tan solventes como N. Cartwright han vuelto a recuperar la cuestión de la causalidad como un tema fundamental para el análisis fi1os\ófico de la ciencia. Cartwright 10. Para un estudio más detallado de la relación entre ley de la naturalidad, causalidad y determinismo, véase Estany (1991).
176
INTRODUCCION A LA I~1LosoI=iA DE LA CIENCIA
aboga por la «realidad de las causas en un mundo de leyes instrumenta1es››; justo lo contrario de la tradición empiricista que apuesta por las leyes en contra de las causas. Cartwright dice: Creo que, dada la forma como trabajan las teorías de la fisica matemática, sólo tiene sentido pensar en sus enunciados causales y no en sus leyes explicativas (Cartwright, l983:74).
Partiendo, por tanto, del punto de vista de que no rechazamos hablar de causas vamos a ver la relación que hay entre leyes de la naturaleza y leyes causales. Existe una concepción sobre las leyes de la naturaleza que identifica leyes de la naturaleza con leyes causales y, dando un paso más, relaciona las leyes causales con el determinismo. Schlick, en un momento determinado, asume esta postura tal como muestra el texto siguiente: En primer lugar, es necesario determinar a qué se refiere el científico cuando habla de «causaIidad››. ¿Cuándo utiliza esta palabra? Obviamente, cuando supone una «dependencia›› entre ciertos eventos
Pero lo que en ciencia significa «dependencia››, en cualquier caso, está siempre expresado por una ley; causalidad es, por tanto, nada más que otra palabra para expresar la existencia de una ley. El contenido del prin-
cipio de causalidad reside claramente en la afìrm ción de que todo en el mundo sucede conforme a leyes; es indiferent si afirmamos la validez del principio de causalidad o de determinis 0 Ya que solamente cuando conocemos esto somos capaces de co prender el significado
de determinismo, que sostiene que cada evento\es un miembro de una relación causal, que cada proceso es totalmente dependiente de otros procesos (Schlick, 1931). Esta concepción de las leyes de la naturaleza respecto a la causalidad tiene consecuencias inmediatas para las leyes probabilísticas. En este punto surge inmediatamente el problema de las consecuencias para la mecánica cuántica ya que, dada la identificación que Schlick hace entre ley de la naturaleza, causal y determinista, por un lado, y la incompatibilidad entre leyes probabilísticas y causales, por otro, resulta que la mecánica cuántica no sería una ley de la naturaleza. Schlick es consciente de esta contradicción y, después de una serie de reflexiones, llega a la conclusión de que hay que suprimir la causalidad de las leyes de la mecánica cuántica. Schlick se pregunta qué se entiende
LAs Lares c|raNrIr=1cAs
177
cuando decimos que la mecánica cuántica hace imposible el principio de causalidad, a lo que responde que es imposible tal principio porque enla mecánica cuántica son imposibles las predicciones precisas. El principio de incertidumbre de Heisenberg supone que no puede determinarse el estado de un sistema y, por tanto, el principio de causalidad es inaplicable. Dado que asumimos que la mecánica cuántica es empiricamente adecuada, sólo podemos adoptar dos posturas: una, decir que el principio de causalidad no es correcto, otra, que es vacío. Schlick opta por abandonar la identificación entre leyes de la naturaleza y leyes causales y así las leyes de la mecánica cuántica serían leyes de la naturaleza pero no leyes causales. Otros autores no identifican leyes de naturaleza con leyes causales. N. Cartwright distingue dos tipos de leyes. Dice al respecto: Por lo menos hay dos tipos de eyes de la naturaleza: leyes de aso~ ciación y leyes causales. Las leyes e asociación son las leyes habituales con las que tratan los filósofos. stas leyes nos dicen como dos canti« dades o dos cualidades se asocia . Pueden ser, bien deterministas -la
asociación es universal- o pro abilistas Por el contrario, las leyes causales contienen la palabra «causa›› -o algún sustituto causal- como es debido (Cartwright, 1983221). D. Bohm contrapone necesidad y contingencia, presentando la causalidad como un caso especial de necesidad y azar como un caso especial de contingencia. Su concepto de ley de la naturaleza es amplio y polifacético: Podemos comparar la estructura de la totalidad de las leyes de la naturaleza con un objeto de un gran número (en realidad infinito) de lados, que tienen facetas dentro de las facetas, facetas que reflejan facetas, facetas que consisten en un mosaico de facetas, etc. (Bohm, l97l:3l).
Tanto las leyes de azar como las leyes causales formarlan parte -según Bohm- de las leyes de la naturaleza. N. Rescher (Rescher, l970) pone el acento en la legalidad de las leyes y esto se plasma en que el «principio regulativo» necesario para las leyes científicas, no resida en el «principio de causalidad» sino en el «principio de legalidad». Dice Rescher:
178
|N†RoDuccroN A LA r1uoso|=lA DE LA cnaNc1A La ciencia es algo demasiado fundamental y profundamente enraizado para no sobrevivir al hundimiento de la causación universal. Las fenómenos pueden caer fuera de la esfera de la causalidad sin por ello desplazarse más allá del horizonte de la ciencia. Aquellos procesos esen-
cialmente estocásticos que residen fuera del ámbito causal, además, no son misteriosos e irracionales. Estos fenómenos «azarosos›› son perfectamente «naturalesn y, de hecho, gobernados por leyes (Rescher, 19701131).
En los tres autores (Cartwright, Bohm y Rescher) hay una ampliación del concepto de ley de la naturaleza que va más allá de la causalidad. Mientras Rescher presenta la irrupción de leyes estocásticas en la física como muestra de la caída de la causalidad, Bohm presenta tres tipos de relaciones causales: la relación de una-a-muchos (una causa, varios efectos), relación de muchas-a-uno (varias causas, un efecto), relación de una-a-uno (una causa, un efecto). Esta última relación es considerada por Bohm como una idealización. Cartwright aborda las leyes probabilísticas desde la causalidad diciendo: Este capitulo ha intentado mostrar que, en contra del punto de vista de muchos estadísticos y filósofos pesimistas, despues de todo puedo ir de las probabilidades a las causas. No siempre, incluso no habitualmente, pero en principio es posible precisamente en las 'rcunstancias correctas y precisamente con el tipo correcto de informació inicial (Cartwright, l989:34-35). |' l Este texto de Cartwright reafirma la idea de Bohm de hacer compatible la causalidad y las leyes probabilistas, ya que las relaciones causales de una-a-muchos no son otra cosa que el tipo de relación que encontramos en las leyes estadísticas o probabilísticas. La relación de ley científica con ley determinista no es menos compleja que su relación con causalidad. Para llevar a término un análisis riguroso de esta relación lo primero que deberíamos hacer es examinar los diferentes sentidos de determinismo e indeterminismo, lo cual, una vez más, escapa al propósito de este libro. Sin embargo, podemos hacer algunas consideraciones que nos aclaren esta relación. De acuerdo con la postura de Cartwright, el determinismo no está en función de la causalidad sino de la universalidad, por tanto, tanto las leyes de asociación como las causales pueden ser deterministas o
|.As Llaves crraN'rí|=|cAs
179
nnlrlcrministas. Aunque no estudia el tema directamente, su postura ¡mu-cc compatible con una gradación del determinismo. Además, hay mm cuestión importante y es la diferencia que Cartwright establece vmrc determinismo y causalidad, con lo cual hace posible la causali«Intl sin determinismo y viceversa. Rescher establece su propia distinción entre sistema determinista 1- lndeterminista, definiéndolos del modo siguiente: En un DS-sistema (sistema de estado discreto) estr' tamente determinista, una D-predicción (predicción deductiva) y fortiorì una Dexplicación (explicación deductiva) (y por tanto el m o de explicación y predicción más débil) son siempre posibles. En ot@ palabras, dado el estado del sistema en el tiempo t, uno puede siem re -por las leyes del sistema- deducir su estado en el tiempo l + l J: por tanto, puede
siempre D-explicar (explicación deductiva) el estadcw a cualquier tiempo t en función de lo obtenido en el tiempo t - li
En un DS-sistema indeterminista, una P-explicación (explicación probabilista) -y a fortiori ambos tipos de explicación más potentes, asi como todos los tipos de predicción y retroducción- uniformemente imposible (es decir, para todos los estados) (Rescher, l970:40-44).
Desde este punto de vista no hay gradación entre determinismo e indeterminismo y de sus definiciones se desprende que aquellos sistemas que se explican con leyes causales son deterministas y aquellos que se explican por leyes probabilistas son indeterministas. Respecto al determinismo, Armstrong distingue entre una hipótesis del determinismo en sentido fuerte y otra en sentido débil. La primera implicaría que para cada universal existe una ley determinista
(estrictamente universal) de tal forma que este universal es el consecuente de esta ley. Según Armstrong si el determinismo es una ley, tiene que ser una ley de segundo orden, de alcance universal y una ley sobre todos los universales de primer orden. La segunda implica que para cada universal de primer orden existe una ley determinista o probabilista, tal que el universal es el universal consecuente de tal ley. Es decir, todo está gobernado pero no necesariamente por leyes deterministas. En cuanto a la relación entre los conceptos analizados y teniendo en cuenta las aportaciones de autores reconocidos en el campo de la filosofia de la ciencia, hay que concluir que no pueden identificarse determinismo y causalidad, ni ley causal y ley de la naturaleza. Tam-
180
mrnopucclóu A LA |=1Losor=lA DE LA c|cNcrA
P oco el determinismo puede ser un ingrediente necesariamente aso
ciado a ley cientifica. En cualquier caso, ninguno de estos conceptos puede ser definidos a priori, es decir, sin tener en cuenta la ciencia real, tanto actual como histórica.
/ /._c
l \ 6. LAS TEoR1'As ciENTiF1CAs l.
/ *
Cuiasrromas Piu=.1.1MrNA1uzs
Las teorías cientiñcas son entidades con las que representamos nuestro conocimiento científico. No son las únicas formas de representación, y buena prueba de ello es que a lo largo de los precedentes capítulos hemos introducido una serie de categorias que, sin ser teorías, expresan parte del conocimiento sistematizado. Decir que las teorías cientificas son entidades que forman parte de un sistema conceptual general nos aclara muy poco sobre qué tipo de entidades son, pero es lo único sobre lo que habria acuerdo entre la comunidad de filósofos dela ciencia. Con ello no querria transmitir la idea de que la confusión reina entre la comunidad de filósofos de la ciencia, en este tema concreto. Lo que sí es cierto es que la caracterización de las teorias cientificas ha sido un tema clave para el análisis filosófico de la ciencia y que la concepción sobre este tipo de entidades conceptuales ha marcado muchas de las diferencias entre las diversas concepciones o tradiciones en filosofía de la ciencia.'
Las teorias cientificas pueden considerarse como uno de nuestros logros epistémicos más importantes (Thagard, 1988133). Con todo, esta afirmación ya sería incluso problemática puesto que alguien podría argüir que primero deberíamos ponernos de acuerdo sobre qué entendemos por teorías cientificas, lo cual nos lleva a plantear diversas concepciones sobre las mismas y, por tanto, de nuevo al punto de partida. 1. No pretendo hacer una exposición detallada y ecléctica de las polémicas en torno a las teorias cientificas, pero tendré en cuenta algunas de las principales concepciones sobre la naturaleza de las teorias cientificas, sin pretender que la exposición sea exhaustiva.
182
INTRODUCCION A LA Flu0soFlA DE LA clraNc1A
Hay una cuestión importante, anterior al planteamiento de las diferencias sobre la naturaleza de las teorias científicas. Se refiere a la ontologia de segundo orden y nos plantea qué tipo de entidades consideramos que forman parte de la filosofía de la ciencia. Suponga.rnos que pudiera haber acuerdo en que las teorías cientificas forman parte de la ontologia de segundo orden (O2), pero surgen dos cuestiones consecuentes: la primera es el estatus epistemológico que les concedemos y la segunda si son las únicas formas de expresar nuestro conocimiento sistematizado. Las distintas concepciones sobre las teorias cientificas no contestan a estas preguntas de forma explicita, aunque si implícitamente. Si examinamos un campo complejo de la ciencia en una fase puntual de su desarrollo, nos encontramos con un cuerpo de información relativa al objeto de investigación. Ejemplos de campos estándar de investigación son la electricidad, el magnetismo, la luz, los gases, los conflictos sociales, las relaciones de parentesco, la evolución de las especies, etc. En este contexto D. Shapere define el concepto de «dominio» en los términos siguientes: Un Doumio no es meramente un cúmulo de información relacionada, sino que es un cúmulo de información relacionada acerca del cual
hay un problema, generalmente bien del`ìnido y planteado sobrãla base de consideraciones especificas («buenas razones››). Además, di 0 problema debe ser considerado importante (también sobre bases [razonables, no sobre la base de algún «juicio de valor subjetivo››), y digno de que se haga un esfuerzo por resolverlo. Además debe ser suscep-
tible de ser abordado en el nivel de desarrollo científico en que se esté (Shapere, «Las teorias cientificas y sus dominios», en Suppe, l979:574).
No entraremos en las cuestiones relacionadas con el surgimiento de los problemas, con los criterios para establecer las prioridades en las lineas de investigación, sino que vamos a centrarnos en aquellas cuestiones que tienen que ver con el tema que nos ocupa, a saber: las teorias cientificas. Siguiendo en la perspectiva de Shapere, podemos decir que las teorias científicas son una respuesta a problemas que surgen en el dominio. De nuevo nos encontramos que lo que nos interesa es ver si las respuestas a los problemas (por supuesto problemas importantes que cumplan los requisitos que hayamos establecido para que un problema sea pertinente para un campo de investigación) sólo
LAs 1'eonlAs c|cN'rr'ricAs
133
pueden darse en los términos que usualmente llamamos «teoria››. La idea de Shapere es que sólo cierto tipo de cuestiones tienen respuesta en las teorias. Si lo que dice Shapere es correcto, es decir, sl las teorias no son «la›› respuesta sino «una›› respuesta a los problemas surgidos en un dominio, entonces tendremos que pensar que pueden darse otros tipos de entidades que también van a formar parte de la ontologia de segundo orden, de tal forma que su estatus epistemológico les permita responder adecuadamente a cuestiones del doininio. Ya no podemos dilatar por más tiempo el esclarecimiento de la naturaleza de estas entidades llamadas «teorias››. Como no partimos de cero vamos a remontamos a algunas concepciones sobre teorías cientificas. Asi podremos hablar con conocimiento de causa de hasta qué punto pueden dar cabida a las respuestas a los problemas surgidos en el dominio de un campo de investigación.
2. LA coucrapcióu sm'rAc1'rcA DE LAs 'rEoniAs Comencemos por la concepción sintáctica. Esta concepción de las teorías tiene su origen y su primera formulación en el Circulo de Viena, debida fundamentalmente a Carnap y a Hempel. Posteriormente, se desarrollaron otras versiones entre las que destacan la de Bergman, Braithwaite, Reichenbach, entre otros. Para nuestras consideraciones vamos a tener en cuenta la versión de Carnap y Hempel en la presentación de Suppe, que llama a esta concepción «Concepción Heredada» (Suppe, 1979). La versión final de la concepción henedada considera que las teorías científicas tienen una formulación canónìca que satisface las condiciones siguientes: l) Existe un lenguaje de primer orden, L (susceptible de amplia-
ción con operadores modales) en términos del cual se formula la teoria, y un calculo lógico K, definido en términos de L. 2) Las constantes primitivas, no lógicas o descriptivas (esto es, los «términos››) de L, se dividen en dos clases disjuntas: Vo, que contiene sólo los terminos de observación.
Vt, que contiene los términos no-observacionales o teóricos. Vo debe contener al menos una constante individual.
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
3) El lenguaje L se divide en los siguientes sublenguajes, y el cálculo K se divide en los siguientes subcálculos:
a) El «lenguaje observacional», Lo, es un sublenguaje de L que no contiene cuantificadores ni operadores modales, y contiene términos de Vo, pero ninguno de Vt. El cálculo asociado Ko es la restricción de K a Lo y debe ser tal que todo término no-Vo (esto es no primitivo)
de Lo esté explícitamente definido en Ko; además de esto Ko debe admitir al menos un modelo finito. b) El «lenguaje de observación ampliado lógicamente», Lo', no contiene términos Vt y puede considerarse que está formado a partir
de Lo, añadiéndole los cuantificadores, operadores, etc., de L. Su cálculo asociado Ko' es la restricción de K a I.o'. c) El «lenguaje teórico», Lt, es el sublenguaje de L que no contiene terminos Vo; su cálculo asociado Kt es la restricción de K a Lt. Estos sublenguajes juntos no agotan a L, porque L también contie-
ne «enunciados mixtos» -esto es, aquellos en los que al menos aparece un termino Vt y otro Vo-. Ademas se supone que cada uno de los sublenguajes anteriores tiene su propio stock de predicados y/o de variables funcionales y que Lo y Lo' tienen el mismo stock, el cual es dis-
tinto del de Lt. 4) Lo y sus cálculos asociados reciben una «interpretación semantica» que satisface las siguientes condiciones:
a) El dominio de interpretación consta de acontecimientos, cosas, o momentos concretos y observables; las relaciones y propiedades de la interpretación deben ser directamente observables. b) El valor de cada variable de bo debe designarse níediante una
expresión de lo. / De aquí se sigue que cualquiera de estas interpretaciones de Lo y Ko, ampliada por apropiadas reglas adicionales de verdad, se convertirá en una interpretación de Lo' y Ko”. Se pueden concebir las Interpretació-
nes de Lo y Ko como «interpretaciones semánticas parciales» de L y K, y se requiere, además, que no se dé ninguna interpretación semántica observacional de L y K distinta de las dadas por tales interpretaciones. 5) Una «interpretación parcial» de los términos teóricos y de los enunciados de L que los contienen se consigue mediante las dos clases de postulados siguientes: los «postulados teóricos» T (esto es, los axiomas dela teoria) en que sólo aparecen los témtinos de Vt, y las «reglas
de correspondencia» o postulados C, que son enunciados mixtos. Las reglas de correspondencia C deben satisfacer las siguientes condiciones: a) El conjunto de reglas C debe ser finito. b) C debe ser lógicamente compatible con T. c) C no contiene términos extralógicos que no pertenezcan a Vo
o Vt.
LAs 1'EonlAs ciENrlricAs
185
d) Cada regla de C debe contener, esencial o no vacuamente, al menos un término Vo y al menos otro Vt. Sea T la suma de los postulados teóricos y C la de las reglas de correspondencia, entonces la teoría cientifica, basada en L, T y C, consiste en la suma de T y C y es designada por «'I`C» (Suppe, 1979235-36).
Esta concepción comporta una serie de consecuencias que van más ullá del tema de las teorias científicas: a) La idea de los fundadores de la Concepción Heredada es que Ai una teoria no admite una reformulación canónica que cumpla las condiciones antes indicadas no es una teoría cientifica. Esto significa que se da un criterio definitivo de demarcación entre ciencia y pseutlociencia. ¿Qué pasa con las ciencias que no tienen teorias que puedan ser rcconstruidas axiomáticamente? Tenemos dos soluciones: i) cambiar lu ontologia de segundo orden, es decir, considerar que las teorias científicas no son las únicas entidades teóricas que responden a las preguntas de los dominios; ii) considerar que no todas las teorias tienen que tener esta estructura.
b) Cuando hablamos de axiomatización, se entiende una «axiomatización fructífera» que tiene que reflejar las siguientes caracteristicas: De los distintos conceptos que aparecen en la versión preaxiomática de una teoria, sólo un pequeno número se seleccionan como básicos; se introducen axiomas que especiñcan las relaciones más fundamentales que se mantienen entre estos conceptos básicos; se dan definiciones especificando los conceptos restantes de la teoría, en términos de estos conceptos básicos. Las relaciones especificadas mediante los axiomas y las definiciones no establecen explícitamente el contenido completo de la teoría, pero si la axiomatización es completa y adecuada, sera posible deducir el contenido restante de la teoría de los axiomas y definiciones mediante un proceso de manipulación lógica. Esto
es, una axiomatización fructífera reducirá el contenido de la teoria a una base axiomática compacta de tal manera que se vean las interconexiones sistemáticas entre los diferentes conceptos de la versión preaxiomática de la teoria (Suppe, l979:9l). Estas caracteristicas citadas de la axiomatización son importantes ya que cualquier teoria (cientifica o no) podría axiomatizarse de for-
186
imnobuccion A LA |=iuosoFiA DE LA c1|aNclA
ma trivial mediante la mera enumeración de las simbolizaciones de todos los resultados obtenidos. Sin embargo, ya Carnap criticó a Neurath por su intento de axiomatizar la teoria psicoanalitica de Freud mediante una simbolización, enunciado por enunciado, de los escritos de Freud. Este tipo de simbolizaciones son las que se encuentran en muchas de las obras de Bunge, siendo éste uno de los motivos que hacen poco interesantes muchos de los escritos de este filósofo de la ciencia. c) Supongamos que la estructura axiomática no es la única posible con la que reconstruir las teorías cientificas. Queda aún la pregunta de si esta estructura es la más adecuada para reconstruir algunas teorias y qué tipo de caracteristicas tienen que tener las teorias para considerarse una axiomatización fructífera. Los ejemplos más destacados de axiomatización fructífera los encontramos en la física. Este trabajo de reconstrucción formal lo llevaron a cabo varios autores entre los que podemos destacar los siguientes: McKinsey, Sugar y Suppes (1953) en un ya clásico articulo, «Axiomatic Foundations of Classical Particle Mechanics››; Rubin y Suppes (1954) con <¿'Il'ansformation of Systems of Relativistic Particle Mechanics››; Henkin, Suppes y Tarski, cds. (1959), The Axiomatic method with Special Referentes to Gea melry and Physics; y el trabajo de .l. Mulchkhuyse (1960) sobre estructuras axiomáticas en la química Molecules and Models: Invesligarions on the Axiomatizalion of Structure Theory in Chemistry. d) No parece que las teorias sean el único tipo de entidades dignas de tener en cuenta en la ontologia metateórica. Dicho n terminologia de Shapere, las teorías -tal como las entiende la/Concepción Heredada- no son la única forma de respuesta a los problemas surgidos en el dominio de un campo de conocimiento deterniinado. Esta
idea puede entenderse en dos sentidos distintos: (1) dejar*-las teorías para aquellos conjuntos de información que puedan estructurarse axio-
máticamente e introducir en la ontologia metateórica otros tipos de entidades teóricas; (2) pensar que las únicas entidades teóricas de la ontologia metateórica son las teorias cientificas y que es necesario establecer una taxonomía entre ellas, siendo uno de los tipos aquellas teorias cientificas capaces de ser reconstruidas con una axiomatización fructífera. Como se ve no existen diferencias importantes entre (1) y (2), sino que la diferencia clave reside en sostener o no que la axiomatización fructífera es una condición necesaria para las entidades metateóricas; esto es, si todas las entidades metateóricas han de pasar por el crisol de la axiomatización.
LAs r|aonlAs c|ENrlr1cAs
187
EJEMPLIPICACIÓN DE iuaconsriwccrón 1=o1m.AL Dcsma LA
concarcróu srN'rAcrrcA DE LAs rEoRíAs cnaN'rirrcAs Veamos como Wooger -uno de los que ha axiomatizado la teoría sobre el movimiento del corazón y la sangre en los animales- concreta cómo se realiza el proceso de axiomati-
zación. La base estándar para un análisis sintacticista de una teoría cientifica es la lógica de primer orden. La idea de fondo es partir de unos axiomas, fórmulas primitivas que no sean deducibles a partir de las otras. Mediante estos axiomas ha de ser posible deducir todos los enunciados de la teoría, al menos su estructura formal, que luego será interpretada poniendo en correspondencia los diversos predicados con partes y situaciones del mundo. Para hacer un análisis así, primero hemos de describir la noción de enunciado teorético, que es aquel que no contiene nombres individuales ni habla acerca de objetos particulares, sino que es un enunciado general. Los enunciados teoréticos se hallan imbricados en una red jerárquica piramidal constniida a partir de cómo los enunciados de un nivel más alto permiten deducir los de niveles inferiores. Así, en el nivel 0 tendríamos los enunciados teóricos más simples, las generalizaciones de registros de observación, obtenidos por inducción a partir de un número finito de registro de observación, pasando a un enunciado que los implica a «todos››. En el nivel 1 tendríamos las hipótesis explicativas de primer nivel. Seria un enunciado o serie de enunciados a partir de los
cuales podría deducirse todos los del nivel 0. En el nivel 2 tendríamos las hipótesis explicativas de nivel 2 a partir de las cuales podríamos deducir todas las hipótesis explicativas de nivel 1. Esta jerarquización la podemos alargar tanto como sea necesario, de forma recursiva, hablando de hipótesis explicativas de nivel n-ésimo que nos permitirían deducir las hipótesis explicativas de nivel n-1, etc. Asi, estructurar una teoría sintácticamente consiste en mostrar cómo se relacionan deductivamente los enunciados de diversos niveles. Ello se realiza mediante la lógica de primer orden
188
INTRODUCCION A LA r=n.osor=IA DE LA ciENc|A
y se siguen las siguientes fases: 1) Utílizaremos cinco operaciones para trabajar sobre enunciados: negación, conjunción, disyunción, condicional y bícondicíonal. 2) Utílizaremos un operador para trabajar sobre enunciados generales que es el cuantificador universal (el existencial no es necesario, pues puede construirse mediante el universal y la negación). 3) Además necesitamos una serie de predicados n-arios que tienen su correspondiente interpretación en el mundo real, aunque dicha representación no la necesitemos para nada, pues en nuestra reconstrucción formal sólo nos interesan las propiedades formales de los enunciados. 4) Por otro lado tendremos que echar mano de un cálculo deductivo de lógica de primer orden que nos permita deducir, a partir de un enunciado, otros enunciados con la seguridad de que, si el primer enunciado es verdadero, los otros lo sean automáticamente. Para ello empleamos una serie de tautologias que nos garantizan este resultado, con lo cual tendremos leyes como el modus ponens, modus tollens, eliminación del cuantificador universal, etc A este nivel se puede proceder a estructurar sintácticamente la teoria, para ello necesitaremos: l) Ordenar los enunciados de la teoría de acuerdo con sus relaciones de consecuencia. 2) Ordenar los functores de la teoría de acuerdo con sus relaciones de definibilidad. Como hemos dicho antes, nuestro \ sistema ha de poseer toda una serie de predicados n-arios pertï/ necientes a la ciencia a estudiar. Estos tienen una interpretació en el mundo externo que no nos interesa para la tarea de estructuración. Lo que si puede darse entre unos predicados y otros
son relaciones lógicas de manera que con sólo unos pocos predicados primitivos podamos definir los otros, evitándonos así cualquier tipo de ambigüedad que, por otro lado, es tan carac-
teristica del lenguaje natural. Vamos a tomar la teoria de William Harvey sobre el funcionamiento y funciones del corazón analizada por J. H. Wooger (Wooger, 1978) en su libro Biologia y lenguaje. Wooger toma un fragmento dela obra de Harvey «Disquisición anatómica sobre el movimiento del corazón y la sangre en los animales». Consideremos los siguientes enunciados, teniendo
LAs 'r|aontAs crENrlFrcAs
189
en cuenta que «G» simboliza los enunciados de nivel 0, es decir, las generalizaciones de registros generales de observación, y «I-I» reúne las diversas hipótesis de nivel 1 (para este análisis no son necesarias hipótesis de nivel superior): G1: I-lay un tiempo en que el corazón se mueve y un tiempo en que permanece inmóvil. G2: Durante su movimiento el corazón se endereza, se eleva hasta un extremo y la pulsación se percibe desde el exterior. G3: Durante su movimiento el corazón se contrae totalmente y queda más encogido. G4: Durante su movimiento, el corazón se torna más duro al tacto. G5: Al tiempo en que se mueve, el corazón se torna más pálido de color; cuando está en reposo tiene un color rojo sangre más intenso. Dice Harvey: «De estas particularidades parecióme evidente que››: I-ll: El movimiento del corazón consiste en una cierta ten-
sión generalizada, que es tanto contracción en la línea de sus fibras como constricción en todos los sentidos. H2: El movimiento del corazón es enteramente de la misma naturaleza que el de los músculos al contraerse; «pues››:
G6: Los músculos, al entrar en acción, adquieren rigor y tensión, y de blandos se tornan duros, prominentes y densos. «Por consiguiente nos consideramos autorizados a concluir que››: H3: El corazón, en el momento de su actividad, se contrae al punto totalmente, engrosa sus paredes, disminuye sus ventriculos y queda así dispuesto para proyectar o expeler su carga san-
guínea. Ello queda suficientemente de manifiesto por virtud de G5. Y no es posible la duda al respecto, porque: G7: Si se perfora el corazón hasta llegar al ventrículo, se observará que, a cada pulsación o movimiento que lo tensa, la sangre es proyectada con fuerza hacia fuera.
190
INTRODUCCION A LA |=luosoFIA DE LA c1ENc1A
Nuestra tarea, a la hora de realimr una estructuración sintáctica de la teoría, es mostrar las relaciones de dependencia lógica entre los diversos enunciados; ello resultará más sencillo si «traducimos›› los términos de Harvey a un lenguaje actual. Así tendremos: «Todo corazón es una bomba muscular intermitente». Esta proposición puede ser desglosada en dos hipótesis: l-ll: Todo corazón es muscular. H2: Todo corazón es una bomba intermitente de sangre. De este modo, de 1-il y G6 (y ciertas generalizaciones más, concernientes a los músculos, que Harvey da por supuestas sin mencionarlas) se sigue parte de las generalizaciones G2, G3 y G4. De H2 y ciertas generalizaciones relativas a las bombas (que Harvey supone sin mencionarlas) se siguen las generalizaciones G1, G5 y G7. El hecho de que haya generalizaciones sobre bombas y músculos no nos ha de resultar extraño. Evidentemente, el científico a la hora de desarrollar su teoría no se considera en la obligación de especificar todo el conocimiento necesario para seguir su razonamiento, puede y, de hecho, tiene que dar
determinados conocimientos como algo obviamente compartido por toda la comunidad cientlfica. Veamos cómo seria un análisis lógico de un grupo de propqsiciones, por ejemplo, cómo derivar G4 a partir de Hl y G6. En primer lugar especifiquemos los predicados a utilizar, dando una interpretación: «Mx››: «x es muscuIar››; «Ax››: «x está en acción››; «Dx››: «x se endurece››; y «Cx››: «x es un corazón». El argumento/ tendría la estructura siguiente: H.l Vx (Cx -> Mx), G.6 Vx ((Mx A Ax) -> Dx) G.4 Vx ((Cx A Ax) -› Hx). Y la deducción, utilizando el cálculo de J. Mosterin, sería la siguiente; 1) ?Vx(CxAAx->Dx) 2) '! Cx A Ax -> Dx 3) Cx A Ax Supuesto 4) Vx (Cx -› Mx) Premisa
LAs rEonlAs c1ENríF1cAs 5) 6) 7) 8) 9) 10) ll) 12)
vx (Mx A Ax -› Dx) Cx -› Mx Mx A Ax -t Dx Cx Mx Ax Mx A Ax Dx
191 Premisa EG, 4 EG, 5 EC, 3 MP, 6-8 EC, 3 IC, 9, 10 MP, 7, ll
Entre las ventajas filosóficas de este tipo de estructuración están las siguientes: a) Evitar la verbosidad excesiva así como todas las falacias y trampas a las que nos puede conducir el lenguaje natural. b) Acabar con la formulación ambigua de leyes y términos científicos. c) Facilitar el descubrimiento de errores (al efectuar deducciones no estrictamente justificadas) así como facilitar el cálculo deductivo.
3. LA concepción ras-rrtuc1¬imA1. DE LAs rEoniAs La concepción estructural puede considerarse como una revisión de la Concepción Heredada en cuanto critica sus tesis, pero no es una alternativa radicalmente opuesta a la tradición analítica del empiris-
mo lógico. J. Sneed, uno de los fundadores de esta corriente, publica su obra The Logical Structure of Mathematical Physics en 1971, influido por la Escuela de Stanford a través de P. Suppes. W. Stegmüller es el iniciador en Europa de esta corriente a la que han contribuido
notablemente U. Moulines, W. Balzer y W. Diederich, entre otros. Vamos a presentar esta concepción de las teorías cientificas de la mano de U. Moulines, uno de los filósofos más representativos de esta corriente. Moulines (Moulines, 1991) considera que las teorías cientificas son el objeto de estudio del filósofo de la ciencia, del mismo modo que las especies constituyen el objeto de estudio del zoólogo. Siguiendo con esta analogía, al ñlósofo de la ciencia le interesan tanto los aspectos de índole «morfológica›› -es decir, la identificación de los diversos componentes estructurales que constituyen cada objeto y sus inter-
192
1N'rnoDuccioN A LA r=n.oso|=lA DE LA cnaNc1A
conexiones- como los de índole «fisiológica›› -es decir, el estudio del funcionamiento de las entidades examinadas. Moulines recurre a la ontosemántica de Frege para esclarecer el estatus ontológico de las teorías cientificas? La forma general de la designación adecuada para las teorías científicas no es, en mi interpretación, una forma del tipo «la teoria tal-y-
cual», sino más bien una designación funcional, tal como la previó el propio Frege para los conceptos. Es decir, la designación apropiada para las teorias no debe empemr con un artículo determinado, sino que debe
ser una expresión de tipo predicativo: «... es un P». Esta idea se halla, por cierto, en concepciones metateóricas de Tarski, Bourbaki y otros investigadores de fundamentos en matemáticas, asi como de manera mas explícita en la obra de filósofos de la ciencia contemporáneos que se han ocupado de teorías empíricas, tales como Suppes, Adams, Sneed, Stegmüller, Van Fraassen, Przelecki, y muchos otros. De acuerdo a esta concepción, la designación adecuada para las teorías seria un predicado (conjuntista) del tipo «es un grupo», «es un sistema clásico-mecánico», etc. Bajo tal interpretación, es natural admitir que el sentido de una designación de este tipo, es decir, aquello a través de lo cual alcanzamos el conocimiento del objeto referencial, son, como ya hemos insinuado, los axiomas que uconstituyen» cada teoria, los cuales ahora aparecerán bajo la forma de condiciones de definición del predicado que designa la teoría. Sabemos que, dentro del sistema conceptual fregeano, la referencia de una expresión predictiva es una función (o sea, un objeto no-saturado), y cuando la expresión predicativa se reduce a un predicado monádico, sabemos que se retìere a un concepto. Así pues, si admitimos la designación de las teorías mediante predicados conjuntistas, llegaremos al resultado de que una teoria cientifica es un coji-
cepto (en el sentido de Frege). AI conocimiento de este concepto podemos llegar a través de diversos sentidos (en su terminología), o sea. en este caso, a través de diversos sistemas axiomáticos, cada uno de los cuales constituye un posible sentido. Ello concuerda de manera natural con la ontosemántica fregeana general. Ahora bien, los conceptos, en cuanto funciones fregeanas, son entidades no-saturadas. Ellas tienen que ser completadas mediante un determinado tipo de objetos, y la totalidad dará lugar a un nuevo objeto, a saber, un valor veritatìvo: la verdad o la falsedad, según si el objeto en cuestión cae bajo el concepto dado o no. Esta idea también tiene 2. Véase el prólogo de J. Mosterin a la obra de Frege Estudios sobre semántica, para un estudio de las categorias semánticas de Frege.
LAs rBonlAs c|ENrtr=|cAs
193
su traducción natural en nuestro caso. La diferencia con la tradición
fregeana original estriba solamente en el nivel de complejidad de los objetos contemplados. En efecto, los ejemplos usuales que Frege tenía en mente al hablar de objetos que completan una función, consistían en objetos relativamente «simples» tales como personas, cuerpos fisicos o números, los cuales completan funciones designadas por expresiones del tipo «es español», «es rojo» o «es divisible por dos». En cambio, en nuestro caso, los objetos que saturan las funciones llamadas teorias son estructuras altamente complejas, abstractas, a saber: modelos en el sentido formal de la teoría matemática de modelos. Pero esta diferencia no significa ninguna ruptura con el esquema general de Frege, puesto que las estructuras, por complejas que sean, también son objetos en el sentido de Frege (Moulines, 19911209-210). Vamos a hacer algunas consideraciones sobre la concepción estructural a fin de situarla en el marco general de las entidades teóricas: a) Moulines aboga por el uso del método axiomático como metodología general para emprender una morfología de las teorías científicas, sin embargo, hay que señalar que lo que entiende por «axiomatizable» no es lo mismo que entienden los lógicos. Dice lo siguiente: Las teorías empíricas pueden axiomatizarse en el sentido de que indiquemos ciertos principios que caracterizan los conceptos básicos de la teoría y sus conexiones mutuas. En una palabra, se trata de axiomatizar en el sentido de determinar distintos componentes estructurales de cada teoria. Según el grado de complejidad con que haya que hacer tal axiomatización, tendremos distintos tipos de teorias empíricas (Moulines, l99l:2l9).
En el caso de que consideráramos la posibilidad de axiomatizar las teorias empíricas en el sentido de Moulines como criterio de demarcación entre ciencia y pseudociencia (cosa que Moulines no hace) el campo de las disciplinas que formarían parte de la ciencia se ampliaría respecto de la Concepción Heredada. Sin embargo, Moulines admite que es posible que haya teorías empíricas que no sean axiomatizables, pero considera que el conjunto de teorías axiomatizables es suficientemente amplio y diverso como para tener garantía de que la naturaleza delas teorías según la concepción estructural es adecuada. La concepción estructural tiene en su haber la reconstrucción de teoIS.--unuv
194
iwrnonuccióu A LA rrLosoFiA Dr: LA cn¿Nc1A
rías físicas, económicas, fisiológicas, biológicas, psicológicas, lingüísticas y hasta literarias.” b) Frente a la complejidad de la morfología y fisiología de las entidades teóricas, Moulines se decanta por tener en cuenta el principio nominalista a la hora de establecer la ontologia de segundo orden, considerando un solo tipo de entidades teóricas básicas, a saber: las teorías científicas. Pero Moulines es un filósofo que tiene en cuenta la complejidad de la ciencia, que considera que la filosofía de la ciencia no tiene que ser apriorística y que no hace caso omiso de la historia de la ciencia. Todo esto hace que no cierre las puertas a los dominios de los que en este momento no tienen una información suficientemente sistematizada para reconstruir sus productos teóricos con esquemas conceptuales demasiado rígidos. Por tanto, la apertura a estos campos nuevos se produce a través de una tipología adecuada de los axiomas de una teoría científica. En este punto, sólo me queda repetir lo dicho en líneas anteriores: la distinción entre ampliar la ontologia de segundo orden con nuevas entidades que no sean las teorías científicas y construir una tipología de teorias científicas no es importante desde el punto de vista epistemológico.
EIrsMPLu=rcAcróN DE LA REcoNsTnUc(:ióN Fon/¡AL sec-ÚN LA coucisrcróu Esriwc'ruRAL DE LAs 1-EoRiAs ciEN1'írrcAs
\
Vamos a tomar la estructura de la estequiometría daltonia-
na analizada por Balzer, Moulines y Sneed en «The structure ¿gt daltonian stoichiometry» (Erkenntnis, 1987). 3. La concepción estructuralista ha reconstruido teorias de diversas ciencias particulares. A titulo de ejemplo, podemos citar las siguientes: A. García de la Siena, «Elementos para una reconstrucción lógica de la teoria del valor de Marx», Crítica, 12, l980:7l-96; W. Balzer y H. Göttner, «A Theory of Literature Logically Reconstructed: Roman .lakobson», Poelics, 12, l983:489-510; H. Westmeyer, E. Friedhelm, W. Winkelmann y V, Nell, «A Theory of Behavior Interaction in Dyads: A Structuralist Account», Metnmedicine, 3, 19821209-232; J. Koster y E. Schoten. 4(l`he Logical Structure of Rhythmies», Erkennmis, 18, l982:269-281; U. Moulines, «A Logical Reconstruclion of Simple Equilibrium Thermodynamics», Erkennlnis, 9, 19751101-130; .l. D. Sneed, dl'he Logical Structure of Bayesian Decision Theory», en W. Stegmüller er al., eds., Philosophy of Economics, Berlin, Springer, 19822209-232.
LAs rrsontAs c1EN'rt1=|cAs
195
La estequiometría daltoniana (a partir de ahora ED) parte tlc la idea básica de que existe una serie de elementos básicos que se combinan formando diferentes substancias al participar cn reacciones químicas. Más en concreto, esta disciplina se encarga de estudiar las relaciones entre los pesos de diversas substancias químicas. Asimismo, la teoria permite asignar diversos coeficientes delante de la ecuación de una reacción química para igualar la reacción de manera que las proporciones en las que las diversas substancias participan en ella sean las convenientes. En un análisis estructural lo que hacemos es modelar la teoría, en este caso, la ED, especificando un grupo de estructuras conjuntistas que sirvan como modelo de la teoría. El proceso sería, resumido, el siguiente: En primer lugar, consideramos la tetratupla (C,7,`R,w) donde C es un conjunto no vacío finito, formado por las diversas substancias compuestas que participarán en las reacciones que se han de estudiar (agua, metano, plata, etc.), T es el conjunto formado por los tiempos I, y t,, donde t, indica «antes de la reacción» y I, «después de la reacción». R es simplemente el conjunto de los números reales y w es una función con valores reales no negativos sobre C X 11 tal que w(s,t) = a, en donde a es la cantidad de gramos de la substancia s presente en el momento I. Esto nos da una primera estructura para trabajar con las reacciones químicas pero aún no es suficiente. Necesitamos también un sistema de representación de las ecuaciones químicas, donde se nos indique las cantidades relativas de cada substancia así como los componentes básicos de cada substancia compuesta que aparezca en la reacción. Por ejemplo, que en nuestra teoría
se puedan afirmar cosas como que el agua es H10. Asignar los coeficientes no representa ninguna dificultad especial, tan sólo necesitamos una nueva función k sobre C >< T que asigne un número natural, o un cero, indicando en ese caso que la substancia s no está presente en el tiempo t. Sin embargo, no es suficiente con conocer las cantidades relativas de las diversas substancias complejas que participan en la reunión. Así mismo también necesitamos conocer las masas relativas de los átomos y las moléculas de las diferentes substancias, en relación con la masa de un átomo de hidrógeno que tomaremos como unidad. Para ello definiremos una función m que será una apli-
196
INTRODUCCION A LA FiLosoFlA DE LA c1ENc1A
cación del conjunto de fórmulas químicas, al que llamaremos E a los números reales positivos R*. El último paso del proceso es definir el conjunto F de fórmulas químicas. La forma más sencilla es imaginar que las fórmulas químicas son cadenas de simbolos, formadas a partir de la iteración de los elementos de un conjunto de fórmulas elementales E(n). Estas fórmulas serán finalmente asignadas a substancias quimicas elementales, es decir, a los elementos (hidrógeno, azufre, oxígeno, etc.) que, al combinarse, constituyen todas las substancias químicas complejas que conocemos. Las fórmulas serán asi cadenas de simbolos del alfabeto latino, simbolos que en química representan a los diversos elementos (H, S, O, C, Li, etc.) junto a números arábigos. Para crear las cadenas usaremos la operación de concatenación (*). Así, el ácido sulfúrico (SO,H,), sería el resultado de concatenar S*O*O'O*O*H*H. Evidentemente, no es igual que el sistema estándar de representar las fónnulas químicas, pero cumple igualmente su función. Después de todo, H con el subindice 2 cumple la misma función que poner dos H y que es la de indicar que dos átomos de hidrógeno forman parte del compuesto. Asi podemos definir el conjunto de las fórmulas químicas como la estructura siguiente: F = (F, *,E(n)), que técnicamente es un monoide n-dimensional, hecho que nos asegura que cada fórmula química sólo tendrá una única representación como concatenación de elemento de E(n). Cada fórmula G perteneciente a F podrá asi codificarse como h(l,G)e,' h(n,G)e,,, donde los e, son los elementos que componen G y h(i,G). Estos son enteros positivos e indican las cantidades relativas de cada elemento 'en la composición de la fórmula. Tenemos asi la estructura conj untista claramente formalizada. Sin embargo, el número de fórmulas y reacciones posibles que podemos generar con nuestro modelo son muchísimo más grandes que las reacciones que se dan realmente en la naturaleza. Por tanto, hemos de constreñir el modelo, añadiéndole algunos principios que nos permitan eliminar las reacciones no deseadas. Para ello primero definimos la categoría de los potenciales modelos de la ED para añadirle tres leyes no triviales que han de cumplir todos los modelos. Estas tres leyes son las siguientes:
LAs 11aoRfAs c||aN'rtFrcAs
197
1) Las fórmulas moleculares están determinadas por los pesos atómicos de las fórmulas atómicas. 2) Las ecuaciones químicas han de estar «ajustadas››; es decir, que el número total de átomos de un elemento que existían antes de la reacción han de seguir existiendo después de la reacción (aunque posiblemente combinados de otra forma). 3) La razón entre los pesos de las substancias que se combinan en la reacción ha de ser igual a la razón de los productos de sus coeficientes de reacción por sus pesos moleculares. Así, por ejemplo: w(hidrógeno)/w(oxígeno) = [k(hidrógeno) x m(H¡)]/[k(oxígeno) X m(O¡)] = [2 X mH1)]/ [l x m(O,)]. Podemos afirmar asi que los modelos ED son estructuras conjuntistas que describen reacciones químicas potenciales en las que las leyes (1) a (3) son válidas.
Hasta aqui el proceso de estructuración de la teoría cientifica, en nuestro ejemplo, la ED. Habría que añadir algunas otras eonstricciones internas como, por ejemplo, asignar a una substancia siempre la misma fórmula, independientemente de en qué reacción nos hallemos. Pero grosso modo ésta sería la reconstrucción estructuralista de la EDUna vez realizada, esta estructura puede servirnos para resolver diversos problemas de filosofía de la ciencia. Veamos algunos: a) ¿Entre todos los términos que aparecen en la ED, cuáles pucden ser considerados términos puramente teóricos? La respuesta del estructuralismo es sencilla: sólo consideramos términos teóricos aquellos para los que la única manera de calcular su valor sea mediante alguno de los modelos de la ED. Así, por ejemplo, w no es un término teórico, pues puede calcularse de otras formas (por ejemplo, una balanza de precisión). Por el contrario, K o m son teóricos pues, hasta ahora, no hay ninguna otra forma de calcularlos que no sea mediante la ED. b) La ley de los pesos combinantes según la cual «los pesos de dos elementos o los múltiplos integrales de tales pesos que reaccionen con el mismo peso de un tercer elemento, también pueden reaccionar uno con el otro», ¿es una ley empírica que debe ser observada a posteriori o bien se deduce de la estructura de modelos mostrada aquí?
198
INTRODUCCION A LA FrLosoFiA DE LA ciENcrA
A partir de los modelos estructurados que hemos mostrado resulta que es relativamente fácil deducir la ley de los pesos combinantes, por tanto podemos afirmar que se sigue lógicamente de la teoría. Tenemos aquí dos ejemplos que nos muestran cómo dos problemas tipicos de la filosofia de la ciencia pueden ser fácilmente resueltos mediante una teoría estructuralista.
4.
LA coNc1aPc1óN s|zMAN'rrcA DE LAs 'rEoRÍAs
La concepción semántica constituye una alternativa a la concepción sintáctica. En algunos puntos coincide con la concepción estructural, sobre todo en algunas críticas a la Concepción Heredada: critica a la distinción teórico-observacional y a la consideración de las teorías como conjuntos de enunciados deductivamente inferidos a partir de unos axiomas. Hay también diferencias importantes, sobre todo respecto al contenido empírico de las teorías: mientras la concepción estructural mantiene que «no hay ningún océano de verdades aún por descubrir ante nosotros, o, si lo hay, no es eso lo que interesa a la empresa científica›› (Moulines, 199l:185), la concepción semántica sostiene que la verdad y la adecuación empírica son las dos categorías semánticas más importantes, tal y como afirma Van Fraassen: «las propiedades semánticas son aquellas que tienen que ver con la relación de la teoría con el mundo, o más específicamente, que tienen que ver con los hechos sobre los que trata la teoría» (Van Fraassen, l980:20). A la hora de citar los autores más representativos de lacoìicepción semántica, hay que incluir desde los pertenecientes a la concepción
estructural pero marcando las diferencias con ella hasta la escuela polaca de Wojcicki y Przelecki, pasando por los filósofos italianos Dalla Chiara y Toraldo. Sin embargo, en la literatura filosófica la concepción semántica se asocia, fundamentalmente, a F. Suppe, B. Van Fraassen y R. Giere. Hay algunas diferencias entre estos autores pero no son importantes por lo que se refiere a la naturaleza de las teorías científicas. El desarrollo de esta concepción vamos a hacerla a partir de R. Giere por ser el que ha proporcionado una versión más acorde con la función docente, la cual, además, la ejemplifica con los libros de texto.
Respecto a la ontologia metateórica, Giere concede un lugar preferente a los modelos teóricos, partiendo de la base de que en la vida
LAs 'rEORíAs cn:N'ríFrcAs
199
cotidiana construimos modelos que forman parte de un mundo imaplnario, por ejemplo, imaginamos cómo será el viaje del próximo veumo. o el encuentro con el amante o las oposiciones a profesora tituInr de universidad. Estos modelos sólo existen en la mente de la persona que imagina estas situaciones. Los modelos teóricos fonnan parte del mundo imaginado. Sólo existen en las mentes de los científicos o como materia abstracta de las descripciones verbales escritas por los cientí|`icos. Como es obvio, en nuestro contexto sólo nos interesan los modelos teóricos. Giere acude a los libros de texto como las fuentes donde encontrar lu materia prima a partir de la cual construir las entidades abstractas metateóricas. Tomando como ejemplo la mecánica tal como aparece cn los libros de física, vemos que se refieren a «el oscilador lineal», «cl movimiento libre de un cuerpo rígido simétrico››, «el m0V¡mí¢nt0 dc un cuerpo sujeto sólo a una fuerza de gravitación central», etc. Sin cmbargo, los libros de texto dejan claro que los ejemplos paradigmalìcos de tales sistemas fracasan a la hora de satisfacer totalmente las ecuaciones que describen estos ejemplos paradigmáticos. ¿Cómo abordar este conflicto aparente? Veamos en qué términos Giere relaciona las teorías, los modelos teóricos y las hipótesis teóricas: Sugiere llamar a los sistemas idealizados que se presentan en los libros de texto de mecánica «modelos teóricos», o, si el contexto está claro, simplemente «modelos›› Los recursos lingüísticos concretos utilizados para caracterizar es› tos modelos son de interés secundario. Desde el punto de vista racional, y teniendo en cuenta los fines del análisis metacientífico no existe un lenguaje que tenga preferencia a la hora de reconstruir las teorias científicas Tal como sugiere el significado de la palabra «mode1o›› en el lenguaje natural, los modelos teóricos se proponen ser modelos de algo, y no simples ejemplares para ser utilizados en la construcción de otros modelos teóricos. Sugiero que funcionan como «representaciones›› en uno de los sentidos más generales que actualmente tiene modelo enla psicología cognitiva. Los modelos teóricos son los medios a traves de los cuales los cientificos representan el mundo -tanto para si mismos como para los demás. Estos modelos son utilizados para representar
los diversos sistemas encontrados en el mundo real: ballestas y péndulos, proyectiles y planetas, cuerdas de violín y parches de tambor Aqui sólo quiero precisar un poco más la relación entre un modelo
INTRODUCCION A LA F1I.›osoFl›. DE LA ciENc1A teórico y aquello de lo que es un modelo. Esto requiere introducir un nuevo concepto, esto es, el de «hipótesis teóricas». A diferencia de un modelo, una hipótesis teórica es, en mi concep-
ción, una entidad lingüística, es decir, un enunciado que afirma algún tipo de relación entre un modelo y un sistema real determinado (o una clase de sistemas reales). Una hipótesis teórica, pues, es verdadera o falsa en función de si la relación afirmada se da 0 no. La relación entre
modelo y sistema real, sin embargo, no puede ser de verdad o falsedad ya que ninguno es una entidad lingüística. Debe ser otra cosa Sugiera que la relación apropiada es la de similitud. Por tanto, las hipótesis afirman la similitud entre modelos y mundo real
Hasta ahora, sin embargo, no he dicho explícitamente lo que era una teoria. Pero esto, creo, no es una cuestión importante. Tenemos ya suficiente maquinaria conceptual para decir lo que necesitemos decir sobre teorias
Mi idea preferida es que entendamos las teorias como compuestas de dos elementos: 1) un conjunto de modelos, y 2) varias hipótesis que enlazan estos modelos con sistemas del mundo real. Entonces, lo que uno encuentra en los libros de texto no es la teoria en sí misma, sino
enunciados que definen los modelos que formaban parte de la teoria Como consecuencia dela anterior interpretación, una teoría cientifica no es una entidad bien definida. Es decir, no se dan condiciones necesarias y suficientes para determinar qué modelos y qué hipótesis forman parte de la teoría
¿Qué determina si un modelo puede considerarse como propiamente newtoniano? Una posible respuesta es que para formar parte de la teoría de la
mecánica clásica un modelo debe poseer un «parecido de familia» a una familia de modelos que ya forman parte de la teoria. _Es innegable que existen estos parecidos de familia entre los modelos peïtñécientes a una teoría. Por otra parte, no hay nada en la estructura de los modelos que pueda determinar que este parecido sea suficiente para ser un miembro de la familia de modelos. Esta cuestión parece que ha de ser decidida sólo por los miembros de una comunidad científica en un mo-
mento dado, sin embargo, esto no quita objetividad a la afirmación de que hay un parecido de familia entre los modelos de una teoria. Es de› cir que el conjunto de los científicos determina si el parecido es sufi-
ciente. Este es un punto en el que puede decirse que las teorias no sólo son construidas sino socialmente construidas (Giere, 1988, cap. 3).
LAs 'riaonixs cnaN'rIF|cAs
201
Modelo . bš*
-o Q@
0°
01,- _ ¿'11
0
Conjunto
Sistema
de enunciados
real
Veamos algunas consideraciones relacionadas con la concepción semántica de las teorias en la versión de Giere: a) Las teorias pierden su carácter predominante desde el punto de vista ontológico. Las piezas clave son los modelos teóricos. Los modelos teóricos admiten la expresión en lenguajes mucho más variados que los de las teorías, al menos tal como las entienden no sólo la concepción sintáctica de las teorias sino también la concepción estructural. b) La axiomatización de las teorías no es considerada ni como necesaria ni siquiera como un criterio de valor epistemológico para una teoría. Todo tipo de reconstrucción lógica (formal o informal) se considera un puro ejercicio lógico pero que no añade nada a nuestra comprensión de la ciencia. En este punto, habría que señalar que si bien es aceptable la primera consideración, es dudosa la segunda. Es decir, Giere tiene razón al decir que la reconstrucción lógica no es necesaria para que un conjunto de información sea una teoría pero creo que no es cierto que no añade nada a la comprensión de la ciencia. c) El aparato conceptual presentado por Giere es suficientemen-
te complejo y a la vez preciso para poder dar cuenta tanto de los dominios muy sistematizados como delos que están en un estado precario de desarrollo. d) La característica principal del enfoque semántico es el hecho de poner en relación las teorías cientificas con el mundo externo, precisamente por ser una concepción semántica. En el caso de Giere, conduce a una visión realista de la filosofía de la ciencia, aunque no necesariamente tenga que ser así como es el caso de Van Fraassen. La concepción de Giere puede encajar en una «epistemología naturalizada» (aunque con diferencias respecto a Quine). Según esta concepción la tarea de estructurar una teoría científica sigue los mismos patrones que cualquier otra investigación científica, en concreto resulta ser una
202
iN'rRoDucc|oN A LA F|Loso|-*IA DE LA c1ENc|A
especialización de una teoria general de la psicologia cognitiva sobre la toma de decisiones en los seres humanos. De la caracteristica anterior se sigue otro hecho filosófico de gran importancia, a saber: según el enfoque semántico de Giere la tarea de decidir, entre diversas teorias cientificas, cuál es la más satisfactoria no es contemplada como una tarea extraña, con un sistema propio de decisión, sino que es considerada a la luz de un sistema general que trate, desde una perspectiva cognitiva, la forma en que agentes inteligentes resuelven problemas y toman decisiones de una forma racional. Por otro lado, el modelo semántico cognitivo nos permite tratar problemas que se hallan en la periferia científica, como la aparente irracionalidad de los cambios de paradigmas, la inclusión de cuestiones sociológicas y hasta psicológicas, etc., que parecen hallarse totalmente fuera de un enfoque sintacticista o estructuralista.
E1rsMPl.n=¡CActóN DE ANÁ1.lsis DE UNA 'rlaonia cnsN'rii=icA DEsDE LA CoNcEPcIóN SEMÁNTICA Análisis de la teoria de la deriva continental realizada por R. Giere en Explaining Science. A Cognitive Approach. El problema que se propone tratar Giere es el de la revolución científica ocurrida durante la época que va de mediados de los cincuenta a mediados de los sesenta en la geología, al introducirse un modelo alternativo que tiene como premisa fundamental la deriva continental. bo extraño es que un modelo muy similar fue presentado a la comunidad cientifica entre los años l91l y l9l5 y fue radicalmente rechazado por ésta. Sin embargo -como hemos dicho- fue recibida con los brazos abiertos por los geólogos años después. El objetivo de Giere es mostrar cómo diferentes condiciones científicas de las dos épocas explican el fenómeno y que no hay nada irracional en el cambio de opiniones de los cientificos. A principios de siglo en geología todo el mundo seguia el modelo contraccionista: la idea básica era que al crearse el sistema solar, la Tierra era una bola ignea. Al irse enfriando progresivamente, la corteza quedó más fria que el interior, de manera que la diferencia de temperaturas hizo que la corteza se fuera
LAs montas cuaN11FicAs
203
construyendo y así se deformó creando todos los accidentes geológicos que conocemos. La conclusión última era que cl aspecto geológico de la Tierra no ha cambiado desde entonces ni cambiará en el futuro, en sus aspectos generales. Evidentemente se darán procesos de erosión, etc., pero de tipo unifonne, tal y como se postulaba ya en los Principios de geologúr de Lyell. Dentro de este paradigma, Alfred Wegener postuló su teoría de que en un principio existia un único continente, Pangea, que se fue fragmentando a causa de un desplazamiento de las placas sobre las que descansaba este continente. Se generaría así una deriva continental, que explicaría la mayoría de accidentes geológicos. Para los geólogos de su tiempo, resultaba totalmente inadmisible que los continentes se pudieran mover. Sin embargo, para Wegener ello era fácilmente pensable ya que disponía de una serie de información extra que la mayoría de geólogos no poseía. En efecto, Wegener había estado trabajando como meteorólogo en Groenlandia durante dos años. Allí tuvo la posibilidad de observar icebergs, glaciares y hielo flotando a la deriva. Ello representó una fuente de información adicional a partir de la cual se podía realizar un modelo alternativo (por analogía con el movimiento de los hielos) en el que los continentes se pudieran mover. Pasemos a ver más en detalle el modelo semántico-cognitivo de Giere. El p oblema podemos formularlo así: la comunidad científicau(š2Jegener) han de tomar una decisión: ¿cuál es la teoríacgrre . Hemos de escoger entre el modelo contraccionista
y el modelo «movilista››. Para modelar tales decisiones, hemos de considerar toda la información significativa que se posee sobre el tema, junto con las condiciones concretas del desarrollo de la investigación científica en aquel momento (teniendo en cuenta, si es significativo, aspectos conectados con la sociología de la ciencia, como el temor de quedar en ridículo, deseos de medrar, etc.). A partir de aqui se ha de tratar como un problema cognitivo general de decisión racional, o sea, ¿cuál es la decisión correcta para un agente cognitivo con una información X en una situación Y? Volvamos a nuestro ejemplo. ¿Cuál habría de ser la decisión correcta para Wegener? Por un lado, su situación en el mundo
204
|NrnoDuccióN A LA |=u›osoFlA DE LA cieucix
de la geología es «marginal››, ya que no forma parte del establishment de la geología y por ello no tiene nada que perder al lanzar hipótesis heterodoxas. Por otro lado, Wegener tenia pruebas a favor de su hipótesis. Recordemos algunas: la similitud realmente impactante entre las geologías de determinadas zonas de África con otras de Suramérica que habrían estado unidas si de hecho la hipótesis de Pangea fuera verdadera. Una similitud así resulta muy probable desde el punto de vista movilista, y muy improbable si elegimos la posición contraccionista. Lo mismo para la evidencia paleoclimática (glaciaciones en zonas de África, América, lndia y Australia donde ahora resultarían imposibles) o la similitud entre especies de las supuestas zonas de contacto. Además, sus experiencias en Groenlandia le daban una base para suponer que, efectivamente, los continentes podían moverse. También podemos considerar factores de tipo psicológico y personales que explicarían el interés de Wegener de lanzar una teoria revolucionaria (deseo de resultar original, quizás cierta «rebeldía›› al statu quo, etc.). En principio, parecería que Wegener tenia (sus) buenas razones para preferir la teoría movilista. Veamos qué ocurría en la comunidad de geólogos. En primer lugar no existían fuerzas que pudieran explicar ese supuesto movimiento de los continentes, además, se suponía que las rocas que formaban los continentes eran más débiles que las de los fondos de los océanos y no parecia haber forma de empujar una roca más débil a través de una más fuerte. Parecía pues que la deriva continental era imposible. Esto mismo ya sería suñciente para rechazar la teoría de Wegener. En segundo lugar, las evidencias presentadas por Wegener no eran tan claras como parecía: las similitudes entre zonas de la costa africana con la suramericana resultaban mucho menos significativas si uno pensaba que la erosión había estado actuando durante millones de años. Aún mas, se podía mostrar que sc podía encajar fácilmente Australia y Nueva Guinea en el mar Arabigo, pero nadie (ni Wegener) creia que alguna vez hubieran estado juntos. Así mismo, la similitud entre especies podia explicarse postulando puentes de tierra que conectaban los continentes de material ligero que se hundieron posteriormente. Finalmente, la propuesta de Wegener representaba un cambio demasiado radical en toda la geo-
LAs 1'EoRlAs c|EN'rli-'icxs
205
logía para aceptarla tan alegremente. Así que, para el geólogo típico, resultaba una hipótesis demasiado audaz para considerarla seriamente, teniendo en cuenta que las evidencias no eran tan claras y que no había mecanismos explicativos. De aquí que resulte totalmente comprensible y aceptable la decisión a favor del modelo contraccionista. Sin embargo, ¿por qué es aceptada la hipótesis en los sesenta? Porque la información disponible cambió. En primer lugar, la evidencia del paleomagnetismo en muestras de rocas mostraba, por ejemplo, que la dirección del campo magnético terrestre había estado variando durante cientos de millones de años en las islas británicas. Estudios posteriores en otros continentes mostraban que la única explicación posible era que el polo norte estaba fijo y que la corteza terrestre se desplazaba. En segundo lugar, también se descubrieron mecanismos que podían hacer explicable la deriva continental, y que resultaría demasiado prolijo enumerar aquí. El resultado final es que las posibles objeciones para aceptar la teoría movilista quedaban eliminadas y, además, había evidencia extra mucho mas concluyente a favor de la hipótesis. Por ello la hipótesis movilista fue escogida en los sesenta. \ _,,/
5.
AE1NmADEs Y DrvEnoENcn\s ENTRE Las ntsnNrAs coNcEPc1oNEs DE Las 'rEoniAs crEN'rí1=rc.~.s
Vistas las tres concepciones de las teorías científicas más importantes que en estos momentos están vigentes entre la comunidad de los filósofos de la ciencia, hay varias cuestiones que podemos plantearnos: (1) hasta qué punto dan cuenta de la producción científica; (2) hasta qué punto son incompatibles; (3) hasta qué punto pueden complementarse. (I) La concepción sintáctica es la más restrictiva en cuanto a la demarcación de los contenidos de la producción científica que analiza. O sea, que si la estructura axiomática funciona como criterio de demarcación, una buena parte de lo que hoy se presenta como ciencia
206
1N1'aoDucc1oN A LA Fuosoríx DE LA ciENc|A
habría que considerarla pseudociencia o, en terminología kuhniana, ciencias preparadigmáticas. La concepción estructural abre las puertas a disciplinas que la concepción sintáctica le cierra, ya que permite la reconstrucción lógica con estructuras mucho más flexibles que la concepción sintáctica. Por ejemplo, la clasificación de las clases sociales de Marx en la época de éste nunca cumpliría las condiciones formales de las particiones en sentido matemático, pero quizás podría reconstruirse con lógicas no estándar como la teoría de los conjuntos difusos. Habría que ver lo que diria un filósofo de la concepción estructural pero no parece que haya ningún motivo por el cual no pudiera aceptarse como buena esta reconstrucción informal. El problema con la concepción estructural es que -como dice Giere (Giere, l988:286)- «a pesar de su carácter de modelo teórico, la concepción de Suppes, Sneed y Stegmüller mantiene el talante lingüístico de la concepción del empirismo lógico. Es al mismo tiempo una parte del programa de “reconstrucción lógica" que me parece, fundamentalmente, un ejercicio de teoría de conjuntos››." La reconstrucción lógica es una de tantas funciones del análisis filosófico de la ciencia. En este punto, lo interesante seria estudiar -cosa que escapa a las pretensiones de este texto- qué tipo de valores metafilosóficos representan las reconstrucciones lógicas, ¿representan valores epistemológicos, estéticos, éticos? La concepción semántica no tiene un método de demarcación a partir de algún criterio epistemológico para determinar el ámbito de las disciplinas que puede abarcar el análisis filosófico. La línea de separación entre ciencia y ciencia marginal estaría en la utilización de modelos que representan el mundo y en la importancia de los datos que sean el sostén de los modelos propuestos (Giere, 1992) o en la adecuación empírica (Van Fraassen, 1980). De esto se desprende que la estructura lógica pasa a segundo plano a la hora de valorar las respuestas a las preguntas surgidas en los dominios, en cambio adquiere 4. Esta reflexión hay que considerarla como una crítica sólo si se piensa que éste es el único, o el más importante, objetivo de la filosofía de la ciencia. Por mi parte, a pesar de tener ciertas dudas respecto a lo fructífero que puedan ser las reconstrucciones (formales o informales) en relación a la solución de problemas metaeientíficos, cómparto muchos de los puntos de vista de los filósofos de esta concepción (por ejemplo, comparto la mayoría de las reflexiones de Moulines en su último libro Plurulidad y nzcursión acerca de los objetivos de la metafilosofía, de los problemas del realismo o de las incoherencias del relativismo).
Lxs 'rEORí/ts ciEN†íFic/ts
207
mimordial importancia la evidencia de los datos que catalizan toda In información especial que puede ser pertinente para decidir si el modelo en cuestión encaja o no con el mundo real. Las condiciones para ln relación entre modelo teórico, mundo real e hipótesis teóricas y para In evidencia exigida a los datos pueden darse en mayor o menor medidu. Es decir, la adecuación empírica no es una cuestión de todo o nada sino una categoría gradual. (2) Respecto a la compatibilidad mutua, depende de en qué plano nos situemos. Si tomamos estas concepciones desde los criterios de demarcación, entonces habría desacuerdo a la hora de catalogar como ciencia detenninados dominios, según hemos visto. Desde el plano ontológico, no habría ningún desacuerdo entre la concepción sintántica y la concepción estructural a la hora de fijar las entidades teóricas que pueblan la ontologia, aunque unos y otros les atribuyeran estructuras lógicas distintas. En otras cuestiones, p r ejemplo en la distinción teórico-observacional, habría más acuerdt;entre la concepción estructural y semántica; no así con la sintáct`ca. (3) Si una no se sitúa en una concepción particufar de las expuestas y las ve como productos metateóricos que se múeven en planos distintos -al menos en algunos puntos- es posible considerar estas concepciones compatibles y, en algunos puntos, complementarias. La propuesta de reconstrucción axiomática (formal o informal) de las teorías ha significado el desarrollo del aspecto lógico de la filosofía de la ciencia. Esta función no es estéril (y en esto difiero de Giere) pero reconozco que no es el único aspecto de la metaciencia (y en esto difiero de la concepción sintáctica) ni tampoco es el aspecto más importante (como parece que defiende la concepción estructural). La importancia del aspecto formal de la filosofía de la ciencia depende del
valor metateórico que en aquel momento queramos primar. Por ejemplo, desde un punto de vista estético, creo que la formalización a partir de estructuras axiomáticas (a lo Carnap) de una determinada teoria tendría mayor valor que otra que no se dejara aprehender por tal estructura formal. En cambio, desde un punto de vista explicativo, no necesariamente una estructura axiomática puede ser criterio suficiente (ni siquiera el más importante) para que dicha teoría esté bien situada en una supuesta jerarquización de teorias. La otra cuestión es la referente a la ontologia metateórica. A excepción de la concepción sintáctica -que mantiene un criterio rigido para las entidades teóricas. llámense 0 no teorías- las otras concep-
208
1N†RoDucc1oN A LA Eiuosortx DE LA c1ENc|›.
ciones creo que estarían dispuestas a aceptar, o bien distintos tipos de teorías, o bien distintas entidades teóricas.
6.
EL INCREMENTO DE LAS ENTIDADES TEÓRICAS
Una vez rota la unidad de las entidades teóricas, admitida la complejidad del dominio y, por tanto, la diversidad en las respuestas a los problemas de los mismos, vamos a ver algunos tipos de propuestas a dichos problemas. La información que tengamos sobre el dominio en cuestión es lo que podríamos llamar cuerpo teórico y está constituido por el conjunto de teorías, reglas, leyes y, en general, por todo el conjunto de conocimiento sistematizado que se tiene sobre un campo acotado de fenómenos (Estany, l990:l49). Este cuerpo teórico puede tener diferentes tipos de estructuras, entre los que vamos a destacar los siguientes: a) Estructura de conjunto compacto. Esta estnictura se da cuando hay unas leyes que son el núcleo del cuerpo teórico y que rigen para todo su campo o dominio. Estas leyes son las que deciden, en último término, si una hipótesis sobre un fenómeno determinado pertenece o no al campo teórico en cuestión. Cualquier ampliación del campo de aplicación se realiza en función de si dichas leyes se cumplen o no en el nuevo campo. Este tipo de estructura es el que mejor encajaría con las teorías axiomatizadas. b) Estrucluna de dominio ordenado. Se da este tipo de estructura cuando se puede establecer una regla que permita ordenar los elementos del campo de conocimiento. Este es el tipo de estructura que Shapere (Shapere, en Hacking, l969:587-588) atribuye a la tabla periódica de los elementos quimicos. Si el tipo de estructura de un campo de investigación es un dominio ordenado, entonces podemos decir que la respuesta a los problemas del campo no coincide con lo que normalmente se denomina «teorías››. Ni tampoco el hecho de que la ordenación permita a veces hacer predicciones convierte en teorías estos dominios ordenados. c) Estructura de concepto explicativo preferente. Este tipo de estructura se da cuando un dominio posee un elemento en su ontologia de primer orden que interviene en la explicación (entiéndase explicación en sentido amplio) de todos los fenómenos a los que se aplica
LAs 'rEoRl».s c1EN'ru=icAs
209
el cuerpo teórico. La química del flogisto es un ejemplo de este tipo de estructura: el flogisto era el elemento que aglutinaba todas las explicaciones de los fenómenos químicos en la época de Stahl. El concepto de yo sigue siendo considerado por muchos psicoanalistas como una instancia central de la personalidad y como el eje sobre el cual se estructuran los cambios que tienen lugar, tanto en el curso del desarrollo como en el proceso terapéutico. En la teoría marxista sobre la explicación histórica, la lucha de clases constituye el motor del proceso histórico y el punto de partida para explicar los conflictos sociales. d) Los modelos. El concepto de modelo es ampliamente utilizado por los cientificos para responder a las pregun s del dominio, sin embargo, dada su complejidad y la variedad de entidos vamos a tratarlos aparte y, así, estudiarlos con detalle y ofundidad. Las estructuras aquí presentadas que incrementan las entidades metateóricas de la O2 no pretenden ser exhaustivas; tampoco son, en príncipio, exclusivas, es decir, se puede dar un dominio ordenado en el que el principio de ordenación sea precisamente el elemento explicativo preferente. En el caso de la teoría del flogisto, tenemos una clasificación de las substancias en función de la cantidad de flogisto que poseían. También puede ocurrir que, si consideramos la totalidad de la información de un dominio, encontremos estructuras diversas. Por ejemplo, si tomamos la química de Lavoisier como un dominio, encontramos las tres estructuras antes indicadas, a saber: una estructura de conjunto compacto plasmada en su teoría de la combustión en la que enuncia «los fenómenos constantes de los que la naturaleza no escapa jamás››; un dominio ordenado en la tabla de elementos químicos; y una estructura de concepto explicativo preferente en el sentido de que el oxígeno es el elemento que unifica el sistema de Lavoisier y el punto de partida de su obra teórica. Ya hemos indicado que estas estructums del cuerpo teórico no pretenden ser exhaustivas, sin embargo, puede pensarse que hay ausencias evidentes y signiñcativas. Nos referimos a los paradigmas (Kuhn), los programas de investigación (Lakatos) y las tradiciones de investigación (Laudan). La ausencia es significativa y tiene motivos justificados. Estas categorías metaconceptuales constituyen respuestas a problemas del dominio, pero son mucho más que esto. Los paradigmas, los programas de investigación y las tradiciones de investigación son las categorías con las que aprehendemos cada una de las secuencias I4.-t-srmcv
210
|NrnoDuccroN A LA F1Dosor=IA DE LA c1ENcrA
que forman el desarrollo de una disciplina. Son las «fotos fijas» de la «pelicula›› de una ciencia. En cada una de estas secuencias el cuerpo teórico es sólo un elemento al que hay que añadir la forma de cómo se construye este cuerpo teórico (metodología), las entidades a partir de las que se elabora (ontologia), la estructura del lenguaje con que lo representamos (lógica), los utensilios con los que se trabaja (instrumentos) y los valores epistemológicos que guían la investigación (criterios de evaluación) (Estany, 1990). Cuando nos referimos a las teorizaciones, como respuestas a problemas del dominio, sólo tenemos en cuenta la respuesta, no el cómo ni con qué hemos llegado a la respuesta. De todas estas estructuras, vamos a detenernos, en los apartados siguientes, en los dominios ordenados y en los modelos. En los dominios ordenados, ya que tienen la estructura lógica de las tipologías y éstas desempeñan un papel clave en las respuestas a problemas del dominio cuando la información que poseemos de éste no está suficientemente sistematizada como para reconstruirla en una estructura axiomatizada. En los modelos, porque su importancia y complejidad nos obligan a un tratamiento detallado para su clarificación.
7.
LAs 1'1PoLooíAs5
La utilización de tipologías es una práctica habitual en el campo de las ciencias sociales, aunque también es ampliamente utilizada en todas las ciencias, especialmente en aquellas cuyo nivel de madurez o la naturaleza del dominio estudiado no permiten la formulación de
leyes y teorías en sentido fuerte. Dentro de la metodología tipológica de las cc.ss. podemos citar a M. Weber, H. Becker y J. McKinney como autores representativos de esta metodología. La tipología constructivista como procedimiento metodológico empieza con Weber, sigue con Becker y continúa con McKinney. Estos autores desarrollan este procedimiento metodológico para aplicarlo a las cc.ss_. y, especialmente, a la sociología.
5. Este apartado sobre tipologías constituye la primera parte de una ponencia sobre el papel de las tipologías en la explicación de la dinámica científica, presentada en el simposio sobre Carnap (Madrid, noviembre de 1991).
LAs †EoktAs ciEN'rtE1cAs
211
I .l. El tipo ideal de Weber M. Weber caracteriza el tipo ideal, en primer lugar, negativamenrc, diciendo que no es una hipótesis aunquellprienta para la formación de hipótesis, no es una exposición de la realidad pero proporciona medios para representarla, no es un promedio e todas las unidades que «caen›› dentro del tipo ideal, sino una abs/êcción de todas ellas. Por urnto -sigue Weber- «el tipo ideal es una utopía que plantea a la labor historiográfica la tarea de comprobar, en cada caso singular, en qué medida la realidad se acerca 0 se aleja de ese cuadro ideal» (Weher, l982:80). Hay que señalar que el sentido que Weber da a «ideal» cs el sentido lógico, no el sentido de «deber ser», de «ejemplaridad›› o de «ideales›› éticos, políticos, etc. Para Weber un «tipo ideal» es «algo por entero indiferente a cualquier juicio valorativo. y nada tiene que ver con una “perfección” que no sea la puramente lógica» (Weber, l982:88). Weber define el «tipo ideal» en los términos siguientes: Constituye este un cuadro conceptual que no es la realidad histórica, al menos no la «verdadera››, y que mucho menos está destinado a
servir como esquema bajo el cual debiera subsumirse la realidad como espécimen, sino que, en cambio, tiene el significado de un concepto límite puramente ideal, respecto del cual la realidad es medida y compa-
rada a fin de esclarecer determinados elementos significativos de su contenido empírico (Weber, 1982182).
Weber da a los tipos ideales un valor fundamentalmente heurístico, considerando la metodologia tipológica propia de las ciencias jóvenes y especialmente apta para disciplinas históricas que se hallan en un estado de eterna juventud (Weber, l982:93). Para Weber la metodología tipológica es sólo una etapa que se ha de superar con la madurez de una disciplina.
7.2.
Valoración epistemológico del tipo ideal
Respecto al rango epistemológico de los tipos ideales de Weber, J. Watkins (Watkins, 1952) califica este tipo ideal de Weber de «tipos ideales holísticos›› pero -según Watkins- esta es una primera versión de
212
INTRODUCCION A LA F1|.osoFlA Dra LA c|ENc1›.
tipo ideal, cuando Weber aún no creía que las cc.ss. debían imitar a las ciencias naturales. Sin embargo, Weber, en su obra póstuma Wirtschaft und Gesellschaft (1922), aboga por tipos ideales que tengan poder explicativo, construidos analizando la forma de las disposiciones típicas y socialmente signiñcativas para luego demostrar cómo, en varias situaciones típicas, este análisis nos lleva a ciertos principios de conducta social (Weber, 194415-18). Esto lleva a Watkins a proponer el principio metodológico que reza: «El científico social puede continuar buscando una explicación del fenómeno social hasta que lo ha reducido a términos psicológicos» (Watkins, l952). Hay que señalar que la idea de Watkins de reducir los fenómenos sociales a términos psicológicos se debe a que Watkins considera que lo significativo en una conducta social es el aspecto psicológico. No vamos a discutir aquí qué es lo que da significación a los fenómenos sociales, lo que nos interesa es la idea de que para construir un tipo hay que hacerlo después de haber analizado los elementos significativos de un fenómeno. El recurrir o no a elementos significativos para la construcción de tipos es el criterio que introduce Watkins para distinguir entre tipos individualistas y tipos holísticos según tengan 0 no en cuenta, respectivamente, las unidades de significación.
7.3.
La tipología constructivista de H. Becker y J. McKinney
La tipología constructivista de Becker y McKinney enlaza con la idea del último Weber, en el sentido de dotar a la metodología tipológica de poder explicativo y no sólo heurístico. McKinney continuó la labor de Becker, completando la llamada «tipología constructivista» como modelo genérico de tipificación que comprende todos los procedimientos tipológicos especiales. "lante Becker como McKinney parten de la idea de que las cc.ss. no deben contentarse con coleccionar datos sino que deben hacer generalizaciones. Por tanto -argumenta Becker-, si la historia es una ciencia social, su objetivo no puede ser mera representación del pasado ya que esto convertiría al historiador en un especialista en idiografía, es decir, en la descripción de lo único (Becker, 1940241). «Como sociólogos, construimos lo general y desde esta construcción hacemos predicciones, tanto prospectivas como retrospectivas›› (Becker, 1940146). La ciencia busca uniformidades y esto -dice McKinney- «impone
/
Las 'reoní/ts cnaN†Ii=ic/ts
213
la eliminación analítica de lo único y la construcción de un orden conceptual de las cosas en donde se expongan los aspectos repetitivos e interrelacionados›› (McKinney, l968:l3). En el marco de esta concepción de las cc.ss. surge la tipología constructivista propugnada por Becker y McKinney. Veamos los principales rasgos de los tipos construidos -según Becker. El tipo no se encuentra en la naturaleza externa sino en la mente del investigador. El tipo es un instrumento con el que trabaja el investigador. Es una construcción, por tanto, nunca corresponde «exacta|nente›› a una instancia empírica real. Becker advierte que no hay que confundir «tipo» con «hi pótesis››. Otra cuestión es que se pueden formular hipótesis a partir de un tipo construido. Los tipos deben construirse a partir de los hechos para luego volver a ellos si no queremos que la especulación vacía reemplace a la generalización fundamentada. Respecto a la metodología tipológica aplicada a la historia dice Becker: «... los datos sacados de la historia pueden ser utilizados para pergeñar casos culturales cruciales de sociedades y bloques culturales “a la Toynbee" ...›› (Becker, 1940252). Becker advierte también del carácter condicional de las predicciones basadas en tipos construidos, es decir, las predicciones no son una forma de profecías, a saber: «el día tal del mes de tal del año tal» sino «si sucede tal y tal entonces, probablemente, ocurrirá tal y tal». McKinney enuncia los presupuestos de la metodología tipológica en los términos siguientes: La construcción de tipos, como enfoque metodológico, no está circunserita a ninguna ciencia en particular; es un procedimiento aplicable a cualquier ciencia El tipo construido es un medio para reducir las dìversidades y las complejidades de los fenómenos a un nivel general y coherente Una función científica del tipo constniido es ordenar los datos concretos de manera que éstos puedan describirse en términos que los hagan comparables, a Fin de que la experiencia obtenida en un caso, a pesar de su unicidad, se pueda emplear para revelar con cierto grado de probabilidad lo que se puede esperar en otros casos De aquí que el tipo sea un artificio heurístico construido principalmente para comparar y predecir más que para describir La predicción sobre la base del tipo construido puede ser retrospectiva o anticipada. De aquí que el encuadre del tipo se pueda buscar tanto
entre los datos históricos como entre los de la escena contemporánea o futura (McKinney, 1968116-17).
214
1N'rnoDucc|óN A LA FiuosoF1A DE LA c|ENc1A
McKinney recoge la definición de Weber, agregando los siguientes límites negativos: 1. El tipo construido no es un universo homogéneo según se entiende comúnmente dicho concepto. 2. El tipo construido no se refiere necesariamente a la forma más común de un fenómeno, sino en general a la forma más significativamente representativa.
3. El tipo construido no es un estereotipo, en cuanto el estereotipo carece con frecuencia de un referente empírico y constituye una exageración afectiva impremeditada que no es empiricamente útil porque le faltan criterios explícitos que la hagan comparable a casos concretos (McKinney, 1968227).
Al examinar diferentes tipologías vemos que podemos establecer tipos de tipologías, para lo cual -según McKinney- las variables más importantes que intervienen en esta diversificación de tipologías son: l) la relación entre tipo y la experiencia perceptual; 2) el grado de abstracción involucrado en los tipos; 3) el propósito del tipo; 4) el ámbito temporal del tipo; 5) el ámbito espacial del tipo, y 6) la función que se requiere del tipo (McKinney, 1968133).
Estas variables actúan como variables polares dando lugar a un continuo, con un nombre a cada uno de los polos de continuo. Tenemos entonces las siguientes variables polares: «l) ideal-extraído; 2) general-específico; 3) científico-histórico; 4) atemporal-temporal; 5) universal-local; 6) generalizador-individualizante» (McKinney, 1968233). La variable polar 1) indica la mera posibilidad objetiva vs. la cons-
trucción conforme a datos empíricos; la 2) indica la simplificación de los atributos empíricos vs. las características perfectamente detalladas; la 3) indica los tipos «relativamente›› atemporales y universales vs. los tipos limitados en el espacio y en el tiempo; la 4) y la S) pueden considerarse como manifestaciones de la 3); y la 6) es el resultado de las variables 3), 4) y 5). Es decir, el tipo generalizador sería aquel en el que predomina el polo científico (atemporal o universal) y el tipo individualizante es aquel en el que predomina el polo histórico (temporal o local).
L/ts 'rlaoiztlts c1EN†íF1cAs 7.4.
215
Valoración epistemológico de la tipologúz constructivista
Respecto al rango epistemológico de la tipología constructivista, llempel (Hempel, 1979) hace algunas consideraciones pertinentes en relación a los problemas taxonómicos de la psiquiatría y de las cc.ss. Hempel sitúa la taxonomía en el marco del estudio de las funciones básicas de los conceptos científicos, entre los cuales se encuentran los conceptos clasificatorios. Como requisitos de los conceptos cientíl`icos, Hempel propone dos: la descripción, por el método que sea (en este sentido el programa operacionalista puede funcionar como un método de descripción) y el contenido sistemático, entendiendo por ello la capacidad de predicción y explicación. ¿Cómo se traduce el contenido sistemático en los conceptos clasificatorios? Debido a que es difícil encontrar casos puros, los criterios de adecuación de este género no pueden efectuar una división del universo del discurso en A y no-A sino un ordenamiento (casi lineal) del universo. De este modo se reemplazan los esquemas clasificatorios por «espacios›› de referencia de varias «dimensiones››. Se pasa, por tanto, de los conceptos y métodos clasificatorios a los conceptos y procedimientos ordenadores, tanto de tipo cuantitativo como del no-cuantitativo (Hempel, l979:l57). Hempel distingue entre «tipos clasificatorios», «tipos extremos» y «tipos ideales», analizando el rango lógico de cada uno de ellos. En el caso de los tipos clasificatorios, su lógica es la bien conocida lógica de la clasificación. Respecto a los tipos extremos, es evidente que no pueden construirse como tipos de clase: los casos individuales no pueden subordin:-1rse'a los tipos extremos como instancias, sino que sólo pueden clasificarse como dichos tipos en la medida en que se aproximen a ellos. Por ejemplo si T es un tipo extremo, no puede decirse que «a›› sea T o no-T, sino que «a›› es «más o menos» T. El paso sigiiente es caracterizar el «más o menos», lo cual no puede hacerse con criterios de forma numérica sino «puramente comparativa». Por tanto, la lógica de los tipos extremos o puros es la lógica del ordenamiento delas relaciones. Hempel llama a estos tipos «tipos ordenadores» (Hempel, 19791162). En cuanto a los tipos ideales, Hempel los caracteriza como los que pueden englobarse en una teoría más general. Hempel cita sólo a Weber y a Becker y dice que Becker es el que más ha aportado en el campo de las tipologías. En este punto creo que lo más interesante que se ha de señalar es que Hempel intenta dar mayor coherencia y po-
216
1N'rRoDucc|oN A LA FiLosoFIA DE LA ct|zNciA
tencia explicativa a estos tipos de lo que pretenden Weber o Becker. Esto lo hace conectándolos a modelos teóricos. Hempel detecta una cierta contradicción entre decir que los tipos ideales se proponen proveer explicaciones y, al mismo tiempo, insistir en que los tipos ideales no pretenden ser hipótesis verificables con la evidencia empírica (Hempel. 19792165). Respecto a la propuesta y crítica de Hempel hay que señalar que, si bien parece acertado incorporar el sistema tipológico, como caso especial, dentro de una teoria más global, no puede decirse lo mismo respecto a la crítica en cuanto a la verificación del sistema tipológico. Respecto a lo primero, a pesar de que Hempel tiene razón, el problema es que, en muchos casos, las disciplinas en las que se construyen tipologías no poseen teorías globales. Respecto al segundo punto, el hecho de que los tres autores (Weber, Becker y McKinney) consideren que los tipos no son hipótesis, no por ello niegan la verificación empírica del sistema tipológico, ya que, como hemos visto, Becker dice claramente que los tipos no son hipótesis pero que se pueden formular hipótesis a partir de los tipos construidos. Comparando la tipología de tipologías de Hempel con la de BeckerMcKinney podemos decir que los tipos extremos de Hempel equivalen a la introducción de variables polares de McKinney, aunque éste no hace la distinción de Hempel entre extremos e ideales según estén o no englobados en un modelo teórico más general.
8.
EL PAPEL DE LOS MODELOS EN EL CAMPO DE LAS ENTIDADES TEÓRICAS
La palabra «modeIo›› es utilizada tanto por científicos como filó-
sofos. Como tantos otros términos utilizados en la literatura científica y filosófica no son originales de dichos campos sino que son tomados del lenguaje ordinario y redefinidos de acuerdo al nuevo contexto en el que son utilizados. Este es el caso de la palabra «modelo›› que tiene diversos usos en el lenguaje natural y que, al ser recuperada por los científicos, adquiere una definición específica y sin equívocos. En general, la elección de una palabra del lenguaje ordinario para su utilización en la ciencia o en la filosofía no es del todo arbitraria sino que guarda cierta semejanza con dicho uso. También en este caso, los diversos sentidos de modelo en el campo científico responden a distintos usos en el lenguaje natural. Vamos a distinguir dos sentidos de modelo en el lenguaje natural
LAs †eoRlAs ci|zN'rtrrcAs
217
no sólo distintos sino contrapuestos. En el primero por «modelo›› se entiende, por ejemplo, modelo de un pintor, de un fotógrafo, de un sastre, etc. La afirmación «X es un modelo de Y» significa que: X es lo representado e Y es la representación. fotografiado fotografía pintado pintura imitado imitación Este es el sentido extraído del lenguaje natural que Mosterín presenta como el que corresponde al sentido en la teoría de modelos (Mosterín, 1984). A este sentido vamos a llamarle «modl››. Modl (modelo) í modelado En el segundo «modelo›› se utiliza, precisamente, en sentido inverso del precedente. Por ejemplo, se habla de un mapa, de una maqueta, de un coche de miniatura como modelos. La afirmación «X es un modelo de l/S› significa que: X es la representación e Y es lo representado esquema esquematizado imitación imitado pintura pintado Este es el sentido que Ferrater Mora (Ferrater Mora, 1971) recoge del lenguaje natural para incorporarlo al discurso científico. A este sentido vamos a llamarle «mod2››. Mod2 (modelo) í modelado Como se ve se da una inversión del sentido de ambos usos. No es de extrañar pues que su extrapolación al discurso cientifico y filosófico pueda originar, por lo menos, interpretaciones diversas e incluso malentendidos si no se explicita de antemano su sentido.
218 8.1.
1N'rRor›ucc|oN A LA FiLoso|=tA DE LA ci|zNciA El sentido de modelo como modl en el discurso cientifico
La utilización de modelo en sentido de modl en la ciencia viene determinada por el significado que tiene en la teoría de modelos de la lógica.° De forma sencilla podemos decir que un modelo es una interpretación de un cálculo, que consiste en la representación de todos los signos del cálculo dentro de un universo determinado de entidades, sometida a precisiones muy cuidadosas que permiten ver, al final, todas las expresiones del cálculo transformadas en proposiciones referentes a esa estructura de entidades establecida. En consecuencia, si tal interpretación transforma los axiomas y los teoremas del cálculo en proposiciones verdaderas relativas a su estructura, se dice que es un modelo de este cálculo (Agazzi, 19862229). Si tomamos modelo como sistema en el que se cumple lo que dice la teoría, entonces lo primero que nos planteamos es la relación entre teoria y modelo. El estudio de esta relación está muy desarrollada en la matemática a través de la teoría de modelos antes aludida. Dice Mosterin: Una teoría cualquiera determina la clase de sus modelos. Y un sistema cualquiera determina unívocamente la clase de todas las teorías de las que él es un modelo. Así podemos partir de una teoría y buscarle modelos, o partir de un modelo (de un sistema) y buscarle teorías. Y podemos obtener información sobre las teorías estudiando sus mode-
los, y sobre los sistemas estudiando sus teorías. Respecto a todos estos y otros muchos aspectos delas relaciones entre teorías y modelo, la teoría de modelos ofrece métodos precisos y resultados abundantes a los que evidentemente no quisiéramos renunciar (Mosterin, 19841153).
Algunos filósòfos de la ciencia no sólo aplican el concepto de modl en matemáticas sino que lo extrapolan a las ciencias empíricas utilizan el concepto de modelo en el sentido de modl. Este sentido de modelo ha sido conceptualizado diversamente según los autores: «una proyección de una teoría de tal forma que una teoría puede tener distintas proyecciones posibles todas ellas isomorfas entre sí» (Wartofsky, 1981); «los modelos de una teoría son los correlatos formales de los trozos de realidad que la teoría explica» (Moulines, l982:78); «hay una co6.
Puede ayudar el ejemplo de cálculo de A. Deaño (Deaño, 1978131-35).
LAs 'reoRlAs c||zN'ríi=1cAs
219
rrespondencia uno-a-uno entre diferentes interpretaciones de la misma teoría formal, que llamaremos analogía formal» (Hesse, l966:68); «un modelo de una teoría puede ser definido como una realización posible en la cual todas las sentencias válidas de una teoría son satisfechas y una realización posible de una teoría es una entidad de la correspondiente estructura de la teoría de conjuntos» (Suppes, «Models of data››:252). Todas estas caracterizaciones de modelo apuntan en la misma dirección, hay diferentes matices y diferencias en cuanto a lo que se entiende por reconstrucción formal de las teoriasl pero en todas ellas el modelo es lo representado. En conclusión, X es un modl de Y lo entendemos como que X es una proyección, una interpretación, una analogía formal o una aplicación de la teoría Y. Respecto a este sentido de modelo, algunos autores -como Mosterín y Suppes- consideran que es la única utilización posible de modelo. Sin embargo, se ha de aceptar el hecho de que los usos de modelo en textos científicos son distintos y que no todos encajan con el sentido de la teoría de modelos, o sea un modl. Las respuesta de los autores precedentes suele ser: decir que se equivocan; darles otro nombre; reducirlos al único uso que consideran plausible.
8.2.
El sentido de modelo como mod2 en el discurso cientr'/ïco
El sentido de modelo como mod2 no es utilizado ni en el campo de la matemática ni en el de la metamatemática a no ser como sinónimo de «teoría››, es decir, cuando el matemático habla de mod2 matemático lo hace en el sentido de teoría matemática.
Al utilizar el sentido de mod2 en las ciencias empíricas, hay que distinguir varios tipos. Algunos son fácilmente caracterizables, pero otros exigen un sofisticado nivel de conceptualización si queremos lograr una definición mínimamente rigurosa. Modelos a escala (mod2E) A los modelos a escala se les denomina tambien modelos mecánicos. Decimos que X es un mod2E de Y si X e Ycomparten la misma 7. Véanse los primeros apartados de este capítulo en los que se exponen las diferentes concepciones de las teorias científicas.
220
mrnoouccrou A LA r=|uosoFí›. DE LA cnzucm
estructura. M. Black los define como el conjunto de todos los simulacros de objetos materiales, tanto reales como imaginarios, que conserven las proporciones relativas (Black, 1962). Ejemplos de mod2E son las maquetas, los planos, los coches de miniatura y las reproducciones de órganos humanos que los departamentos de anatomía utilizan con fines didácticos. Modelos analógicos (mod2A) El objetivo fundamental de los modelos analógicos es explicar un campo desconocido recurriendo a uno conocido. A veces también ejercen una función didáctica pero, a diferencia de los mod2E, los mod2A requieren mayor semejanza, no sólo entre la estructura de la representación y de lo representado, sino también entre los elementos de am-
bas estructuras y su dinámica. La historia de la ciencia suministra abundantes ejemplos del papel de los modelos analógicos en el desarrollo científico. E. Rutherford y N. Bohr tomaron el sistema solar como mod2A para explicar el átomo, diciendo que la estructura del átomo es análoga a la estructura del sistema solar. Ch. Huygens elaboró su teoría ondulatoria de la luz con ayuda de sugerencias derivadas de la concepción, ya familiar en su época, del sonido como fenómeno ondulatorio y J. Black se basó en su concepción del calor como fluido para sus descubrimientos experimentales. Freud se inspiró en la física dinámica para su teoría psicoanalítica. Algunos demógrafos actuales toman como modelo la ley de la gravedad de Newton para explicar los movimientos migratorios. Los modelos analógicos recurren a sistemas mecánicos, más 0 menos
complejos, para dar cuenta de fenómenos eléctricos, magnéticos y ópticos, o bien (como en el caso del átomo) extrapolan lo que ocurre en los sistemas macroscópicos a los sistemas microscópicos, o bien toman campos científicos muy desarrollados como guía para campos menos desarrollados (caso del psicoanálisis y de la demog1afía).' ¿Qué ocurre en este caso de los mod2A con los autores que sólo 8. Estos últimos casos de modelos analógicos pueden considerarse como procesos reduccionistas, de los que la historia de la ciencia tantos ejemplos puede proporcionar. Sobre todo se da en las ciencias prepamdigmáticas que recurren a las que ofrecen pamdigmas potentes desde el punto de vista explicativo para llevar a cabo su proceso sistematizador.
L/ts r|aont›.s c|eN'rí|=|c›.s
221
admiten una sola clase de modelos, a saber: los modl? Mosterin connidera que la frase «X es mod2A de Y» significa X sirve de modelo u Y. Por ejemplo, Mosterín diria que «el sistema solar sirvió de modelo a Rutherford y Bohr para explicar el átomo». Generalizando, la idea dc Mosterin es la siguiente: Podemos decir que el sistema A sirve de modelo del sistema B al científico h si y sólo si (l)A es más simple o resulta más conocido para h que B, (2) a partir de A, h desarrolla la teoría Tde la que A es un modelo y (3) B es también un modelo de T (Mosterin, l984:lS6). Podemos reformular la propuesta precedente de Mosterin con la formulación aquí propuesta en los términos siguientes: el sistema A cs un mod2A del sistema B, y a partir de A construimos la teoria T de la que el sistema A y el sistema B son modl de 71 Una cuestión importante es el valor epistemológico de los modelos analógicos. Nadie discute el valor heurístico de dichos modelos. La analogía entre el sistema solar y el átomo fue fructífera para posteriores investigaciones del átomo y, en general, podemos decir que los mod2A realizan un papel importante en la investigación científica, en especial en la creación y desarrollo de las nuevas teorías. El punto discutible es si también desempeñan un papel en la justificación de las teorías. Giere y Black sostienen que no pueden justificarse hipótesis sobre el sistema modelado a partir de datos del sistema modelo. Si «X es un mod2A de Y», no puedo justificar hipótesis referentes a Y a partir de las hipótesis correspondientes de X. Una consecuencia de esta situación es que tampoco puedo extrapolar las predicciones hechas a partir del sistema X al sistema Y, por tanto, los modelos analógicos tampoco tendrían poder predictivo. Nagel y Hempel parecen apo-
yar esta idea. Refiriéndose a la función de los modelos dice Nagel: Los ejemplos de esta función de los modelos casi no tienen límite, pero las pocas ilustraciones citadas bastan para mostrar que, aún después de que las diversas ideas de una teoría han sido formuladas con ayuda de un modelo, éste continúa rindiendo importantes servicios tanto en la extensión como en la aplicación de la teoría (Nagel, l978:ll4). Hempel señala la función heurística de los mod2A:
222
mrnoouccion A LA r=1uoso|=íA DE LA clE.NciA bo más importante aún es que las analogías o modelos bien elegi-
dos pueden resultar útiles «en el contexto del descubrimiento», esto es, pueden brindar una guía heurística efectiva en la búsqueda de nuevos principios explicativos (Hempel, 1966144).
La idea de estos autores es que los mod2A intervienen como preámbulo en la formulación de teorías y, una vez dichas teorías están justificadas por otras vías, los modelos pueden sugerir lineas nuevas de desarrollo y de expansión de las teorías que han modelado. Los ejemplos presentados en lineas anteriores encajan con la idea de dar a los mod2A un valor eminentemente heurístico, sin embargo hay otros muchos ejemplos que, aun teniendo las caracteristicas de los analógicos, permiten hacer predicciones. Consideremos los ejemplos siguientes: l) A partir de un modelo a escala de la estructura de doble hélice ADN, Watson y Crick dedujeron cómo deberían ser ciertas relaciones entre moléculas, etc., y cómo aparecerian éstas en las fotografias con rayos X, calculando, incluso, ciertos valores que luego fueron contrastados positivamente al fotografiar ADN real. 2) Probar un medicamento para, pongamos por caso, la lucha contra el sida en un chimpancé -consideraciones éticas aparte- también parece un caso de modelo analógico con capacidades predictivas: tomamos al mono como un sistema vivo que guarda suficientes semblanzas y analogías con el ser humano; después le aplicamos el medicamento y predecimos que lo que observamos en el chimpancé será bastante parecido a lo que ocurriría en el ser humano si le sumi-
nistrásemos el medicamento. 3) Las simulaciones por ordenador en determinados casos también pueden ser consideradas modelos analógicos. Estos modelos surgen en situaciones en las que no sabemos cuál es el modelo matemático detrás de un fenómeno y entonces lo que hacemos es simular en el ordenador los procesos que componen el fenómeno que hay que estudiar y dejamos que evolucione para ver que sucedería. Por ejemplo, podríamos estar interesados en saber la evolución de la población de una determinada planta en un campo de trigo. Si conocemos las ecuaciones que rigen tal evolución, el proceso se limita a un simple cálculo. Si no las conocemos puede resultar útil simular el desarrollo de cada planta por separado, introduciendo los datos experimentales como
LAs 'r|zontAs cuaNrtHcAs
223
altura máxima, tiempo de crecimiento, dispersión de las semillas, temperatura del lugar, etc., y luego esperar a ver qué sucede para después predecir lo que sucedería en un campo real. Este proceso será casi siempre un híbrido entre un modelo matemático y uno analógico. El estudio de M. B. Hesse (Hesse, 1966) nos proporciona estructuras metaconceptuales para este tipo de mod2A. Hesse distingue entre analogía positiva, analogía negativa y analogía neutra. Tomemos el
ejemplo de una colección de bolas de billar en movimiento como mod2A” del movimiento de las moléculas de un gas. Hesse llama analogía negativa del mod2A a las propiedades que sabemos que pertenecen a las bolas de billar pero no a las moléculas; HIIHIOBÍB POSÍIÍVB dfil mod2A a las propiedades compartidas por las bolas de billar y las moléculas; y analogía neutra del mod2A a las propiedades que aún no sabemos si pertenecen a la analogía positiva o negativa. En función de estas tres partes del mod2A, Hesse distingue dos tipos de modelos: uno al que llama modelol (para nosotros mod2Al) estaría formado sólo por la analogía positiva y neutra y es «la copia (imperfecta) menos la analogía negativa conocida», es decir, copia imperfecta; otro es el modelo2 (para nosotros mod2A2) que incluye las tr€S GIIGIOBÍHS del modelo (positiva, negativa y neutra). En el sentido que hasta este momento hemos considerado el mod2A sería el mod2A2, es decir, aquel cuya relación entre modelo y modelado está circunscrita no sólo a las similitudes sino también a las diferencias y este sería el que tiene poder heurístico. En cambio, lo que Hesse llama modelol (nuestro mod2Al) sería el que tiene poder justificativo y predictivo, ya que en este tipo de analogía no hay nada que
no sea compartido. Esto significa que cuando Giere y Black hablan de modelos analógicos se refieren a los mod2A2. En realidad Hesse impone una serie de restricciones para que los modelos puedan ser predictivos y explicativos. Esto nos hace pensar que quizás las diferencias entre Hesse, por un lado, y Giere y Black, por otro, sobre los modelos analógicos no sean tan grandes como parecer! 2 Primera V¡SÍfl› T0d0 parece indicar que Hesse incluye en el concepto de analogía diversos tipos de modelos, y en concreto, los modelos que cumplen ¡215 C0l`ld¡> ciones para ser predictivos y explicativos. Sin embargo, este tipo de 9. Hesse no le llama mod2, pero lo que ella llama «analogía››, en nuestra terminologia es mod2A.
224
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
modelos (es decir, los mod2A que son predictivos y explicativos) corresponden a lo que otros autores -como Black y Giere- califican de modelos teóricos, tema del apartado siguiente. Modelos teóricos (mod2T) La caracterización de los modelos teóricos exige un mayor grado de sofisticación conceptual. La razón fundamental está en que su definición depende, en gran parte, de la concepción que se tenga de las teorías científicas. La primera cuestión está en si es fructífero desde el punto de vista epistemológico diferenciar entre teoria y modelo teórico. En este punto hay diversidad de opiniones, mientras unos (Mosterin, Suppes, Braithwaite entre otros) consideran que los mod2T equivalen conceptualmente a teoría, otros (Giere y Black, entre ellos) ven diferencias pertinentes entre mod2T y teoría. Hempel sostiene una postura ecléctica respecto a esta discusión, considerando que «el uso del término “modelo teórico" en lugar de “teoría” quizás pretende indicar que los sistemas aludidos tienen limitaciones claras, en particular cuando se los compara con teorías físicas avanzadas» (Hempel, l966:446). Estas primeras consideraciones hacen pensar que los autores que no ven diferencias substanciales entre mod2T y teorías están pensando en campos de investigación muy desarrollados y que, en cambio (según Hempel), la distinción podría ser útil en ciencias inmaduras o preparadigmáticas. Vamos a ver cómo los cientificos de diversas disciplinas utilizan el término «modelo›› que no sea en los sentidos antes diseñados (a escala y a.nalógicos).'° A veces se utiliza modelo para significar «el con-
junto de suposiciones cuantitativas de la teoría» (Doob, 1960:27). Este uso de modelo -según Suppes- confunde modelo con la teoría del modelo. En el sentido de Doob el modelo es una entidad lingüística, en cambio en el sentido de Suppes un modelo es una entidad nolingüistica en la que la teoría es satisfecha. Otro uso de modelo es considerarlo como «una clase de modelos en el sentido del lógico». Este sentido es el utilizado por los economel0. Voy a tener en cuenta los ejemplos que Suppes (l988: capítulo Vll) presenta como usos de modelo y que él reduce a lo que considera el único sentido riguroso de modelo.
LAs 11aonlAs cieN1'|`i=icAs
225
uistas, los cuales denominan estructura a lo que los lógicos llaman modelo. En resumen: econometrirtas modelo estructura
lógicos teoría modelo
Otro sentido de modelo es considerarlo como «teoría más cuantilutivista y exacta que la teoría original que está establecida en términos más generales y amplios». Esta utilización es muy común en las ciencias sociales y del comportamiento. En estas ciencias -según Simon (Simon, 1957)- la construcción del modelo supone un estadio más en la explicación. Suppes dice que aquí también hay una confusión: «en el lenguaje de los lógicos sería más apropiado decir que ellos llos científicos sociales] están interesados en construir una teoría cuantitativa para equiparar las ideas intuitivas de la teoría original» (Sup-
pes, 19ss=116).
Cuando Hempel habla de modelos teóricos se refiere al uso que tienen con fines explicativos, por ejemplo, en la psicología y en la economía encontramos modelos matemáticos del aprendizaje, modelos teóricos de cambios de actitud y conducta conflictual o modelos para fenómenos sociales, politicos y económicos. «Un modelo teórico de este tipo tiene el carácter de una teoría con un ámbito de aplicación más o menos limitado» (Hempel, 19791437). Es en el sentido de Hempel que podemos encajar los ejemplos de modelos realizados por científicos de diversas disciplinas y presentados por Holland, Holyoak, Nisbert y Thagard en Inductíort' Proces-
ses of lnfemnce, Learning and Discovery. En esta obra se utiliza «modelo›› en el sentido de modelo matemático que pretende mostrar cómo realizamos los procesos de inducción. El modelo muestra los procesos a partir de los cuales aprendemos y hasta ideamos nuevas reglas que luego nuestro sistema cognitivo utilizará para desenvolvemos por el mundo. El modelo lo que hace es procesar las reglas del sistema cognitivo, activando en cada caso las necesarias para la resolución de un problema. Algunas de tipo sincrónico especifican la inclusión de un concepto en una categoría, otras de tipo diacrónico indican la evolución de un sistema y la interacción entre sus partes. Este modelo deberá ser capaz de realizar predicciones del entorno incluso con información incompleta y así mismo debe ser capaz de modificar las reglas
226
1N'ritor›uccióN A LA i=n_osoi=lA mz LA c1aNciA
poco precisas o erróneas por nuevas reglas más ajustadas a la realidad. Habría que mencionar aquí que Holland et al. son poco escrupulosos a la hora de utilizar el concepto de modelo. A veces se refieren al modelo matemático (implementable en principio en un ordenador) que simularía el proceso de aprendizaje de un ser humano, y otras se refieren directamente al proceso cognitivo realizado por el ser humano por el que son aplicadas y modificadas las reglas del sistema. Por lo que hace referencia a la descripción matemática del sistema, el modelo está contemplado como un Q-morflsmo. Se trata de un modelo cercano al homomorfismo que permite ciertas excepciones y situaciones en las que el paralelismo entre el mundo real y las reglas y conceptos del sistema cognitivo no es completo. El entorno está representado como un conjunto de estados determinados y una función de transición que indica cómo cambia un estado a lo largo del tiempo. La función de transición va indicando cuál es el estado del entorno en un momento dado, desplazándose en intervalos discretos de tiempo t, t + l, t + 2, etc. Finalmente, el proceso de aprendizaje y de inducción, a través del cual creamos y/o aprendemos nuevas reglas, ha de verse como la construcción de un modelo progresivamente mejor y más fiable, refmando progresivamente un Q-morlìsmo para acercarlo lo más posible a un homomorfismo. A partir de todo lo expuesto sobre modelos teóricos, podemos hacer las siguientes consideraciones a modo de conclusión: a) La distinción entre teoría y modelo teórico tiene sentido y no debe considerarse como una violación del principio nominalista de aumentar las entidades conceptuales sin necesidad. b) Sin rechazar el aspecto normativo de la filosofía de la ciencia, tampoco puede hacerse caso omiso de todos los sentidos de modelo
que los científicos ponen en práctica y decir que todos sufren confusión conceptual. La función del filósofo de la ciencia es precisamente la de esclarecer conceptualmente el trabajo teórico de los primeros. c) El concepto de modelo teórico propuesto por la concepción semántica de las teorías científicas es muy fructífero y puede encajar con bastante fiabilidad con el uso que muchos científicos hacen del término. d) Si los no partidarios de la distinción entre teoría y mod2T prefieren una clasificación de teorías, entonces posiblemente las diferencias entre los dos grupos de filósofos se debilitarían.
LAs 'rEo¡dAs ciENríF|cAs
227
e) Por último, si el filósofo de la ciencia no renuncia a su función normativa, hay una norma clara referente a la utilización del término «modelo››, a saber: no utilizarla nunca sin antes delimitar en qué xcntjdo se utiliza. Este apartado sobre modelos pretende, precisamente, ser una contribución a la claridad conceptual que tan difícil parece cn esta temática.
7. I.
LA EXPLICACIÓN CIENTÍFICA LA EXPLICACIÓN CIENTIFICA COMO ALFA Y OMEGA DEL ANÁLISIS DE LA CIENCIA
La referencia a la explicación científica es imprescindible desde el principio hasta el final de toda reflexión sobre la ciencia. Cuando buscamos los orígenes de la ciencia recurrimos a la necesidad del Homo sapiens de comprender lo que ocurre a su alrededor. El estado de mayor angustia de los humanos es precisamente la incomprensión de su experiencia inmediata. Este temor a lo desconocido llevó a nuestros antepasados a buscar formas de explicación de acuerdo con el conocimiento que tenían de las cosas. El pensamiento mitopoético, que dio lugar a las explicaciones antropomórficas y animistas, puede entenderse como una reconstrucción de la experiencia en la que se plasma la creatividad de la imaginación humana y la libre inventiva estética de nuestra mente, pero también desempeña el papel de una explicación, es decir, una manera de comprender y dar cuenta de lo que, de otro modo, seguiría siendo oscuro, amenazador e ingobernable (Wartofsky, 1981270). Podemos decir, pues, que la explicación científica forma parte de los objetivos fundamentales que empujaron a los humanos a hacer ciencia. Actualmente nuestro conocimiento del entorno es incomparablemente mayor que el de nuestros antepasados con sus reconstrucciones mitopoéticas de la experiencia, sin embargo la comprensión del entorno sigue siendo el objetivo fundamental de la ciencia, ya que seguimos ignorando más cosas de las que sabemos. La cuestión está en cómo gestionar la ignorancia' l. Debo esta idea a Toni Domenech, idea surgida en el curso de una conversación filosófica.
LA cxi=LicAcióN c1|zN'ríF1cA
229
La referencia a la explicación científica surge también al final de un análisis de la ciencia, no sólo por la persistencia como objetivo del quehacer científico, sino porque en la explicación científica se ponen cn marcha todos los productos científicos, a saber: conceptos, leyes, teorías, modelos y tipologías, en una palabra, todo el conocimiento acumulado por una disciplina en un momento determinado. La idea de considerar la explicación científica como subyacente a todo quehacer científico da sentido al orden de exposición de los temas, dejando la explicación científica para cerrar esta introducción a la filosofía de la ciencia. Por tanto, la explicación científica constituye el alfa, por lo que se refiere a los objetivos de la ciencia, y el omega, en :manto a conceptualización que integra y pone en juego todas las demás conceptualizaciones. ¿Cómo abordar la explicación cientifica? A la hora de caracterizar la explicación científica podemos hacerlo desde varias perspectivas: cn función de su estructura (argumento deductivo o inductivo, pregunta y respuesta, un par ordenado, etc.); en función del tipo de enunciados que intervienen en la explicación (enunciados probabilísticos 0 no-probabilísticos); en función de las distintas ciencias particulares (cc. físicas, cc. biológicas, cc. sociales); en función de criterios cognitivos para obtener la mejor explicación (unificación, simplicidad, comprensión, etc.). No vamos a tomar uno de los enfoques antes mencionados de forma unilateral, fundamentalmente porque cualquiera de ellos está relacionado con los otros, sino que vamos a presentar las principales aportaciones en el tema de la explicación científica, entre las cuales se encuentran opciones que pertenecen a diferentes enfoques. Hay que señalar, sin embargo, que las diversas opciones que va-
mos a presentar a continuación se mueven en planos distintos. Hempel y Salmon analizan la estructura lógica de la explicación científica. Kitcher, por su parte, introduce criterios para valorar el poder explicativo delas teorías. Elster plantea cómo abordar la intencionalidad cuando queremos explicar las acciones humanas. Van Fraassen representa el enfoque pragmático de la explicación científica, mientras que Achinstein especifica todos los elementos que concurren en una explicación, de tal forma que en su modelo de explicación se encuentran cuestiones que tienen que ver tanto con la estructura lógica como con los criterios de evaluación del poder explicativo. Por tanto, no hay que ver las concepciones sobre la explicación científica como alternativas ex-
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
clusivas, sino como análisis de las cuestiones que surgen en torno a la explicación científica.
2. EL Moouo nranucrrvo De ExPLicAcróN cusNru=1cA El modelo deductivo de explicación científica tiene la estructura de un razonamiento deductivo. Para hacernos una idea de lo que entendemos por razonamiento deductivo pensemos en un cálculo de la lógica de primer orden. Desde Aristóteles el modelo deductivo ha gozado de amplia aceptación entre los científicos y se ha considerado como la explicación ideal y la más genuina de la ciencia. Vamos a presentar este modelo de explicación científica a través de la explicación nomológica-deductiva de Hempel-Oppenheim (Hempel, 1979: cap. 10), que es considerada como el paradigma de explicación científica de la Concepción Heredada. Este tipo de explicación interpreta la pregunta «¿por qué sucede este fenómeno'!›› como «¿de acuerdo con qué leyes generales y condiciones antecedentes se produce dicho fenómeno?››. La explicación científica está compuesta de dos elementos principales: explanandum y explanans. El explanandum es la oración que describe el fenómeno. El explanans se refiere a la clase de aquellas oraciones que se aducen para dilucidar el fenómeno. En el explanans hay dos clases de oraciones: una, contiene ciertas oraciones C., C2, ..., C, que formulan condiciones antecedentes específicas; otra, es un conjunto de oraciones L,, L2, ..., L, que representan leyes generales. Estos elementos pueden resumirse en el siguiente esquema: C,, C2, ..., C,
Enunciados de
condiciones antecedentes EXPLANANS Deducción L., L2, ..., L, lógica E
Leyes generales Descripción del fenómeno empírico que se explica
EXPLANANDUM
LA Ex|>L1cAc1óN ci|aN'rl1=rcA
231
Como sostén de este esquema Hempel especifica las condiciones que debe cumplir una explicación cientifica: Condiciones lógicas de adecuación: (Rl) El explanandum debe ser una consecuencia lógica del explanans, dicho en otras palabras, el primero debe ser lógicamente deducible de la información contenida en el explanans, porque de lo contrario este último no podria constituir una base adecuada para el explanandum. (R2) El explanans debe contener leyes generales exigidas realmente para la derivación del explanandum. Sin embargo, no consideramos necesario para una explicación firme que el explanans deba contener por lo menos un enunciado que no sea una ley, puesto que, para mencionar sólo una razón, seguramente desearíamos considerar como explicación la deducción de las regularidades generales que gobiernan el movimiento de las estrellas dobles a partir de las leyes de la mecánica celeste, aun cuando todos los enunciados del explanans sean leyes generales.
(R3) El explanans debe tener contenido empírico; es decir, que por lo menos en principio sea posible comprobarse mediante el experimento o la observación. Esta condición está implícita en (RI), pues, desde que se supone que el explanandum describe cierto fenómeno empírico. se puede concluir a partir de (Rl) que el explanans entraña por lo menos una consecuencia de índole empírica, y este hecho le otorga la condición de ser verificable y de tener contenido empírico. Pero el punto merece una mención especial porque ciertos argumentos que se ofrecen como explicaciones en las ciencias naturales y sociales violan esta exigencia. Condición empírica de adecuación:
(R4) Las oraciones que constituyen el explanans han de ser verdaderas. Es obvio que en una explicación correcta los enunciados que constituyen el explanans deben satisfacer cierta condición de corrección fáctica. Pero parecería más adecuado estipular que el explanans ha de ser confirmado en alto grado por todos los elementos relevantes disponibles, antes que deba considerarse verdadero. No obstante, esta estipulación conduce a consecuencias embarazosas. Supóngase que en una etapa primitiva de la ciencia un determinado fenómeno fuera explicado mediante un explanans verificado con las pruebas de que se disponía en ese momento, pero que descubrimientos empíricos más recientes lo hubieran negado. En este caso, deberíamos decir que originariamente la explicación fue correcta, pero que dejó de serlo cuando se descubrieron elementos de prueba desfavorables. Esto no parece concordar
232
mrkooucclóu A LA F|uoso|=l›. DE LA c|ENc1A con el saludable uso común, que nos lleva a decir que basada en los elementos limitados de prueba iniciales, la verdad del explanans -y, por ende, la solidez de la explicación- había sido bastante probable, pero que la mayor evidencia ahora disponible hizo muy probable que
el explananx no fuera verdadero; de ahi que la explicación no era, ni habia sido nunca, correcta (Hempel: 19792249-250),
Teniendo en cuenta estas condiciones de adecuación podemos hacer algunas consideraciones generales referentes a la relación de la explicación nomológica-deductiva con cuestiones afines a la explicación cientifica: a) Según este modelo de explicación la diferencia entre explicación y predicción es de carácter pragmático. Esta idea es lo que a veces se llama «tesis de la identidad estructural (o de la simetría) de la explicación y de la predicción» que afirma que la explicación de un hecho no es enteramente adecuada a menos que su explanans, considerado a tiempo, hubiera podido fundamentar el pronóstico del hecho que analiza, b) La explicación de un fenómeno se realiza por medio de la subsunción deductiva a leyes o principios teóricos. De ahi la gran importancia que las leyes tienen en este modelo de explicación cientifica. c) En cuanto a la relación entre modelo nomológico-deductivo y explicación causal, Hempel hace las siguientes afirmaciones: «la explicación causal se ajusta al modelo nomológico-deductivo», «la explicación causal es al menos implicitamente deductivo-nomológica», «los mejores ejemplos de explicaciones que se ajustan al modelo N-D se basan en teorias fisicas de carácter determinista» y «no siempre las explicaciones N-D son causales». De estas afirmaciones podemos concluir que no pueden identificarse las explicaciones causales y las nomológicas-deductivas; que puede haber explicaciones que no sean causales pero que se ajusten a la estructura lógica deductiva. Lo que no parece estar en la mente de Hempel es la posibilidad de explicaciones causales que no se ajusten al modelo N-D. Esta última idea cerraria el paso a la posibilidad de leyes estadísticas causales o, más específicamente, de que la causalidad pudiera darse con lo que él llama «modelo inductivo-estadlstico››.
LA |axP|.icAc1oN ciemrricx
233
EJEMPLIFICACIÓN DE EXPLICACIONES CON EL MODELO DEDUCTIVO
Fisica Explanandum: El cohete se elevó unos 800 metros y después volvió a caer en la tierra. Explanans' En primer lugar tendríamos unas condiciones iniciales que serían la posición del cohete, su peso, la cantidad de combustible y la forma en que se realizará la combustión. Asimismo tendríamos una serie de leyes sobre las que aplicar las condiciones iniciales. Por un lado, tendríamos toda una serie de leyes de la química que nos permitirían calcular la energía liberada por la combustión del hidrógeno y oxígeno líquidos, por otro, tendríamos algunas de las principales leyes de Newton: la de acción-reacción que nos permitiría calcular la velocidad inicial del cohete, la segunda ley del movimiento que nos permitiría calcular su velocidad y aceleración en cada momento y la de la gravitación universal que nos permitiría saber la influencia de la gravedad terrestre a la hora de frenar el cohete. Una vez combinadas las condiciones iniciales y las leyes indicadas tendríamos la explicación de la caída del cohete. Química Explanundum: El xenón es un gas inerte que no se combina casi nunca con otros elementos para formar moléculas.
Explanans: Por un lado, tendríamos unas condiciones iniciales que podríamos reducir, en principio, al hecho de que el xenón tiene 8 electrones en su orbital más externo; por otro lado, tendríamos las leyes de la química y de la física cuántica que nos dicen que para realizar un enlace químico es necesario ceder/aceptar o compartir electrones para así tener orbitales en un estado de máxima estabilidad (con todos los electrones que puedan caber, de forma que los números cuánticos de cada uno de ellos no sean todos idénticos). Sin embargo, el xenón tiene su capa orbital totalmente llena, con ocho electrones y por ello no puede realizar enlaces químicos.
INTRODUCCIÓN A LA FILDSOFÍA DE LA CIENCIA
Lingüística Explamzndum: La asignación al pronombre «ella›› de la referencia «Maria›› en la frase «ella no sabe que María lo sabía» es asintáctica. Explanans: Las condiciones iniciales serían las posiciones de las palabras «ella›› y «Marian en la frase que se ha de analizar. Asimismo, para demostrar la asintacticidad de la interpretación deberíamos recurrir a una serie de reglas y principios lingüísticos (que bien podemos considerar leyes) que nos lo muestran. La ley principal que se sigue es la que dice que un pronombre no puede tener como referencia una frase nominal si esta frase nominal «c-gobierna» al pronombre. Por «c-gobierna» se entiende la relación entre dos elementos X e Yde una frase tales que, en un diagrama arbóreo m, ni X domina Yni Ya X (X domina a Y si X es la raíz de un subárbol del cual pende Y) y además el primer nudo ramifìcado que domina a X, también domina a X
3. LA mrnonuccióu mz euuucutnos Pnonxnnísricos en Lxs Exericxciomzs cnam-iricxs Muchas disciplinas científicas no tienen el modelo deductivo' como patrón para sus explicaciones. Esto quiere decir que su explanans no implica necesariamente su explanandum, sino que sólo lo hace probable. Las explicaciones probabilísticas son las que incorporan en el explanans leyes estadísticas, entendiendo por éstas enunciados que alìr-
man que la probabilidad de que suceda un evento E, dada una situación S está entre el intervalo 0 y 1. Abreviando: p(E,S) = r. Por ejemplo, la probabilidad de que salga cara (E) al echar una moneda al aire (S) es de 0.5 (r). Abreviando: p(E,S) = 0.5. 3.1.
Los modelos estadísticos (deductivo-estadístico e inductivo-es tadístico) de Hempel
Hempel (Hempel, 1979) distingue dos tipos de explicaciones estadísticas: Las deductivo-estadisticas (D-E) y las inductivo-estadisticas (l-E). Caracteriza las D-E del siguiente modo:
LA Exrucxclou cnaN'rli=1c›.
235
La D-E suponen la deducción de un enunciado con la forma de una ley estadistim a partir de un explanans que contiene indispensablemente
por lo menos una ley o principio teórico de forma estadistica, Se realiza la deducción por medio de la teoría matemática de la probabilidad estadística, que permite calcular ciertas probabilidades derivadas (las aludidas en el explunandum) sobre la base de otras probabilidades (las aludidas en el explanans) halladas empiricamente o afirmadas hipotéticamente. Lo que explica una explicación D-E, pues, es siempre una uniformidad general expresada por una presente ley de forma estadística (Hempel, 1979375). En estas explicaciones, el paso del explanans al explanundum se fundamenta en la teoría matemática de la probabilidad estadística. Las explicaciones l-E son las explicaciones estadísticas de sucesos particulares. Hempel pone el ejemplo siguiente: se trata de explicar la recuperación (R) de Irene Casas (j), que sufrió una grave infección por estreptococos (E) y fue tratada con altas dosis de penicilina (P). Sabemos que la recuperación en estos casos tiene una probabilidad estadística p(R, E.P) que se acerca a 1, por consiguiente, era prácticamente seguro que se recuperaria. Esquematizando tenemos lo siguiente: p(R, E.P) se acerca a 1 Ej . Pj ==================
(Haçg muy pfgbabk)
Ri Dice Hempel a raíz de las explicaciones I-E: Las explicaciones de hechos o sucesos particulares por medio de leyes estadístico-probabilísticas se presentan como razonamientos que son inductivos o probabilísticos en el sentido de que el explanans confiere al explanandum un grado más o menos alto de apoyo inductivo o de probabilidad lógica (inductiva); por ello, serán llamadas «explicaciones I-E››. Las explicaciones en las cuales las leyes estadísticas invocadas son de forma básica, seran llamadas «explicaciones l-E de forma básica» (Hempel, 19792379). Hempel considera que un razonamiento de este tipo sería explicativo si la probabilidad (r) asociada a la explicación se acerca a l, es decir, si la probabilidad es alta. Sin embargo, como Hempel mismo reconoce, no deja de tener cierta arbitrariedad la asignación de un nú-
236
n~rrRoDucc1oN A LA F1uoso|=íA DE LA cu2NciA
mero particular, por ejemplo 0.8, como valor mínimo de la probabilidad (r) admisible en una explicación. 3.2.
Modelo de pertinencia estadistica (PE) de Salmon'
W. Salmon (Salmon, 1971) aporta una alternativa al modelo inductivo-estadístico de Hempel y constituye una importante aportación a la explicación científica. Veamos, en primer lugar, algunas diferencias importantes respecto al modelo de explicación estadística de Hempel. Salmon sostiene que las explicaciones estadísticas no necesitan ser consideradas como argumentos inductivos, ni tampoco es necesaria una probabilidad alta para una explicación estadística correcta, dos supuestos fundamentales en la propuesta de Hempel. Salmon sustituye el requisito (desideratum) de alta probabilidad por el de pertinencia estadistica. Se entiende que un factor a es estadísticamente pertinente para que ocurra un evento e si la probabilidad de que suceda e es distinta en presencia o ausencia de a. Por ejemplo, queremos explicar la curación del resfriado común recurriendo a la generalización siguiente: «La vitamina C cura el resfriado común». Hempel preguntaría cuál es la probabilidad de curar un resfriado si uno toma vitamina C, en cambio a Salmon lo que le interesa es cuál es la diferencia entre la probabilidad de curar un resfriado tomando vitamina C y la probabilidad de curarse sin tomarla. Para argumentar a favor de su propuesta, Salmon presenta algunos contraejemplos al modelo de Hempel, ya que son casos en que se cumplen todos los requisitos exigidos por Hempel pero que no pueden considerarse una explicación. Veamos los siguientes contraejemplos:
Si se administra vitamina C, casi todos los resfríados se curan. Teresa está resfriada y toma vitamin/à C. _
.
/
Es casi seguro que Teresa estara curada en una semana. Este argumento es correcto, pero la ingestión de vitamina C no explica la curación del resfriado porque todos los resfríados se resuelven en una semana. 2. Aqui habría que citar también a R. Jeffrey y J. Greeno, asociados a este modelo de explicación.
LA i:xPL|cAcroN cnaN'rI|=1cA
237
Cuando hay un eclipse, si se hace mucho ruido la luna reaparece. Hubo un eclipse en China y la gente salió a la calle con sartenes y cacerolas para hacer ruido. La luna reapareció después del eclipse. También en este caso se sabe que cuando hay un eclipse la luna siempre reaparece. Hempel responde, en este punto, apelando al requisito de máxima especificidad, constricción que pretende paliar la ambigüedad explicativa de una predicción probabilística, entendiendo por tal toda la información que podamos obtener referida al fenómeno en cuestión.” Para comprender el modelo de Salmon en toda su amplitud es necesario aclarar varios conceptos, algunos de los cuales se refieren a cuestiones generales relacionadas con la teoría dela probabilidad, mientras que otros hacen referencia directa a su modelo de explicación! Aquí nos vamos a centrar en los que están ligados directamente a su modelo. En cuanto a los conceptos relacionados con la probabilidad, hay una cuestión previa que consiste en revisar algunas de las interpreta-
ciones del concepto de probabilidad. De las distintas interpretaciones de la probabilidad, Salmon dice que la aplicación de la teoría matemática de la probabilidad a cuestiones empíricas se efectúa por la interpretación frecuencial de la probabilidad estadística, para la cual «p(G,F) = r›› enuncia la frecuencia relativa a largo plazo con la que un experimento de azar de algún tipo especificado E realizado por el hombre o por la naturaleza, tiende a dar un resultado de tipo G. Veamos algunos elementos que nos ayudarán a una mejor comprensión del modelo explicativo de Salmon:
a) Probabilidad anterior y probabilidad posterior (o posfactual). El concepto de probabilidad anterior, que no debe entenderse como a priori sino anterior respecto a alguna información particular o investigación. Por ejemplo, en el caso de la explicación de la curación del resfriado gracias a la vitamina C, la probabilidad anterior se re3. Es lo que Carnap llama «requisito de los elementos de juicios totales». 4. Los conceptos relacionados con la teoria de la probabilidad han sido introdueidos en el capitulo 4, en relación a las hipótesis científicas.
238
1rrrRoDucc1oN A LA F|uosoFlA DE LA c|ENc1A
ñere a la probabilidad de curarse un resfriado antes de ingerir la vitamina C. La probabilidad posterior (0 posƒactual) es la probabilidad de estar resfriado después de haberse tomado la vitamina C. b) Clase de referencia. La atribución de una probabilidad a un acontecimiento específico se realim, en primer lugar, colocando el evento en cuestión en una clase, llamada clase de referencia, de eventos similares en la que nuestro elemento pueda figurar como elemento típico, y en segundo lugar, se determina la frecuencia relativa del acontecimiento tipo en la clase de referencia. Por ejemplo, para saber si nuestro vecino celebrará su septuagésimo aniversario, lo colocamos en la clase de referencia de los españoles contemporáneos, de costumbres ordenadas, de 48 años de edad, con hijos ya casados, etc., investigando el porcentaje de elementos de la clase que han alcanzado los 70 años. En la expresión «p(B,A) = r››, A es la clase de referencia y B el atributo. c) Parlición estadísticamente pertinente. Una partición de una clase es un conjunto de subclases mutuamente exclusivas y exhaustivas. La partición de una clase hay que hacerla estadísticamente pertinente (EP), entendiendo por EP lo siguiente: si dividimos la clase A en dos subclases, la que tiene la propiedad C y la que no la tiene, C es EP si y sólo si p(B, A.C) qe p(B, A). Al hacer una partición reducimos la clase de referencia, cosa deseable siempre que las particiones sean EP y que la clase de referencia contenga todas las instancias que queremos examinar. Dice Salmon al respecto: La «pertinencia estadistica» es una noción esencial. Es deseable re-
ducir la clase de referencia de forma estadísticamente pertinente, pero no si esta reducción tiene que hacerse de forma no pertinente. Cuando nosotros elegimos una clase de referencia en la cual incluimos un caso singular, nos tenemos que preguntar si podemos subdividirla de forma estadísticamente pertinente. Si es asi, tenemos que elegir la subclase mas pequeña que resulta de la subdivisión; si no se conoce otra forma de dividir estadísticamente pertinente, debemqs evitar continuar hacien-
do la clase de referencia más pequeña (Salmon, 1971142). d) Selección de lugar. R. von Mises (Von Mises, l957:25) introduce el concepto de selección de lugar, definido en los términos siguientes: por selección de lugar entendemos la selección de una secuencia parcial de forma tal que decidimos si un elemento debería 0 no ser incluido en esta selección sin hacer uso del atributo 0 del ele-
LA Ex|>LrcAcróN c|ENrt|=1cA
239
mento. En el ejemplo anterior en que teníamos una clase de referencia de hombres españoles, una selección de lugar podría ser los hombres españoles que tienen los ojos azules o los que viven en ciudades de más de 100.000 habitantes, pero no seria una selección de lugar los españoles que han cumplido los 70 años ya que en este caso no se puede determinar la selección sin recurrir al atributo. La selección de lugar puede (o no) ser EP respecto a un atributo de una clase de referencia dada. Si una selección de lugar no es EP respecto a un atributo de una clase de referencia dada, la probabilidad de este atributo dentro de la subclase determinada por la selección de lugar es igual a la probabilidad de este atributo en la clase de referencia total de la que hemos partido. e) Clase de referencia homogénea. A partir de la selección de lugar podemos definir la clase de referencia homogénea. Si ninguna de las propiedades determinadas por la selección de lugar es pertinente para el atributo dado B dentro de la clase de referencia A, podemos decir que A es una clase de referencia homogénea para B. Salmon distingue dos tipos de no homogeneidad: epistémica y práctica. Es epistémica cuando sabemos o sospechamos que la clase de referencia no es homogénea pero sabemos cómo hacer una partición EP. Es práctica cuando sabemos que la clase de referencia no es homogénea y sabemos qué atributos afectarían una partición EP, pero sería demasiado costoso averiguar qué elementos pertenecen a cada una de las subclases de la partición. V f) Regla de desplazamiento. El concepto central del modelo de explicación estadística de Salmon es el de desplazar (screen-off) y su regla correspondiente, a saber, la regla de desplazamiento (screening-
offrule). Para facilitar la comprensión vamos a desarrollarlos a partir de un ejemplo puesto por el propio Salmon. Supongamos que en el barómetro de mi casa se indica una bajada repentina de presión, entonces podemos predecir, con bastante credibilidad, una tomtenta. Pero la lectura que podamos hacer del barómetro sólo es un indicador, no la causa, de la tormenta y, por tanto, no explica la tormenta. La causa de las tormentas es una situación atmosférica determinada como las bajas presiones que se dan en una amplia región de la atmósfera. Supongamos las siguientes clases: A = La clase de los dias en la región donde mi casa está situada (clase de referencia). B = La clase de los días en que hay tormenta (atributo).
240
1N'rkooucc1óN A LA Fnosoi=lA DE LA c1eNc1A
C = La clase de los días en que hay una bajada repentina en el barómetro de mi casa (partición 1). D = La clase de los días en que hay una bajada de presión atmosférica en el área donde está localizada mi casa (partición 2). Decimos que D desplaza a C desde el punto de vista de B en lu clase de referencia A si y sólo si: p(B, A.C.D) = p(B, A.D) ak p(B, A.C) Hay que tener en cuenta que del hecho de que D desplaza a C no puede inferirse que C desplaza a D, ya que la relación «desplazar a» no es simétrica. Ahora tenemos todos los conceptos necesarios para enunciar la regla de desplazamiento: «cuando una propiedad, en cuyos términos se ha efectuado una partición EP de una clase de referencia, desplaza a otra propiedad, en cuyos términos se ha efectuado otra partición EP de aquella misma clase de referencia, entonces la propiedad desplazada tiene que ceder ante la propiedad que la desplaza» (Salmon, 1971155). Volviendo a nuestro ejemplo, esto significa que la propiedad de bajar el barómetro ha quedado desplazada por la propiedad de las bajas presiones a la hora de explicar por qué hubo tormenta. g) Regla dela homogeneidad múltiple. A veces no podemos hacer una partición de la clase de referencia A en dos subclases homogéneas, en este caso aplicamos la regla de homogeneidad múltiple, que consiste en una partición de A en K subclases C,,, cada una completamente homogénea y tales que: p(B, A.C¡) ak p(B, A.C¡) para i ¢ j La homogeneidad múltiple expresa la condición fundamental para
una explicación adecuada de eventos particulares y servirá para una caracterización general de explicación deductiva e inductiva. Dice Salmon al respecto: En este punto es crucial señalar que el énfasis de la presente propuesta de explicación esta en alcanzar una partición pertinente de una
clase de referencia no homogénea, convirtiéndola en subclases homogéneas. Según esta concepción, una explicación no es un argumento que intenta convencer; por el contrario, es un intento de juntar los factores
que son pertinentes para que ocurra el evento (Salmon, 1971165).
LA nxi›i.rcAc1oN cnaN'rli=1cA
241
Vemos que para Salmon lo más importante no es que la probabiliilnd de la generalización estadística del explanans sea alta, ni siquiera es un requisito indispensable que la probabilidad posterior sea mayor que la probabilidad anterior, lo fundamentales encontrar factores que scan pertinentes estadísticamente para el evento que tratamos de ex|›Iicar. Ahora tenemos todos los elementos para exponer la naturaleza de lu explicación estadistica según Salmon. Una explicación es la respuesta ti una pregunta que tiene la forma siguiente: ¿por qué x que es un miembro de A tiene la propiedad B? La respuesta a esta pregunta consiste cn una partición de la clase de referencia A en subclases homogéneas respecto a B y en especificar cuál de estas subclases contiene el evento que queremos explicar. Formalmente, Salmon lo expresa del modo siguiente: P(B› A-Ci) = Pl
P(B. A-C2) = Pz
p(B, A-Ci) = Pt
donde A.C,, A.C,, ..., A.C,, es una partición homogénea de A respecto a B. Siendo pi = p, sólo si i = j y x G A.C,, Comparando su propuesta con la de Hempel, dice Salmon: Como Hempel, veo una explicación como una entidad lingüística, es decir, como un conjunto de enunciados, pero a diferencia de él, no la veo como un argumento. Desde mi punto de vista, una explicación es un conjunto de enunciados probabilísticos, cualificados por ciertos provisos, más un enunciado especificando la clase donde pertenece el explanandum (Salmon, l97l:77).
Como conclusión podemos decir que Salmon considera que este no es el único modelo legítimo de explicación, que las generalizaciones estadísticas y universales deben ser legales, que este modelo depende, fundamentalmente, de dos conceptos, a saber: pertinencia estadistica y la relación de «desplazar a», y finalmente, que aunque este
242
¡N'rRoDucc|0N A LA Fn.›osoFíA DE LA CIENCIA
modelo ha sido presentado en términos de la interpretación frecuen cial de la probabilidad, dicho modelo no constituye un argumento para reforzar la aceptabilidad de la interpretación frecuencial de la probabilidad.
EJEM1>r.u=1c.\clóN DE ExPLIcAc|oNEs Pon Er. MODELO
rnonumísnco Deductivo-estadísticas Tèorfa de la computación Explanandum: El próximo signo que presentará un autómata generador de una gramática a*e será una «a›› con una probabilidad del 50 por 100. Explanans: Supongamos que en un ordenador tenemos simulado un autómata no determinista generador de la gramática a'e. A la hora de calcular las transiciones matemáticas el ordenador utiliza un sistema X generador de números casi aleatorios. Estas serían las primeras condiciones iniciales (el tipo de gramática y el sistema generador de aleatoriedad). Seguidamente tendríamos la otra condición inicial de que el autómata hasta ahora ha escrito «aa››. Ahora tan sólo tenemos que aplicar la teoría de la matemática estadística al sistema generador de aleatorìedad más las leyes generales que rigen la ge-
neración de gramáticas para hallar que, efectivamente, la probabilidad sería del 50 %. Tëorúz de juegos Explanandum: En principio, el juego de la ruleta es desfavorable para el jugador y favorable para la banca. Explanans: Las condiciones iniciales serían la cantidad de números que hay en la ruleta, la forma en que se pueden hacer apuestas, lo que se paga por cada apuesta, etc., y después, una vez aplicadas las leyes generales dela estadística se deduciría fácilmente el explanandum indicado.
LA Exi>LicAcióN ciEN1'Ii=icA
243
lnductivo-estadísticas Física Explanandum: Es muy probable que la bomba nuclear que se acaba de activar explote antes de los 40 segundos. Explanans: Lo que tendriamos aquí sería una explicación a p arti r d e probabilidades condicionadas apoyándolas en una serie de leyes de la física nuclear más una especificación de las características g en e r a l es de la bomba (sus condiciones ' ' iniciales): ` ' ` cuánto plutonio hay, cómo está distribuido , qué ti p o de exp 1 osi' vos de compresión se utilizarán, etc. Una vez realizados los cálculos resulta que, efectivamente, es muy probable que la bomba
explote. Biología Explanandum: Es muy poco probable que el hijo que va a tener el matrimonio Casas-Forcadell sea hemofílico Explanans.- Por un lado, tendriamos ' unas condiciones iniciales tales como que la hemofilia es un rasgo recesivo, que el pa d re es h emofílico y, por tanto, es transmisor seguro del gen de la hemofilia a su hijo y, por otro, que en la familia de la mad . _ re nunca se han dado casos de hemofilia, por lo cual es realmente muy poco probable que la madre sea portadora del gen A u, 1. , . _ q i, ap icando las leyes de Mendel es facilmente deducible que es muy poco probable que el hijo del matrimonio Casas-Forcadell padezca hemofilia.
Pertinencia estadística Psicología Explanandum: Existe un gen causante de la esquizofrenia. Explanans: Deberiamos mostrar que existe una pertinencia estadística entre el hecho de compartir determinados genes y paparticiones d ecer l a enfermedad. Además deberíamos realizar ` de manera que este hecho fuera pertinente y no quedara enmascara d o por otros (por ejemplo, vivir en un ambiente opresivo que ayudarla a la aparición de la esquizofrenia). Si la aparición de la población y se observa tie ne l ugar en subclases homogeneas '
244
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
una correlación clara entre ser esquizofrénico y ser hijo de esquizofrénico, correlación no achacable a otros fenómenos, tendríamos la explicación del explanandum. Sociología Explanandum: La decisión del Likud de retirarse de las negociaciones de paz con Palestina hizo que la intención de voto se desplazara significativamente desde el Likud a los laboristas israelíes. Explanans: A través de unas encuestas bien construidas rea-› lizadas antes y después de la decisión del Likud deberíamos mostrar que, efectivamente, una vez realizadas las particiones correctas, ha habido un desplazamiento significativo de voto entre antes y después de la retirada del Likud, desplazamiento que no muestra ninguna pertinencia estadística con algún otro hecho colateral. Meteorología Explanandum: El 9 de febrero de l992 cayó una copiosa nevada en Balaguer causada por la conjunción de una borrasca junto con los vientos polares. Explarians Una vez realizada una partición correcta entre las subclases homogéneas de los diversos eventos meteorológicos que se producen en los cielos de Balaguer, considerando sus posibles conjunciones, se debería mostrar que, efectivamente, hay una correlación entre la conjunción de una borrasca y los vientos polares, cosa que explicaría la copiosa nevada del 9 de febrero.
4. Ex.i›LicAcioNEs i=uNcioNALEs Y 'rELEoLóoicAs Es habitual en la literatura ñlosófica encontrar un tratamiento conjunto delas explicaciones funcionales y teleológicas, sin embargo, todos los autores tenninan estableciendo diferencias aunque utilicen terminologías distintas para su denominación. El terreno común de este tipo de explicaciones podríamos situarlo en su contraposición tradicional a las explicaciones causales.5 Com5. No voy a entrar aquí en una discusión a fondo del concepto de causalidad. En algunos capítulos del libro hay referencias a este tema. En su formulación más simple,
LA EXPLICACIÓN CIENTÍFICA
245
¡mirando las explicaciones causales y las explicaciones funcionalesu-Icológicas, podemos establecer la diferencia siguiente: las explicaciones causales apuntan por lo regular hacia el pasado, siendo su exprenlóii lingüística tipica «esto tuvo lugar porque había ocurrido aquelIi›››; las explicaciones funcionales-teleológicas apuntan hacia el futuro \-xpresándose con frases como «esto tuvo lugar con el fin de que ocn: iriera aquello». Nos centraremos en tres cuestiones: la estructura lógica de este tipo «lc explicaciones, los problemas surgidos como cong¢¢u¢n¢¡a de v¡o¡a¡. nlgunos de los principios metodológicos y metafísicos que subyacen ii la investigación cientifica, y algunas de las respuestas a estos pm. blemas.
4.l.
Explicaciones funcionales
En las explicaciones funcionales se indican las acciones que ejerce iina parte de un todo para mantener en funcionamiento ese todo. Una de las caracteristicas que más las diferencian de las teleológicas es que cn las primeras (a diferencia de las segundas) no intervienen pr0pó_«,¡_ los conscientes. El análisis funcional podemos encontrarlo en la tradición psicoanalista (Freud), en la tradición funcionalista de la antropologia (Malinowski y Radcliffe-Brown) y de la sociología (Merton y Parsons). El análisis funcional trata de comprender una pauta de conduçta 0 una institución sociocultural, determinando el rol que desempeñan para mantener en buen funcionamiento un sistema dado o para que
siga siendo un proyecto viable (Hempel, 19791302). Ejemplos de enunciados funcionales son los siguientes: (1) El latido del corazón en los vertebrados tiene como fun¢¡ón hacer circular la sangre por el organismo. (2) La función de la clorofila en las plantas es permitir a éstas realizar la fotosíntesis, es decir, formar almidón a partir del dióxido de carbono y del agua en presencia de la luz solar.
entendemos por explicaciones causales aquellas que subsumen los fenómenos que quie. ren explicar bajo leyes causales. Este tipo de explicación encaja con la estniçmm nomológica-deductiva propuesta por Hempel-Oppenheim.
246
iN'riioDucc|oN A LA F|Losoi=lA DE LA c|ENc|A
La solución de Nagel (Nagel, l978:366-369) es abandonar el aii pecto finalista de las explicaciones funcionales de la biología. Como Nagel no distingue, de entrada, entre explicaciones funcionales y te› leológicas, la solución puede expresarse diciendo que hay que reformular los enunciados teleológicos en enunciados no-teleológicos. Tomemos el enunciado (2). Nagel dice que (2) es un argumento abreviado, de modo que cuando se descompone, puede expresarse del modo siguiente: «cuando se les suministra agua, dióxido de carbono y luz solar, las plantas elaboran almidón; si las plantas no tienen clorofila, aunque tengan agua, dióxido de carbono y luz solar, no elaboran almidón; por tanto, las plantas contienen clorofila». Nagel generaliza los enunciados teleológicos y su reformulación como sigue: Con mayor generalidad, un enunciado teleológico de la forma «la función A en un sistema S de organización C es permitir a S, en el medio E, realizar el proceso P» puede ser formulado más explícitamente así: «todo sistema S de organización C y en el medio E realiza el proce-
so P; si S, de organización C y en el medio E, no tiene A, entonces S, no efectúa P; por tanto, S de organización C debe tener A (Nagel,
19781367).
La mayor objeción a la propuesta de Nagel proviene de la equivalencia entre enunciados teleológicos y sus correspondientes formulaciones no-teleológicas, ya que, si bien la mayoría de los biólogos admitirían la implicación desde los enunciados teleológicos hasta los no-teleológicos, no resulta tan fácil la implicación en sentido contrario, es decir, que cualquier enunciado no-teleológico tenga su corres-
pondiente formulación en un enunciado teleológico. Frente a esta objeción Nagel concede un «significado adicional» a los enunciados teleológicos, o sea que la relación entre enunciados teleológicos y no-teleológicos no seria de equivalencia sino de implicación. La diferencia entre unos y otros la expresa Nagel en los términos siguientes: Las explicaciones teleológicas concentran la atención en la culmi-
nación y el producto de procesos especíñcos, en particular, en las contribuciones de Ias diversas partes de un sistema al mantenimiento de sus propiedades 0 modos de conducta globales. Las explicaciones no-teleológicas, en cambio, dirigen primordialmen-
LA Exi›LicAcióN ciEN'r|i=icA
247
te la atención a las condiciones en las cuales se inician o persisten procesos específicos, asi como a los factores de los que dependen las manifestaciones persistentes de ciertas características generales de un sistema (Nagel, 19782383). Resumiendo, la diferencia entre las explicaciones teleológicas y noteleológicas está en el énfasis y la perspectiva de la formulación. Según la concepción de Nagel, el uso de las explicaciones teleológicas es absolutamente compatible con los requisitos metodológicos de la
ciencia actual. Esta concepción es la que predomina en los autores procedentes de la tradición empirista, que considera el análisis funcional como una modificación de la explicación teleológica, no necesitando, aunque a veces lo haga, apelar a entidades problemáticas de tipo finalista, con lo cual podemos atribuir al análisis funcional un núcleo claramente empírico. Hempel establece la forma lógica de la explicación funcional del modo siguiente: a) En el momento I, el sistema s funciona adecuadamente en un ámbito de tipo c. b) s funciona adecuadamente en un ámbito de tipo c, sólo si se satisface el requisito n. ` c) I es la clase de condiciones empiricamente suficientes para n en el contexto determinado por s y c; I no es vacio. d) Alguno de los items incluidos por s y c se halla presente en s en el momento r (Hempel, l979:31l). Desde el punto de vista del estatus epistemológico de las explicaciones funcionales, Hempel hace los siguientes comentarios: La información que típicamente nos proporciona el análisis funcional de un ítem i) no brinda un fundamento adecuado deductivo ni inductivo para preferir a I sobre cualquiera de sus otras altemativas. La impresión de que el análisis funcional efectivamente proporciona este fundamento, y por lo tanto explica la ocurrencia de i, se debe sin duda y por lo menos en parte al beneficio del conocimiento post facto: cuando tratamos de explicar un ítem i, ya sabemos presumiblemente que i ha ocurrido... A menudo lo que ha recibido el nombre de «funcionalismo›› debe encararse no tanto como un cuerpo de doctrinas o teorias que propon-
248
n~rriioDuccióN A LA |=ii.osoFlA DE LA ciENc|A gan principios tremendamente generales, tales como el principio del funcionalismo universal, sino más bien como un programa de investigación guiado por ciertas máximas heuristicas o «hipótesis de trabajo››... El análisis funcional en psicología y en las ciencias sociales, como también en biologia, puede concebirse, al menos idealmente, como un programa de investigación orientado a determinar los aspectos y grados en que se autorregulan dichos sistemas (Hempel, 19791310-327).
Lo que Hempel y Nagel llaman «análisis funcional» es calificado por G. H. von Wright como explicaciones «cuasi-teleológicas». Éstas tienen como caracteristica, cosa que no tienen las teleológicas genuinas, una vinculación nómica. En algunos contextos se introduce el término «teleonomia›› para referirse a los ajustes naturales, que resultan de la selección natural, pero podria darse al término un sentido más amplio referido a toda modalidad teleológica que dependa de conexiones nómicas. Por tanto, «teleonomía›› y «explicaciones cuasiteleológicas» vendrían a ser términos con un significado idéntico. J. Elster al contemplar las modalidades de explicaciones cientificas también hace una distinción entre explicaciones funcionales y explicaciones teleológicas, llamando a las últimas «intencionales››. El punto de vista más controvertido de la propuesta de Elster es la negación del papel de la explicación funcional en las ciencias sociales. Dice: Me refiero a explicaciones de fenómenos sociales en ténninos de beneñcios no biológicos. No me atrevería a negar que tales consecuen-
cias beneficiosas puedan explicar sus causas aun cuando los beneficios no sean biológicos, siempre que se especifique algún mecanismo de realimentación. En biologia la teoria de la selección natural crea la presunción de que todo lo que beneficie a la capacidad reproductiva también puede ser aplicado por esos beneficios. En ciencias sociales no existe una teoria de generalidad comparable, de modo que el verdadero mecanismo debe ser explicado en cada caso particular (Elster, 1991123). Haciendo un balance delas aproximaciones de Nagel, Von Wright y Elster a las explicaciones funcionales, podemos sacar las siguientes
conclusiones: a) l-lay que distinguir entre explicaciones funcionales y teleológicas.
LA Exi>LicAcioN ciEN'ri|=iç;,_
249 b) Dentro de las explicaciones funcionales hay difm-enc¡ el análisis funcional aplicado a la biologia y èl ¿Ducado 1 af enffe sociales. a as qenclaä c) Nadie pone en duda la importancia d¢| an¿¡¡s¡s func. ciertos contextos, sin embargo hay va¡o¡.ac¡ones distintas te ional en estatus epistemológico. Specm 3 SU d) La tradición empirista procedente del Circulo de Vi sentada, por lo que a las explicaciones funcionales Se reñere, ena repre.
pel, Nagel y Braithwaite tiende a reconstruir las explicaciontïsof Hcfm nales con la estructura lógica de la explicagión hipotético d uncio. La valoración del estatus epistemológico de dicha; explicacióngluctiva. a partir de los supuestosmetodológicos y epistemológicos u se hace la tradición empirista, tienen que guiar la investigación ¿ln ef fïegun
e) Yon Wright acentúa el carácter nómicg de las ¡-cladonlålsncai explicaciones funcionales como distintivo que las diferencia d ¡en as Ieológicas genuinas. e 351°-
f) Elster deja las explicaciones funcionales
.
. _ . . _ . Para la b ' tionando su aplicabilidad a las ciencias sociales. lologla' cue*
4.2.
Las explicaciones teleológicas
Al abordar las explicaciones teleológicas es conveniente fenómenos que pueden ser objeto de expli¢¡,_c¡Ón teleoló icacotar los planandum de una explicación teleológica es un ítem de congd ay El exde los múltiples sentidos y usos de conducta, sólo vamos ucta, Pero. cuenta el que se refiere a objetos animados, ¢¿¡ac¡e¡.¡zánda ¡tener en «activiforme›› (action-like). Estas acciones pi-esgman dos as O O como interno y otro externo. El interno se refiere 3 ¡a ¡menc¡0nåçât°s: "'10
acción. El externo se refiere a las circunstanchs que acom i ad de la acción y presenta dos fases: una inmediata, que es una acmpãñan a la cular -por ejemplo girar la muñeca o girar el bi-a¿0_ y ml ad musi que es algún acontecimiento del que esta actividad musculía remota' causalmente responsable -por ejemplo el hech d .ar lïesulm . 0 9 Cll-1€ al un t en particular gire o una ventana en particular sc ¿bm g lmdof
Para que una acción sea un explanandum de una e'Xp¡¡c .Ó leológica es necesario que posea los dos aspe¢¡(,s- ¡ am n te' ' m°"10 Y externo 6.
Para esta tarea de delimitación voy a seguir a von wrigin (Von W . h ¡IE 1, l979).
250
¡N-mooucción A LA |=1wsoFlA DE LA ciENc|A
Así, ni los actos mentales, que carecen de aspecto externo, ni la acción refleja, que carece de aspecto interno, podrían ser objeto de explicación teleológica. Por tanto, explicar una conducta consiste en identifícar en ella un objeto de intención. El problema fundamental de este tipo de explicaciones está en cómo analizamos la conexión entre intención y conducta. Lo que se trata de evitar es que el futuro actúe causalmente sobre el pasado, vulnerando así uno de los principios metafísicos] a saber, que la causa es
anterior temporalmente al efecto. Supongamos el siguiente enunciado teleológico: (I) Enrique Vlll de Inglaterra trató de anular su matrimonio con Catalina de Aragón con el tin de tener un heredero. El enunciado (!) no hay que interpretarlo como si el estado futuro (el tener un heredero) aún no realizado fuera la causa de la acción presente (la petición de la anulación de su matrimonio), sino que fue el «deseo›› de un heredero lo que le llevó a la conducta de pedir la anulación de su matrimonio con Catalina de Aragón. La idea de que «la intención está detrás de las manifestaciones extemas de la acción» viene de Descartes, considerando que la voluntad es la causa de la conducta. Esto supondría poder traducir las explicaciones teleológicas genuinas en explicaciones causales, sustituyendo el objeto «que arrastra desde el futuro» por el deseo «que impulsa hacia el futuro» (Von Wright, 1979). Una versión extrema sería la concepción que identifica la propia voluntad con procesos o estados mentales, es decir, el aspecto interno de la acción sería la causa del aspecto externo de dicha acción.
Desde los criterios epistemológicos del empirismo lógico (representado aquí por la postura de Hempel y Nagel) ya no se puede ir más allá de la «Teoría Causal de la Conducta». Según esta concepción la teoría causal de la conducta constituye la única interpretación posible de la conducta que no viola las reglas mínimas de la investigación cientifica. Sin embargo, no podemos olvidar otras propuestas que han intentado extender la lógica de la investigación científica a campos que Hempel y Nagel creían que les estaban vedados. Tal es el caso de Von Wright y de Elster en los que nos vamos a detener. 7. En nuestra categorización de la metodología, equivale a la metodologia de tercer orden metafisica (MSM).
LA EXPLICACIÓN CIENTÍFICA
251
Von Wright presenta un tipo de argumentación que ¿enomina «¡n_ ferencia practica» que se concreta en los términos siguigmesn A se propone de ahora en adelante dar lugar a p en e¡ momento Í A considera de ahora en adelante que, a menos de hacer a no más tarde de r', no estará en condiciones de dar lugar 3 p en e¡ momento Í Por consiguiente, A se dispone a hacer a no más ¡ame de mandé juzgue llegado el momento I', a no ser que se halle impg;¡b¡1¡¡ad° El punto de discusión es si la vinculación entre las premisas y la conclusión de una inferencia práctica es empírica (causal) o conceptual (lógica) (Von Wright, l979:l32).
La respuesta de Von Wright puede resumirse en los siguientes puntos: a) La relación entre las premisas (o determinantes internos de una acción dada) y la conclusión (ola acción misma) de un argumento pl_ác_ tico no es una relación causal, sino una relación conceptua1_ b) El patrón argumental considerado tiene un carácter primordialmente explicativo y sólo secundariamente inferencial. Más pmckamcm es un modelo de explicación intencional. De ahi' que las denominacitì nes de «silogismo (o inferencia) práctico» y de «explicación teleoló 'ca» no sean enteramente adecuadas. El c) esquema (inferencia práctica) de eltplicación intencional no es el único patrón explicativo ni el más usual o ¡¡p¡¢°, a¡ mems en ¡as ciencias sociales, pero si ocupa una posición central en ¢| senüdo de que los demás procedimientos explicativos parecen g¡¡-ar en tomo a é¡ como en torno a su núcleo (Von Wright, l979:l55),
Está fuera de duda que Von Wright acepta el modelo de explicación nomológica-deductiva, y posiblemente estaría dispuesto a concederle privilegios epistemológicos, pero disiente en considerar a este ¿po de explicación como el único posible en la ciencia_ J. Elster (Elster, 1991) argumenta que la adaptación intencional di-
fiere de la funcional en que la primera puede estar dirigida hacia el futuro distante, mientras que la segunda es típicamente mi0p¢_ Los sem 8. Hay que tener en cuenta que hay presentaciones altemativas que cabrian en el mismo esquema. pero la claridad que pretendemos en este texto nos lleva a ;;¢¡¡fi¢¡¡ la profundidad y olvidarnos de las sutilezas. Lo importante es pmsmm, un “quem que sea representativo de una inferencia práctica y Von Wright nos lo pi-0p°¡¢¡°n¿a
252
INTRODUCCIÓN A LA FIIDSOFÍA DE LA CIENCIA
intenciona.les pueden emplear estrategias del tipo «un paso atrás y dos adelante», que se dan sólo por accidente en la evolución biológica. La explicación intencional comprende esencialmente una relación triádica entre acción, deseo y creencia. Elster presenta un esquema de su argumentación sobre la intencionalidad:° CONDUCTA
no intencional
intencional ¢ racional K
irracional
\
optimizadora satisfaciente Í \ paramétrica estrategica\\ información completa 1
información incompleta
incertidumbre
riesgo
juegos con estrategias dominantes I \ soluciones soluciones óptimas subóptimas
juegos sin estrategias dominantes / \ con sin solución
En primer lugar vemos que Elster rechaza como posible objeto del explanandum de una explicación intencional la conducta no intencional. Este tipo de conducta es la que Von Wright consideraba acciones a las que les falta el aspecto interno como las acciones reflejas. El punto siguiente en el esquema es la relación entre intencionalidad y racionalidad, ¿puede darse la una sin la otra? La racionalidad implica mínimamente consistencia entre metas y creencias, por tanto,
para demostrar que no es lo mismo hay que demostrar que hay creencias inconsistentes. Para demostrar este tipo de creencias Elster recurre a una historia sobre Niels Bohr, según la cual, una vez Bohr colgó una herradura en la puerta de su casa. Cuando se le preguntó si la habia colocado allí porque creia que le traería suerte, contestó: «No, pero me dijeron que trae suerte incluso a quienes no creen en ella». Si Bohr no estaba haciendo una broma, tenemos un caso de una acción claramente irracional, y sin embargo explicada intencionalmente. 9. Pam la exposición de la explicación intencional voy a seguir de cerca a Elster (Elster, 1990: capitulo lll).
LA Ex1=uc›.cióN CIENTIFICA
253
Llegamos ahora a la relación entre racionalidad y optimalidad. No cabe duda -según Elster- de que la explicación en términos de optimalidad sigue siendo el caso paradigmático de la explicación en las ciencias sociales, sin embargo, hay razones por las que la interpre¡a_ ción de racionalidad como optimalidad no puede generalizarse. Por tanto, podemos afirmar que algunas veces la racionalidad debe entenderse como satisfaciente, en el sentido de encontrar una alternativa «lo suficientemente buena» para nuestro propósito pero no «la mejon›. Vamos a abordar con las propias palabras de Elster cómo presenta la estructura fina de optimizar la conducta. El primer caso y el más simple es lo que denominaré racionalidad pararnétrica, es decir, conducta racional dentro de un medio que el agente (quizás erróneamente) supone formado : a) por objetos naturales go-
bernados por leyes causales, y b) por otros agentes que o bien son tales que su conducta no le resulta diferente, o si le resulta diferente, se su-
ponen menos sofisticados de lo que el es. La última condición implica que el agente piensa en si mismo como una variable y en los demás
como constantes lncluso si el actor supone que el medio es paramétrico, puede tener información incompleta sobre él. En este caso debemos hacer una distinción básica, pero discutida entre riesgo e incertidumbre. Hay riesgo cuando el agente tiene grados cuantificables de creencias, o «probabilidades subjetivas», sobre los diversos estados posibles del mundo Por otro lado, la incertidumbre surge cuando el agente no puede especificar probabilidades numéricas, ni siquiera dentro de un rango de limites inferiores y superiores
La racionalidad estratégica se define mediante un axioma de simetria: el agente actúa en un medio de otros actores. ninguno de 1°; ¢ua_ les puede suponerse menos racional o sofisticado que él mismo. En. tonces, cada actor necesita anticipar las decisiones de los demás antes de tomar la propia, y sabe que hacen lo mismo con respecto a los demás y a él. El enfoque estratégico de la conducta humana se formaliza mediante la teoría de los juegos, que podría haberse denominado más correctamente la teoria de las decisiones interdependientes (Elster, l990:69-71).
La última parte del esquema corresponde a la aplicación concreta de la teoria de juegos pero el análisis de esta aplicación escapa a las pretensiones de este libro.
254 4.3.
¡N-ritooucc1óN A LA mosorlx DE LA cicncm Consideraciones finales
Las propuestas de las explicaciones funcionales y teleológicas se toman, a veces, como una crítica a la modalidad de explicación causal de estructura lógica nomológica-deductiva. Es importante señalar que la explicación nomológica-deductiva y la funcional discurren en pla_ nos distintos ya que ninguno de estos autores (u otros que hayan ¢5¡u_ diado el análisis funcional y la intencionalidad) rechazan la e;rp|¡¢a_ ción causal y nomológica-deductiva como válida en ciertos contextos' ni siquiera negarian (a excepción de los filósofos pertenecientes a la corriente del anarquismo epistemológico «a lo Feyerabend», 0 al ¡-ela. tivismo sociologista «a lo Barnes››) el estatus epistemológico preferente de este tipo de explicaciones. Lo que no aceptan es que la explicación causal de estructura nomológica-deductiva constituya un criterio dc demarcación para dirimir entre ciencia y pseudociencia. Este es el punto capital donde reside la crítica. Por lo demás, es más adecuado ver sus aportaciones como la extensión del análisis metacientifico en su ver. tiente sincrónica a campos marginados por la Concepción Heredada de dicho análisis.
Emmrmcxcrón DE E›u>LrcAcroN1as FUNcioN/u.Es Y 'rELeo1.óG¡¢¿s Biologúz Explanandum: El camaleón tiene la facultad de cambiar de
color. Explanans: La capacidad de poder cambiar de color tiene como función poder carnuflar al camaleón, al hacerlo similar al lugar donde se halla, para así facilitar su supervivencia, Psicologúz Explanandum: La estudiante de filosofia escondió el libro de Heidegger al ver llegar a su profesor. Explanans: La alumna era aficionada a Heidegger; por con. tra, su profesor lo encontraba detestable de manera que para evitar que su profesor se incomodara con ella (función) lo escondió.
LA Exrticxcróu cn:N'riFrc›.
255
Sociologia Explanandum: Los profesores no numerarios de instituto realizaron una huelga la semana pasada. Explanans: Al considerarse discriminados los profesores fueron a la huelga para asi' conseguir que el Estado hiciera caso a sus reclamaciones.
5.
LA Exeuc/tcróu como UNn=tcAcióN
Algunas teorías de la explicación cientifica parten, no del estableCimiento de la estructura lógica requerida (Hempel, Salmon), sino de la introducción de algún criterio epistemológico a partir del cual se Duedan evaluar las explicaciones de un fenómeno dado. 'Tal es el caso de P. Kitcher, para el que el valor explicativo de una teoria reside en SU poder unifìcador. Esta idea -según K.itcher- se encuentra en la Versión no oficial de la Concepción Heredada sobre explicación científica frente a la oficial del modelo de ley cubriente o modelo nomoló_g¡C0-deductivo. Incluso podriamos encontrar este criterio, de forma implícita, en otras concepciones sobre la explicación científica, pero CS Kitcher quien formaliza y define con rigor este criterio. El análisis del poder unificador de las leyes y teorias científicas suD0nc la introducción de una serie de conceptos previos que Kitcher define con precisión. Asi, en un momento (o secuencia) de la historia
de una disciplina puede delimitarse: _ 3) K: es el conjunto de sentencias aceptadas y supuestamente consistentes. b) Almacén explicativo: es el conjunto de argumentos disponiMGS para llevar a cabo los propósitos explicativos. C) E(K): es el almacén explicativo formado a partir de K. Pode“108 definirlo como el conjunto de argumentos aceptables, o sea, como la base para los actos de explicación en que las creencias son exactamente miembros de K. Una teoria unifica nuestras creencias cuando proporciona un (o “n08 pocos) patrón (patrones) de argumentos que pueden ser utilizad°S Cn la derivación de un amplio número de sentencias que nosotros aceptamos. Por tanto, la noción de patrón argumentativo es fundamental para la unificación.
256
INTRODUCCION A LA Fwosorlx DE LA ciENclA
Entender el concepto de explicación es ver que si se acepta un argumento como explicativo, entonces uno se compromete a aceptar como explicativos otros argumentos que son instancias del mismo patrón argumentativo. El problema de la explicación es especificar qué conjunto de argumentos tenemos que aceptar para explicar, dado que sostenemos que una serie de sentencias son verdaderas. Esto no quiere decir que primero tengamos que ponernos de acuerdo sobre qué sentencias incluimos en K. Es decir, al estipular que E(K) es una función de K, no se quiere dar a entender que K es anterior a E(K). d) Sistematización de K: es el conjunto de argumentos por los que se infieren algunos miembros de K de otros miembros de K. Y E(K) es la mejor sistematización de K. e) Un conjunto de argumentos es aceptable respecto a K si cada argumento del conjunto consiste en una secuencia de pasos que preservan las reglas validas de inferencia (deductivas e inductivas) y si cada premisa de cada argumento pertenece a K. f) Conjunto generador: Si Z es un conjunto de argumentos, entonces un conjunto generador de Z es un conjunto de patrones argumentativos l`l tal que cada argumento de 2 es una instancia de algún patrón de l`l. g) 2 es completa respecta a K si y sólo si cada argumento que es aceptable en relación a K y que es una instancia de un patrón de l`l, pertenece a Z. ¿Qué pasos tenemos que dar en nuestra actividad explicativa'!:
1. Tomamos todos los argumentos aceptables respecto a K, que serán los E(K). 2. A continuación delimitamos los conjuntos generadores l'l. 3. Entre los l'l seleccionamos el que tenga mayor poder uniñcador y lo llamamos la base del conjunto de argumentos en cuestión. 4. Especificamos los factores que determinan el poder umficador, el cual se alcanza generando un gran número de sentencias aceptadas que son conclusiones de argumentos aceptados que a su vez son instancias de unos pocos patrones rigurosas, entendiendo por «patrones rigurosos» aquellos que tienen no sólo instancias con estructuras lógicas similares sino que además sus instancias contienen vocabulario no lógico similar en lugares similares.
LA ExP|.|cAc|óN c1EN†iFicA
257
A partir de aquí podemos definir el conjunto conclusión de un conjunto de argumentos 2, C(2) como el conjunto de sentencias que son conclusiones de algún argumento. Podemos resumir la idea de la explicación como unificación diciendo que el poder unificador de una base (B,-) respecto a K varía directamente con el tamaño de C(...¡), varia directamente con el rigor de los patrones que pertenecen a B,, y varía indirectamente con el número de miembros de B,. Hay que añadir que el poder unificador aumenta si las diferentes bases tienen cierta similitud, es decir, si comparten un núcleo común. Kitcher mantiene que esta propuesta salva los problemas de asimetría, de irrelevancia y de generalización accidental que tiene el modelo de cobertura legal. Al mismo tiempo Kitcher da soluciones a las posibles unificaciones espurias que puedan surgir en algunos casos que podrían verse como contraejemplos. Kitcher analiza dos casos históricos como ejemplificaciones de su concepción de la explicación cientifica, a saber: la mecánica de Newton y la teoria de la evolución de Darwin. Aparte de las posibles críticas que puedan hacérsele a Kitcher'° hay una reflexión del propio Kitcher en una nota a pie de página que puede evitarle muchas críticas. Dice: «Creo que esta concepción de la explicación presentada en el presente artículo podría extenderse para cubrir respuestas explicativas a otros tipos de preguntas (tales como preguntas de cómo). Pero quiero rechazar la afirmación de que la unificación es pertinente para todo tipo de explicación» (Kitcher, 1981, en Pitt, ed., l988:185). Esto quiere decir que un caso histórico que no encaje con este criterio no constituye un contraejemplo para Kitcher.
ETEMIPLÍFICACIÓN DE EXPLICACIONES UTILIZANDO EL CRITERIO UNIFICADOR
Lingüística En los inicios de la lingüística generativa, Chomsky formuló el llamado principio A sobre A(A/A) para solucionar problemas de referencia; según él, no se podia trasladar una catel0. Unas puntualiuciones interesantes se encuentran en un artículo inédito de A. Hiskes: <(l`heoretical Explanation and Unification».
INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
goría sintáctíca que se encontraba incluida dentro de otra categoria del mismo tipo. El principio resultó problemático, pues no explicaba casos en los que esto no se podia realizar y la categoría del más inclusivo no era la misma que la del menos inclusivo (por tanto, no eran casos de A/A). En vista de este problema, el lingüista Ross definió un nuevo principio en el que se afirmaba que se podían realizar traslados de un nudo más inclusivo a otro menos si el más inclusivo era lo que se conoce como una «isla››. Seguidamente Ross daba cinco definiciones de las posibles «islas›› gramaticales. A pesar de ser más explicativo que el original de Chomsky, este nuevo principio tenía el problema de que no era tan general, tan umficador, pues presentaba cinco casos diferentes e irreductibles de «isla››. Sin embargo, Chomsky volvió sobre ello hasta hallar un principio general del cual pudieran deducirse las condiciones para ser «isla de Ross» reduciendo las cinco definiciones a un solo principio de carácter mucho más unificador. Este principio es la llamada «condición de subyacencia››. Matemáticas y teoría de la computación Un problema básico tanto al teorizar sobre los fundamentos
de la matemática como para desarrollar programas es conocer cuáles son los limites de las soluciones algoritmicas: ¿qué problemas son solucionables mediante algoritmos y cuáles no lo son? El gran paso unificador fue dado por Alan Turing cuando mostró que un tipo de autómata conceptual desarrollado por él, llamado después «máquina de ”lì1ring››, a pesar de la increíble simplicidad de sus reglas, era capaz de solucionar cualquier problema
que pudiera tener una representación algorítmica. Así el problema de qué es algoritmizable quedaba unificado con la siguiente respuesta: sólo es algoritmizable lo que puede solucionarse mediante una máquina de Turing. El proceso unificador aún fue mayor al idear 'liiring la llamada «máquina universal de Turing», una máquina concreta que, alimentada con la descripción de una máquina de Turing cualquiera, era capaz de simularla y realizar lo mismo que ésta. Química Cuando Lavoisier empezó a trabajar en la quimica, la teoría del flogisto estaba en plena vigencia aunque amenazada por serios problemas. Por un lado, se habían acumulado los descu-
LA exi›uc›.c|oN cisnrlricx
259
brimientos realizados por los químicos anteriores e incluso contemporáneos de Lavoisier, se había avanzado en la instrumentación técnica y se habían adoptado unos esquemas metodológicos más cuantitativos y más cercanos a la física, pero por otro lado, el aparato conceptual que prevalecía era la teoría del flogisto. Lavoisier siguió la línea de investigación de sus contemporáneos, en el sentido de analizar los problemas más acuciantes que la comunidad química tenia planteados, pero al mismo tiempo ideó un nuevo sistema conceptual para abordar los nuevos descubrimientos. Es decir, su sistema englobaba (unificaba) todos los conocimientos que en aquel momento tenía la quimica. Psícologúr Partiendo de la base de que en la teoría psicoanalista el yo freudiano es el eje alrededor del cual se estructura la personalidad, es de suma importancia para dicha teoria toda discusión alrededor de este concepto. Melanie Klein y Heinz Hartmann son dos autores que continuaron los trabajos de Freud, desarrollando el concepto de yo freudiano. En este contexto, Joseba Achotegui (tesis doctoral, 1990) argumenta a favor de la importancia de Klein en función de la capacidad integradora de su modelo. La teoría de las relaciones objetales integra, abarcándolas, teorías psicoanalíticas previas como la psicología de los impulsos y la psicología del yo. M. Klein y H. Hartmann desarrollan sus planteamientos partiendo del marco del paradigma psicoanalítico clásico, teniendo como referente teórico el modelo freudiano ello-yo-superyó (1923). Sin embargo, M. Klein construye en su obra un nuevo modelo que surgirá de la integración de este modelo ello-yosuperyó con otros dos modelos también freudianos: el modelo de las relaciones objetales (1914-1915) y el modelo instinto de vidainstinto de muerte (1920). Achotegui concluye que «estos tres modelos, a pesar de haber sido teorizados por Freud, no fueron integrados por él y sí por M. Klein, quien, a través de la práctica clínica y basándose en ellos fue haciendo surgir un nuevo modelo mucho más complejo y explicativo de la vida mental del bebé y de los transtornos mentales».
260 6.
lN1'RooUccióN A LA Fitosoríx DE LA c1ENc1A LA Exrtrcxcróu como UN Aero u.ocucroN›.1uo: P. Acntusnam
Achinstein considera que el tema de la explicación científica es sumamente complejo ya que intervienen varios factores, desde la estructura lógica hasta los criterios de evaluación de las explicaciones. Achinstein reinterpreta algunas de las teorías de la explicación (la de Hempel, la de Salmon y la de Brody) desde su propia concepción. Así, la idea central de Achinstein es que la explicación científica constituye un acto ilocucionario, en el que pueden distinguirse el acto de explicación y el producto de dicho acto. Por tanto, hay tres cuestiones que se han de tener en cuenta en la explicación cientifica: a) ¿Qué es un acto de explicación? b) ¿Qué es el producto de una explicación? c) ¿Cómo deben evaluarse los productos de una explicación? Los modelos de explicación propuestos hasta el momento se han centrado en los productos de la explicación. Por ejemplo, el modelo nomológico-deductivo de Hempel, el modelo de pertinencia estadística de Salmon y la teoria pragmática de la explicación de Van Fraassen responden a b). En cambio, el criterio de poder unificador con el que hay que valorar una explicación propuesto por Kitcher respondería a c). Todos estos modelos abordarian aspectos parciales de la explicación cientifica. a)
¿Qué es un acto de explicación?
El carácter ilocucionario de una explicación puede exponerse formulando un conjunto de condiciones para que oraciones como las siguientes sean verdaderas:
(I) S explica q al emitir u, en las que S denota alguna persona, q expresa una pregunta indirecta y u es una oración. Las condiciones necesarias para que se cumpla (I) son: (l) S emite u con la intención de que la emisión de u haga comprensible q. (2) S cree que u expresa una proposición que es una respuesta co-
LA EXPLICACIÓN c|EN'rlF|cA
261
rrecta a Q. (Q es la forma directa de la pregunta cuya forma indirecta es q.) (3) S emite u con la intención de que la emisión de u haga comprensible q al producir el conocimiento de la proposición expresada por u, la cual es una respuesta correcta a Q. Si se dan estas tres condiciones hay explicación. Sin embargo, hay que dar significado a los conceptos que surgen en la tercera condición, so pena de que estas condiciones queden vacías. En cuanto a la idea de «comprensible›› Achinstein define «A comprende p›› (A es un individuo cualquiera). En cuanto a «producir›› Achinstein lo entiende como «causar›› y en este sentido hay que decir que el tratamiento ilocucionario es compatible con varias definiciones de causalidad, a excepción de definir la causalidad en términos de explicación, ya que en este caso el programa ilocucionario seria circular. Por último, la idea de respuesta «correcta›› corresponde a la respuesta a c). «A comprende q›› si y sólo si A conoce una respuesta correcta a Q, la cual es una proposición completa que confiere contenido con respecto a Q. Esto nos lleva a la definición de «proposición completa» y «conferir contenido». Cuando hacemos una pregunta presuponemos una serie de proposiciones, pues bien, una proposición completa es aquella que constituye una respuesta a Q (Q es la pregunta) que implica a todas las presuposiciones de Q pero que no está implicada por ninguna de ellas. En cuanto a las oraciones que cordieren contenida hay que referirse a aquellas oraciones que introducen sustantivos de contenido definidos como aquellos sustantivos cuyo contenido puede darse por medio
de la nominalización. b)
¿Qué es el producto de una explicación?
Achinstein empieza por decir lo que no es una explicación, así dice que la explicación no es una oración, no es una proposición, no es un argumento. La explicación es un par ordenado, el cual podemos definir en los términos siguientes: (x; y) es una explicación de q que ofreció S si y sólo si i)
Q es una pregunta de contenido;
262
iN-raoouccióu A LA ritosom DE LA GENCM
ii) x es una proposición completa que e0nf¡e¡.e comemdo con rw pecto a Q; c iii) y = explica q; iv) ia au (a es un acto en el cual S explicó q al emitir u, y x está asociada con a). Este esquema nos dice cuál es la estructura lógiea de una explicación, pero desde el punto de vista de la ciencia 10 que ¡nm-esa son bue_ nas explicaciones y para ello debemos tener respuestas correcta s cues_ non que nos lleva al tercer punto del programa ¡¡Ocuc¡ona¡¡oÍ c)
¿Cómo deben evaluarse los productos de una expjieaeión?
Para hacer esta evaluación se define el eoncepto de mspuesm c0_ rrecta a una pregunta de contenido. (p explica q) es una explicación correcta si y smc s¡ p es ve¡dade¡a_ Ahora bien, este criterio es insuficiente ya que puede haber pmpo_ siciones que sean verdaderas pero que n0 den razón de otra proposición. El carácter bueno 0 malo de una explicación es multidimengiø. nal y la corrección es sólo una dimensión. Una expncación Se evama considerando en qué medida se cumplen, pe; un ¡ado datos fines universales, como verdad, simplicidad, unifìeaeión p¡'ec¡s¡ón y por otro, ciertos fines pragmáticos como resolver p¡0b¡e'mas_ En ¡a ¡;e¡.se_ cución de estos fines los científicos siguen ciertas ¡nmucciones de cuyo estatus epistemológico podemos decir que deben jusúficarse soim bases empíricas y estar libres de referencias contextual CS- Achinstein concluye
sus consideraciones sobre las instrucciones epistemdógjeas; «Mi pre.
tensión es que ningún conjunto de principios u¡-¡¡,,e¡sa_¡es _en ¡os que
se evite tanto los rasgos pragmáticos como los supuestes empfi-¡eos específicos- puede proporcionar una base adecuada para detcnninm. si una explicación es buena para que un científico la ofrezca a1 explicar q›› (Achinstein: 19891164). La postura de Achinstein es que los valores metodológicos no ofrecen condiciones, ni suficientes ni tan siquiera necesa¡¡aS_ Los un¡,,e¡_ salistas pretenden que los valore; memdológiecs actúen como mmìmo como condiciones necesarias - de' contextualista. - ' , _ Y acus a n a Ach`msïëln La respuesta de Achinstein es que los valores meïødológicos y las ins-
LA Ex|>i.ic›.c1oN cnsnrlricx
263
trucciones universales son sólo una dirección para la explicación científica, una guia de la clase de explicación que el científico debe tratar de lograr."
7.
Tlsortia 1>iutGM_Á^ricA DE LA Ex.PucAc1óN
La propuesta de Van Fraassen plantea la cuestión de dónde situamos la explicación científica en el conjunto del análisis metateórico, delimitando la explicación científica de otros tipos de explicaciones. El modelo de explicación propuesto por Van Fraassen tiene la estructura de pregunta-respuesta. Las explicaciones son, pues, respuesta a «preguntas de por qué» y dicha respuesta está determinada, en cierto sentido, contextualmente Una explicación no es lo mismo que una proposición, o un argumento o una lista de proposiciones, aunque las explicaciones estén formadas por proposiciones. (De forma análoga, un hijo no es lo mismo que un hombre aunque todos los hijos sean hombres y cada hombre es, a su vez, un hijo.) Una explicación es una respuesta. Por tanto, si las explicaciones son respuestas a preguntas de por qué, analizar la lógica de las explicaciones implica analizar la lógica de las preguntas y de las respuestas. Una pregunta es una entidad abstracta que está expresada por una interrogación, en el mismo sentido que una proposición está expresada por una frase aseverativa. La consecuencia de la pregunta es la respuesta. A continuación vamos a exponer las tipologías que Van Fraassen construye de preguntas y de respuestas. Ya que la definición de los tipos de preguntas está dada en función del tipo de respuestas, vamos a introducir primero la tipología de respuestas. Las respuestas pueden ser directas, parciales y completas: una res-
puesta directa es aquella que da suficiente información, pero no superflua, para contestar completamente la pregunta; una respuesta parcial es aquella que está implicada por una respuesta directa; una respuesta completa es aquella que implica la respuesta directa. ll. No vamos a ejemplificar esta concepción sobre la explicación cientifica, ya que los ejemplos anteriores cubren partes de esta concepción. En realidad, cualquier explicación nomológica-deductiva podria reconstruirse con la estructura del par ordenado, propuesta por Achinstein. Los casos de explicaciones atenicndo a su poder unificador ejemplificarian el punto c). ya que en este caso el poder unificador actúa como criterio valorativo.
264
I INTRODUCCIÓN A LA FILOSOFÍA DE LA CIENCIA
Las preguntas pueden ser vaciar, absurdas y estúpidas: una pregunta vacía es aquella que hace que todas las respuestas directas sean necesariamente verdaderas; una pregunta absurda es aquella que hace que todas las respuestas directas sean falsas; una pregunta estúpida es aquella que no tiene respuestas directas. Hay que señalar que la tipología de respuestas es una cuestión abierta, lo cual quiere decir que pueden introducirse nuevos tipos en función de las necesidades cuando especificamos los tipos de preguntas que puedan surgir y en función de algunos conceptos relacionados con las respuestas. Veamos algunos conceptos relacionados con la estructura de pregunta-respuesta. Una presuposición de una pregunta Q es cualquier proposición que es implicada por todas las respuestas directas a Q. Una corrección (o rectificación) de Q es una negación de cualquier presuposición de Q. La presuposición básica de Q es la proposición que es verdadera si y sólo si algunas respuestas directas a Q son verdaderas. Una respuesta completa a Q relativa a la teoria 71 es algo que jun-
to con 7] implica algunas respuestas directas a Q. La pregunta que es expresada por una frase interrogativa depende, en gran medida, del contexto. Por tanto, el principal objetivo del contexto es delimitar el conjunto de respuestas directas. Van Fraassen determina los factores que constituyen la pregunta Q expresada por un interrogante en un contexto determinado: I) El tema P,, 2) La clase de contraste X = {P,, ...P,,...} 3) La relación pertinente R Podemos identificar la entidad abstracta que hemos llamado «pregunta de por qué» con una triada de tres factores:
Q = [Ph X, R1 Veamos en qué consisten estos tres elementos a partir de un ejemplo. Supongamos la pregunta siguiente, propuesta por Van Fraassen:
LA Exrucxclon creN'rlF1ci›.
265
«¿Por que está torcido el pararrayos?›› 1) El tema es aquello sobre lo que el que pregunta espera una razón. En nuestro ejemplo es que el pararrayos está torcido. 2) La clase de contraste es el conjunto de posibilidades de entender la pregunta. Este conjunto tiene como miembro el tema. En nuestro ejemplo la clase de contraste contendría proposiciones como las siguientes: «este pararrayos en lugar de aquel», «el pararrayos se ha torcido en lugar de mantener su forma original». 3) La relación de pertinencia explicativa es el conjunto de acontecimientos que llevaron al pararrayos a torcerse. En nuestro caso podría ser desde un error humano hasta que hubiera humedad en las conexiones del pararrayos. Podemos definir la relación de pertinencia en los términos siguientes: Una proposición A se dice que es pertinente para Q exactamente si A relaciona R con el par (P,,, X). Hay que señalar que podemos tener el mismo tema pero distintas clases de contraste. Por ejemplo, con la pregunta «¿por qué Adán se comió la manzana?››, el tema es «Adán comió la manzana» pero podemos considerar distintas clases de contraste: una podria ser por qué comió una manzana en lugar de una pera, otra, por qué aceptó la manzana en lugar de rechazarla. Tenemos, pues, que la estructura de la respuesta es como sigue: P,, en contraste con (el resto de) X porque A Esta afirmación nos dice lo siguiente: 1) P,, es verdadero. 2) Los otros miembros de X no lo son. 3) A es verdadero. 4) A es una razón. 5) A es pertinente para esta pregunta. El último paso en la explicación es la evaluación de la respuesta. Supongamos que partimos de una clase K como el conjunto de las teorías aceptadas más la información factual. Se plantea una pregunta Q cuyo tema es B y cuya clase de contraste es X ¿Cómo evaluamos
266
r |N'rRoDuccióN A LA |=1|.oso|=lA DE LA cnaucix
la respuesta «porque A››? Una posibilidad es evaluar A, otra es ver hasta qué punto A favorece el tema B en contra de otros miembros de la clase de contraste, por último, comparar «porque A» con otras posibles respuestas a la misma pregunta. Van Fraassen da una forma de evaluar pero no pretende que sea ni completa ni la única posible. Sin embargo, son interesantes algunas de sus reflexiones acerca del poder explicativo, en el sentido de criterios de evaluación de respuestas. Tradicionalmente se ha dicho que las teorias establecen dos tipos de relación con los fenómenos observables, a saber: descripción de dichos fenómenos con una función informativa; y explicación de dichos fenómenos con una función más allá de la descripción. Por ejemplo, la ley de Boyle describe la relación entre presión, temperatura y volumen de un gas, pero sólo la teoría cinética de los gases explica esta relación. Según Va.n Fraassen, la búsqueda de criterios de poder explicativo que vayan más allá de la adecuación y fuerza empírica crea dificultades insuperables. Tampoco da resultado la búsqueda de criterios de poder explicativo para establecer criterios de demarcación entre ciencia y pseudociencia. Decir que una explicación es científica no quiere decir otra cosa que la explicación recurre a la ciencia para obtener infomiación y que los criterios de evaluación para calibrar lo buena que es una explicación se han elaborado teniendo en cuenta una teoría cientifica. Asi como la descripción es una relación entre teoría y hecho, en la explicación intervienen tres factores, a saber: teoría, hecho y contexto. lo que se requiere para contestar la pregunta depende del contexto. Por tanto, una explicación cientifica no es ciencia (pura) sino una aplicación de la ciencia, es decir es la utilización de la ciencia para satisfacer nuestros deseos, y estos deseos varían según el contexto, pero son siempre deseos de información descriptiva.
EJEMPLH-“rcxcrón ma 1zxPr.rcAc1oNEs A s1zGÚN LA 'rraortix PRAGMÁTICA Desde el punto de vista de la teoria pragmática de la explicación, hemos visto que la cuestión está en cómo a partir de un mismo problema o fenómeno tenemos distintos tipos de explicación (la explicación científica sería uno de estos tipos) en función de los objetivos que nos planteemos. Partamos del fenómeno de la conversión del mosto en vino, podemos plantear
LA Exr›L1cAcIóN CIENTIFICA
267
diversas preguntas, de diversa intensidad teórica, algunas de las
cuales listamos a continuación: a) ¿Por qué en la molécula de alcohol hay tal grado de energía en los enlaces químicos? Responder a esta pregunta implicaría recurrir a la quimica cuántica y llegar al nivel de las partículas atómicas. b) ¿Por qué finalmente obtenemos alcohol del mosto? Responder a esta pregunta implicaría recurrir a la química orgánica clásica, mostrando la serie de reacciones que llevan del mosto al alcohol. c) ¿Por qué se convirtió el mosto en alcohol? Aqui en principio deberíamos recurrir a la biología y mencionar la existencia de unas bacterias que llevan a cabo tal reacción química.
d) ¿Por que tales bacterias realizan la transfonnacíón? Aquí deberiamos recurrir a la teoría de la evolución y por qué es útil para la supervivencia de las bacterias tal reacción, asi como especificar los procesos vitales de las bacterias en cuestión. e) ¿Por qué tal vino tiene ese color rojo? Aqui entrarian la biologia y la medicina humanas, junto con la sociología, psicología, etc.
8.
Cousioiarmcromzs 1=n~uu.Es Al principio de este capitulo presentábamos la explicación cientí-
fica como el alfa y el omega del análisis filosófico dela ciencia. Del alfa dimos cuenta en el capítulo segundo, en el que se mostraba el hilo conductor que va desde las primeras explicaciones antropomórticas y animistas -como respuestas a la necesidad de los seres humanos de comprender el mundo- hasta las más sofisticadas metateorías de la actualidad -muestra de la capacidad recursiva del ser humano. Del omega hemos tratado en este último capitulo en el que se describe cómo en la explicación científica entran en juego tanto nuestros conocimientos como los instrumentos de análisis para discernir en cada contexto determinado qué es lo más pertinente para el tipo de explicación deseada. Aparece suficientemente claro que entre las distintas teorias de la
268
x lmkonucciow A LA rrmsoríx DE LA c1ENc1A
explicación científica aquí presentadas, existen importantes diferencias y desacuerdos, pero no necesariamente incompatibilidades. Posiblemente los desacuerdos y diferencias tienen un origen general que consiste en la parcialidad de la problemática o temática tratada por cada autor: unos difieren de otros porque abordan cuestiones específicas y que pueden ser, sin embargo, importantes para la explicación de determinados fenómenos. En este sentido, más que incompatibilidad absoluta hablaríamos de planos diferentes en los que se sitúan y mueven las teorías de la explicación. Por tanto, no nos parece necesaria la disyuntiva de elegir entre Hempel o Elster, o entre Kitcher o Van Fraassen. Las diferentes teorías de la explicación científica no hay que tomarlas como paradigmas inconmensurables (a lo Kuhn) sino como modelos (a lo Giere) que representan los diversos elementos que se conjugan en la explicación científica.
BIBLIOGRAFÍA Achinstein, P. (1968), Concepts ofScience. A philosophical analysis, The Johns Hopkins Press, Baltimore y Londres. - (1971), Law and Explanation. An Essay in the Philosophy ofScience, Clarendon Press, Oxford. - (1989), la naturaleza de la explicación, Fondo de Cultura Económica, México. Agazzi, E. (1986), La lógica simbólica, trad. J. Pérez Ballestar, 1-Ierder, Barcelona. Alexander et al. (1979), «Sexual dimorphisms and breething systems in pinnipeds ungulates, primates and humans», en N. A. Chagnon, Evolutionary Biology and Human Social Behavior An Anthmpological Perspective, Duxbury Press, Northscituate, Mass., pp. 402-435. Armstrong, D. M. (1983), What is' a Law of Nature?, Cambridge University Press, Cambridge. Asquith, P. D., y H. E. Kyburg Jr., eds. (1979), Current Research in Philosophy of Science, Proceedings of the P.S.A. critical research problems conference East Lansing, Philosophy of Science Association, Michigan. Ayer, A. J. (1965), Elposilivismo lógico, Fondo de Cultura Económica, México (l.' ed. 1959). - (1979a), Los problemas centrales de lafilosofta, tr-ad. R. Fernández González, Alianza, Madrid. - (1979b), Ensayos filosóficos, Ariel, Barcelona. Babor, J. A., y J. Ibarz (1968), Quimica general moderna.- una introducción a la química física y a la quimica descriptiva, Marin, Barcelona.
Badiou, A. (1970), Le Concept de Modèle' Introduction à une Épistémologie Matérialiste des Mathématiques, Maspéro, París.
Becker, 1-1. (1940), «Constructive Typology in the Social Sciences», American Snciological Review, n.° 5, pp. 40-55. Biezunski, M., ed. (1983), La recherche en histoire des sciences, Seuil, Paris. Binford, L. (1983), Working at Archaealogy, Academic Press, Nueva York.
270
iN'rRoDUcc|oN A LA FiLosoFtA DE LA ciENciA
Black, M. (1962), Models and Metaphors: Studies in language and Philosophy,
Cornell University Press, lthaca. Black, M., R. Braithwaite, B. Russell, W. Salmon (1976), la justificación del mzonamiento inductivo, trad. de E. Pérez Sedeño, rev. de N. Miguez, Alianza, Madrid (1." ed. 1984). Blanche, R. (1973), L”e'piste'mologie, Presses Universìtaires de France, París. Bloor, David (1979), Knowledge and Social Imaginery, The University of Chicago Press, Chicago. Bohm, D. (1980), Causality & Chance in Modern Physics, Routledge & Kegan Paul, Londres (1.' ed. 1957). Bolzano, B. (1973), Theory of Science, Reidel, Dordrecht. Braithwaite, R. B. (1962), «Models in the Empirical Sciences», en E. Nagel, P. Suppes y A. Tarski, eds., Logic, methodology and Philosophy ofScience: Proceedings of the 1960 International Congress, Stanford University Press, Stanford. Brody, B., y N. Capaldi (1968), Science' Men, Methods, Goals, W. A. Benjamin, Nueva York. Brothwell, D., y E. Higgs, eds. (1980), Ciencia en Arqueologia, Fondo de Cultura Económica, México. Bryne, P. (1974), Dynamique de la recherche en sciences sociales, Presses Universitaires de France, París. Bunge, M. (1972), Teoria y realidad, trad. de J. L. García Molina y J. Sempere, Ariel, Barcelona. _ (1978), Filosofia de lafisica, trad. de J. L. García Molina, Ariel, Barcelona. - (1980), Epistemología, ciencia dela ciencia, Ariel, Barcelona. - (1982), Economia y filosofia, Tecnos, Madrid.
Burtt, E. A. (1980), The Methaphysical Foundations ofModern Physical Science, Atlantic Highlands, Humanities Press (NJ). Butts, R., y J. 1-Iintikka, eds. (1977), Historical and Philosophical Dimensions of Logic, Methodology and Philosophy of Science, Reidel, Dordrecht y Boston. Cadevall, M. (1988), La estructura de la teoría de la evolución, Publicacions de la U.A.B., Bellaterra. Carnap, R. «Empiricism, Semantics and Ontology››, en Revue International
de Philosophie, vol. 4, pp. 20-40. _ (1934), Unity of Science, Kegan Paul, Londres. _ (1950), Logical Foundations of Probability, University of Chicago Press, Chicago. - (1969), Fundamentación lógica de Iafisica, trad. de N. Miguez, Sudame-
ricana, Buenos Aires. Cartwright, N. (1983), How the Laws ofPhysics Lie, Clarendon Press, Oxford. -- (1989), Nature's Capacities and their Measurement, Clarendon Press, Oxford.
n1BL1ocnzAi=1A
271
Cirera, R. (1990), Carnap iel cen.-le de Viena: empìrisme i sintaxi logica, Anthropos, Barcelona. Clarke, D., ed. (1972), Models in Archaeology, Methuen & Co Ltd, Londres. Coffa, A. (1982), «Kant, Bolzano and the Emergence of Logicism», The Jour-
nal of Philosophy, pp. 679-689. Cohen, 1. B. (1989), Revolución en la ciencia, trad. de D. Zadunaisky, Rev. de R. Figueiras, Gedisa, Barcelona.
Cooley, .l. (1959), «On Mr. Toulmin's Revolution in Logic», The Journal of Philosophy, 56, pp. 279-319.
Crosland, M. P. (1978), Historical Studies in the Language of Chemistry, Dover Publications, Nueva York. Cushing, J., C. Delaney y G. Gutting, eds. (1984), Science and Reality: Recent Work in the Philosophy of Science, University of Notre Dame Press, Notre Dame (In).
Chalmers, A. (1982), ¿Que es esa cosa llamada ciencia?, trad. de E. Pérez Se-
amo, siglo xxi (1.- ed. 1976), Madrid.
Churchland (1992), Neurocomputational Perspective. The Nature ofMind and
the Stmcture of Science, M11" Press, Cambridge, Mass. Dalla Chiara Scabia, M.L. (1976), Lógica, Labor, Barcelona. Davidson, D. (1984), Inquiries into 71-uth and Interpretation, Clarendon Press, Oxford. Deaño, A. (1978), Introducción a la lógica formal, Alianza, Madrid. Diederich, W., y H. F. Fulda (1981), Estructuras sneedianas en «El Capital» de Marx, trad. de Ulises Moulines, UNAM, Cuadernos de Crítica, México. Díez Calzada, LA. (1989), «La revuelta historicista en filosofía de la ciencia», Arbor, n.° 526, pp. 69-96.
Domenech, A. (1988), Memoria de Proyecto Docente, Barcelona. Donovan, A., L. Laudan y R. Laudan, cds. (1988), Scrutinizing Science. Empirical Studies of Scientific Change, Kluwer Academic Publishers, Dordrecht, Boston y Londres. Doob, J. L. (1960), «Some Problems concerning the Consistency of Mathematical Models», en R. E. Machol, ed., Information and Decision Processes, McGraw Hill, Nueva York, pp. 27-33. Duhem, P. (1969), To Save the Phenomena. An Essay on the Idea of Physical Theoryƒmm Plato to Galileo, trad. de E. Dolan y Ch. Maschler, The Uni-
versity of Chicago Press, Chicago y Londres. Earman, J. (1986), A Primer on Determinism, Reidel, Dordrecht y Boston. Echevarría, J. (1989), Introducción a la metodologia de la ciencia. La filosofra de la ciencia en el siglo xx, Barcanova, Barcelona. Elster, J. (1991), Tltercas y tornillos. Una introducción a los conceptos básicos
de las ciencias sociales, Gedisa, Barcelona. Estany, A. (1989), «Nelson Goodman y el realismo»,/lrbor, nf' 517, pp. 21-40.
K
272
mrnooucciów A LA Fn.osoF1A DE LA ciENc|A
- (1990), Modelos de cambio cientt/ico, Critica, Barcelona. - (1991), «leyes de la naturaleza y determinismo», Arbor, n.° 542, pp. 9-32. - (1992), «El papel de los factores externos (psicológicos, sociales y políticos) en los modelos de cambio cientifico», Enraonar, n,° 18, pp. 7-22. Estany, A., y M. lzquierdo (1990), «La evolución del concepto de afinidad analizztda desde el modelo de S. Tbulmin», Llull, vol. 13, n.° 25, pp. 349-378.
Feigl, H., y W. Sellars, eds. (1949), Readings in Philosophical Analysis, Appleton-Century-Croits, Nueva York. Ferrater Mora, J. (1971), «Pinturas y modelos», en Filosofia y Ciencia en el Pensamiento Español contemporaneo (1960-1970), Tecnos, Madrid. Fevrier, P. (1955), Déterminisme et indéterminisme, Presses Universitaires de France, Paris. Feyerabend, P. (1974), Contra el método. Esquema de una teoria anarquista del conocimiento, trad. de F. Hernán, Ariel, Barcelona (1 .' ed. 1970). - (1978), Science in a Free Society, NLB, Londres. Fleck, L. (1986), la génesis y el desarmllo de un hecho cient|7`ico. Introduc-
` ción a la teorúr del estilo de pensamiento y del colectivo de pensamiento, trad. de L. Mena, rev. de A. González de Pablo, Alianza, Madrid. Frege, G. (1971a), Estudios sobre semántica, Ariel, Barcelona. - (1971b), On the Foundations of Geometry and Formal Theories of Arithmetic, Yale University Press, Yale. - (1972), Fundamentos de la Aritmética. Investigación lógico-matemática sobre el concepto de número, trad. de' U. Moulines, Laia, Barcelona.
Galileo, G. (1976), Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias, Editora Nacional, Madrid.
- (1977), Diálogo sobre los sistemas máximos. Jornada tercera, Aguilar, Madrid. Gamow, G. (1980), Biografia de la fisica, Alianza, Madrid. Geymonat, L. (1987), Limita actuales de la filosofia de Ia ciencia, trad. de G. Filippi, Gedisa, Barcelona. Giere, R. (1973), «History and Philosophy of Science: intimate relationship or mariage of convenience», British Journal Philosophy of Science, 24, pp. 282-297. - (1988), Explaining Science. A Cognitive Approach, The University of Chicago Press, Chicago y Londres. - (1992), Understanding Scientífic Reasoning, Holt, Rinehart and Winston, Nueva York. , Glymour, C. (1981), Theory and Evidence, Princeton University Press, Princeton (N. .l.). Goodman, N. (1972), Pmblems and projects, The Bobbs-Merrill Company, Indianápolis, Nueva York. - (1976), Languages of Art. An approach to a theory of symbols, Hackett Publishing Company, Cambridge (Mass.).
erauoc-RAFIA
273
- (1978), Mzys of Wordmaking, Hackett Publishing Company. - (1983), Fact, Fiction, and Forecast, Harvard University Press, Cambridge (Mass.) y Londres. Goodman, N., y C. Z. Elzin (1988), Reconceptions in Philosophy and Other
Arts and Sciences, Routledge, Londres. Grünbaum, A., y W. Salmon, eds. (1988), The Limitatíons ofDeductivism, University of California Press, Berkeley, Los Ángeles y Londres. Hacking, 1., ed. (1981), Scienti/ic Revolutions, Oxford University Press, Oxford.
- (1983), Representing and Intervening. Introductory Topics in the Philosophy of Natural Science, Cambridge University Press, Cambridge. Haegeman, L. (1991), Introduction to Government and Binding Theory, Basil Blackwell, Oxford.
Händler, E. W. (1980), <(1`he logical Structure of Modern Neoclassical Static Microeconomic equilibrium Theory», Erkenntnis, 15, pp. 35-53. Hanson, N. R. (1971), Observation and Explanation: A Guide to Philosophy of Science, George Allen and Unwin Ltd, Londres. - (1977), Patrones de descubrimiento Observación y explicación, Alianza, Madrid.
- (1978), Constelaciones y conjeturas, trad. de Carlos Solis, Alianza Universidad (1.' ed. 1973), Madrid. Hartnack, .l. (1972), Wittgenstein y lafilosojiía contemporánea, trad. de J. Muñoz, Ariel, Barcelona. Hegenberg, L. (1979), Introducción a laƒilosofia dela ciencia, Herder, Bar-
celona. Heisenberg, W. (1962), Physics and Philosophy. The revolution in modern science, Harper & Row (1.' ed. 1958), Nueva York. - (1976), La imagen dela naturaleza en la fisica actual, Ariel (1 .' ed. 1955),
Barcelona. 1-Iellman, G. (1983), «Realist Principles», Philosophy of Science, 50, pp. 227-249.
Hempel, c. (1966), É/¿meno d'Épm¿mo10g¡e, trad. de B. sainesemin, Armand Colin, París. - (1975), Confirmación, inducción y creencia racional, trad. de N. Miguez, Paidós, Buenos Aires. - (1977), Filosofia de la ciencia natural, trad. de A. Deaño, Alianza, Madrid. - (1979), la explicación cienttfica. Estudios sobre la filosofia dela ciencia, Paidós, Buenos Aires. - (1984), «Coments on Goodman's “Ways of Worldmaking", Synthese, 45. Hesse, M. (1980), Revolutions and Reconstmctions in the Philosophy of Science, The Harvester, Brighton (Sussex). Hesse, M. B. (1966), Models and Analagies in Science, University of Notre Dame Press, Notre Dame (In). Hintikka, J., A. Maclntyre, P. Winch et al. (1980), Ensayos sobre explicación Il.-tsnwv
274
mrnooucciów A LA i=n.osoi=tA DE LA cuaNciA
y comprensión. Contribuciones a la filosofia de las ciencias humanas y sociales, trad. L. Vega, Alianza Universidad, Madrid. Hintikka, J., y M. B. Hintikka, eds. (1989), The Logic of Epistemology and the Epistemnlogy ofLogic, Kluwer Academic Publishers, Dordrecht, Bos-
ton y Londres. Hoffmann, B. (1985), La relatividad y sus origenes, trad. de J. Llosa, Labor, Barcelona. Holton, G. (1963), <(l`he Sources of Scientific Hypotheses», Eranos-Jahrbuch, 31, pp. 351-355. Holland et al. (1986), Induction: Processes of Inference, Learning and Disco-
very, MlT Press, Cambridge (Mass.). Humphreys, P. (1989), The Chances of Explanation. Causal Explanation in the Social, Medical, and Physical Sciences, Princeton University Press, Princeton (NJ). Koertge, N. (1990), Curs de /ilosofia dela ciència, La Magrana, Barcelona. Kraft, V. (1966), El Circulo de Viena, Taurus, Madrid. Kragh, H. (1989), Introducción a la historia de la ciencia, trad. de T. de Lozoya, Critica, Barcelona. Kuhn, T. (1971), La estructura de las revoluciones cientificas, trad. de Agustín
Contín, Fondo de Cultura Económica (13 ed. 1962), México. Lakatos, 1. (1983), La metodologia de los programas de investigación cienttfica, trad. de J. C. Zapatero, Alianza Universidad, Madrid. Lambert, K., y G. Brittan (1975), Introducción a la/ilosofia de la ciencia, La-
bor, Barcelona. Laudan, L. (1978), Progress and its Problems. Towards a Theory of Scientific Growth, University of Califomia Press, Berkeley, Los Ángeles y Londres.
_ (1984), Science and I/alues. The Aims of Science and Their Role in Scientiflc Debate, University of California Press, Berkeley, Los Angeles y Londres. Laudan, L., A. Donovan et al. (1986), «Scientific Change: Philosophical Models and Historical Research», Synthese, 69, pp. 141-223, Reidel, Dordrecht y Boston. Linsky, ed. (1952), Semantics and the Philosophy oflanguage, University of Illinois Press, pp. 202-228.
bosee, J. (1985), Introducción histórica a la filosoƒia de la ciencia, trad. de A. Montesinos, rev. de Alberto Elena, Alianza, Madrid. Mackie, J. L. (1974), The Cement of the Universe. A Study of Causation, Clarendon Press, Oxford. Í Mayntz, R., K. Holm y P. Hübner (1980), Introducción a los métodos de la
sociologúr empírica, trad. de J. Nicolas Muñiz, rev. de .l. A. Garmendia, Alianza, Madrid. McKinney, J. (1968), Tipología constructiva y teoria social, Amorrortu, Buenos Aires.
B1m.1ookAFíA
275
Medawar, P. B. (1988), Los limites de la ciencia, trad. J. I. Utrilla, Fondo de
Cultura Económica (l.' ed. 1984), México. Millikan, R. G. (1991), Language, thought and other biological cathegories, MIT Press, Cambridge (Mass.). Montague, R. (1974), «Deterministic Theories», en R. H. Thomason, ed., Formal Philosophy, Yale University Press, New Haven. Mosterin, J. (1970), Lógica de primer orden, Ariel, Barcelona. - (1984), Conceptos y teorias en la ciencia, Alianza Universidad, Madrid.
Moulines, U. (1982), Exploraciones metacientqïicas. Estructura, desarrollo y contenido de la ciencia, Alianza Universidad, Madrid. - (I992), Pluralidad y recursion. Estudios epistemológicos, Alianza, Madrid.
Nagel, E. (1978), La estructura de la ciencia, trad. de N. Miguez, Paidós, Buenos Aires. Nagel, E., P. Suppes y A, Tarski, eds. (1962), Logic, methodology, and Philosophy of Science: Proceedings of the 1960 International Congress, Stanford University Press, Stanford. - (1966), Logic, Methodology and Philosophy of Science: Proceedings ofthe 1964 International Congress for Logic, methodology and the Philosophy of Science, North-Holland Publishing Company, Amsterdam. Newton-Smith, W. H. (1987), La racionalidad de la Ciencia, Paidós, Barcelona.
Orton, C. (1988), Matemáticos para arqueólogos, trad. V. M. Fernández Martlnez, Alianza Universidad, Madrid (1.' ed. 1980). Ovejero, F. (1987), Memoria de Proyecto Docente, Barcelona. Pitt, J., ed. (1988), Theories of Explanation, Oxford University Press, Nueva York y Oxford. Popper, K. (1967), La lógica de la investigación, Tecnos (l.' ed. 1934), Madrid.
_ (1968), Conjectures and refutations' the growth of scientific knowledge, Harper Torchbooks, Nueva York.
_- (1981), Objective Knowledge. An Evolutianaty Approach, Oxford University Press (l.' ed. 1972), Oxford. Przelecki, M., K. Szaniawski y R. Wojcicki, eds. (1976), Formal Methods in the Methodology of Empírica! Sciences, Reidel, Dordrecht. Putnam, H. (1980), Philosophical Papers, Cambridge University Press, Cambridge. _ (1982), «Why reason can't be naturalized'!››, Synthese, 52, pp. 3-23. - (1983), Realism and Reason, Cambridge University Press, Cambridge. Quesada, D. (1985), La lógica y su filomfía. Introducción a la lógica, Barca~ nova, Barcelona. Quine, W. V. (1962), Desde un punto de vista lógico, trad. de M. Sacristán,
Ariel, Barcelona. - (1969), «Ontological Relativity», en Ontologieal Relativity and Other Essays, Columbia University Press, Nueva York. - (1973), Filosofia de la lógica, Alianza, Madrid.
276
tN1'|zoDucc1oN A LA F1LosoFíA DE LA ciENc|A
Radnitzky, G., y G. Anderson, eds. (1982), Progreso y racionalidad de la ciencia, Alianza, Madrid.
Reichenbach, 1-1. (1947), Elements of Symbolic Logic, The McMi11an Company, Nueva York. - (1953), La filoso/'ta cientifica, Fondo de Cultura Económica (1.' ed. en in-
glés 1951), México. - (1954), Nomological Statements and Admtlssible Operations, North-Holland
Publishing Company, Amsterdam. Rescher, N, (1961), «Belief-contravening Suppositions», Philosophical Review, 70, pp. 176-196. - (1964), Hypothetical Reasoning, Amsterdam. - (1970), Scientific Explanation, Collier-MacMil1an, Londres.
- (1987), Scientific Realtlsm, Reidel, Boston, Rivadulla, A. (1984), Filosofia actual de la ciencia, Editora Nacional, Madrid. Rocher, G. (1979), Introducción a la sociología general, Herder, Barcelona. Rowe, H. H. (1962), «Worsaae's Law and the use of grave lots for archaeological dating», American Antiquity, vol. 28, n.° 2, pp. 122-137. Ruse (1979), Lafilosofia dela biologia, trad. de I. Cabrera Calvo Sotelo, Alian-
za, Madrid. Russell, B. (1975), Misticismo y lógica, Paidós, Buenos Aires. - (1983), La perspectiva cientifica, Ariel, Barcelona. - (1988), Introducción a Iaƒilosofta matemática, trad. de Mireia Bofill, rev. de R. Grasa, Paidós, Barcelona. Sacristán, M. (1964), Introducción a Ia lógica y al análisisformal, Ariel, Barcelona. Salmon, W. C. (1966), The Foundations of Scientific lnjerence, University of Pittsburgh Press, Pittsburgh. - (1971), Statistical Explanation and Statistical Relevance, University of Pitt-
sburgh Press, Pittsburgh. - (1980), Space, Time, and Motion. A Philosophical Introduction, University of Minnesota Press, Minneapolis. - (1984), Scientific explanatíon and the Causal Structure of the World, Princeton University Press, Princeton (NJ). Scheffler, I. (1982), Science and Subjectivity, Hackett Publishing Company,
Indianápolis y Cambridge. - (1984), «The wonderful worlds of Goodman», Synthese, 45.
Schlick, M. (1931), «Die Kausalität in der gegenwärtager Physik», Naturwissenchaft, 19, pp. 145-162.
- (1979), Philosophical Papers. I: 1909-1922. II: 1926-I936, ed. por Kenk L. Mulder y Barbara F. B. van de Velde-Schlick. ' Schrödinger, E. (1975), ¿Qué es una ley dela naturaleza?, trad. de J. .l. Utri-
lla, Fondo de Cultura Económica (1.' ed. en alemán 1962), México.
BiBL1oGRA|=tA
277
Schuldenfrei, R. (1969), «Eberle on Nominalism in Non-Atomic Systems»,
Nous, 3, pp. 427-430. Shapere, D. (1987), «Method in the philosophy of science and epistemology: How to inquire about inquiry and knowledge», en N. J. Nersessian, ed., Science and Philosophy, Martinus Nijhoff, Dordrecht.
Simon, H. A. (1957), Models of Man, Wiley, Nueva York. Sneed, J. (1977), The Logical Structure ofMathematical Physics, Reidel, Dor-
drecht, Boston y Londres. Stegmüller, W. (1979), Teoria y experiencia, trad. de Ulises Moulines, Ariel,
Barcelona. - (1981), La concepción estmcturalista de las teorias. Un posible análogo para
la ciencia física del programa de Bourbaki, trad. de J. L. Zofío, Alianza, Madrid. Suppe, F. (1979), La estructura de las teorias cientificas, trad. de P. Castrillo
y E. Rada, Editora Nacional, Madrid. Suppes, P. (1960), «A Comparison of the Meaning and Uses of Models in Mathematics and Empírica] Sciences», Synthese, 12. - (1984a), Introducción a la lógica simbólica, CECSA, México. - (1984b), Probabilistic Metaphysics, Basil Blackwell, Oxford.
_ (1988), Estudios defilosofia y metodologia dela ciencia, Alianza, Madrid. Tarski, A. (1972), La concepción semántica de la verdad y los fundamentos de la semántica, trad. de E. Colombo, Nueva Visión, Buenos Aires.
- (1972a), Historia General de las Ciencias. V. II la ciencia moderna, trad. de Manuel Sacristán (1.' ed. 1958), Destino, Barcelona. - (1972b), Historia General de las Ciencias. I/. ¡II La ciencia contemporánea, trad. de Manuel Sacristán (1.' ed. 1958), Destino, Barcelona. Taton, R., ed. (1955), Causaliteír et accidents de la découvertescienti/ique, Masson et Cie, Paris. - (1972), Historia general de las ciencias, trad. de Manuel Sacristán, Destino, Barcelona.
- (1972), Historia general de las ciencias. 1/. I La ciencia antigua y medieval, trad. de Manuel Sacristán (l.' ed. 1958), Destino, Barcelona. Thagard, P. (1988), Computational Philosophy of Science, MIT Press, Cambridge (Mass.) y Londres.
Toulmin, S. (1958), The uses of Argument, Cambridge University Press. - (1977), La comprensión humana, Alianta Universidad, Madrid. Van Fraassen, B. (1980), The Scientific Image, Clarendon Press, Oxford. Von Mises, R. (1957), Probability, Statistics and Tiuth, Allen and Unwin,
Londres. Wallace, W. A. (1972), Causality and Scientific Explanation, University of Michigan Press, Michigan. Wartofsky, M. (1981), Introducción a la Filosofia dela Ciencia, trad. M. An-
dreu, F. Carmona y V. Sánchez de Zavala, Alianza, Madrid.
278
INTRODUCCIÓN A LA FIIDSOFÍA DE LA CIENCIA
Watkins, J. W. N. (1952), «Ideal Types and Historical Explanation», en British Joumal for the Philosophy of Science, 3, pp. 22-43. Watson, P., S. l.eBlanc, Ch. Redman (1984), Anchaeological Explanation. The
Scientific Method in Archaeology, Columbia University Press, Nueva York. Weber, M. (1944), Economia y Sociedad I, Fondo de Cultura Económica, México. - (1982), Ensayos sobre metodologia sociológica, Amorrortu, Buenos Aires.
Willey y Phillips (1959), Methods and Theory in American Archaeology, University of Chicago Press, Chicago y Londres. Wittgenstein, L. (1973), Tractatus Logico-Philosophicus, trad. de E. Tierno Galván, Alianza Universidad, Madrid. Wolfe, A. B. (19%), «Functional Economics», en R. G. Tugwell, ed., The Dend of Economics, Alfred A. Knopf lnc., Nueva York, p. 450. Wooger, J. H. (1978), Biologia y lenguaje, Tecnos, Madrid. Wright, G. H. von (1979), Explicación y comprensión, trad. de 1... Vega, Aliama Universidad (1.' ed. 1971), Madrid.
Yen Ren Chao (1962), «Models in Linguistics and Models in General», en E. Nagel, P. Suppes y A. Tarski, eds., op. cit., pp. 558-566. Yoes, M. G. J. (1967), «Nominalism and Non-atomic Systems», Nous, 1, pp. 193-200. Yolton, J. (1970), Locke and the Compass of Human Understanding, Cam-
bridge University Press, Cambridge, p. 58.
íND1cE oNoMÁsT1co Achinstein, P., 53, 81, 98, 99, 101 n., 105,
109, 157, 160, 162, 163, 229, 260, 261,
262 Achotegui, Joseba, 259 Alexander, ley de, 158 Aristóteles, 62, 63, 65, 91, 230 Armstrong, D., 171, 172, 173, 174, 179 Arquímedes, 64 Autrecourt, Nicolas de, 66 Ayer, A. J., 31
Bacon, Francis, 67, 68 Bacon, Roger, 65, 66 Balzer, W., 85, 191, 194
Brothwell, Don, 37 Brown, H., 87 Bunge, M., 40 n., 83, 186 Cantor, Georg, 20 Camap, R., 56, 71. 74, 76, 77, 99, 140, 143,
rss, ise, 207, 210, 237
Canwrighl, N., 74, 175, 176, 177, 178, 179 Cauchy, Augustin, 19 Coffa, A., 71 Cohen, 1. B., 67 Comte, Auguste, 71, 152 Copérnico, Nicolás, 63, 67, 125 Crick, Francis H., 222
Barker, P., 87
Barnes, B., 56, 57, 84, 254 Becker, H., 210, 213, 214, 215, 216 Belarmino, cardenal, 67 Berkeley, George, 19 Berthollet, Claude, 43 Black, Joseph, 220 Black, M., 220, 221, 223, 224 Bloor, D.. 56, 57, 58, 84 Bohm, D., 72, 177, 178 Bohr, N., 220, 221 Bolzano, B., 71 Bourbakì, Nicolas, 85, 192 Boyle, Robert, 153, 163, 266 Brahe, Tycho, 107 Braithwaite, R. B., 224, 249 Bridgman, P. W., 91, 99 Brody, B., 260 Bronsted, J. N., 100
Charles, Jacques A., 153 Chisholm, George B., 81 Chomsky, Noam, 21, 49, 93, 257, 258 Churchland, Paul, 84 Dalton, John, 43 Dalla Chiara, M. L., 52, 53, 86, 198 Dâniken, Erich von, 128 Darwin, Charles, 110, 126, 127, 257 Davidson, D., 43 Demócrito, 64, 65 Descartes, René, 17, 67, 68 Diederich, W., 85, 191 Domenech, A., 58, 59 Donovan, A., 35, 87, 88 Doob, J. L., 224
Inlmducir um mumia mmnítimunn:-nie compleja mino es ln filusnfii dc lu cicncin no cs tan: fácil. Supone iicmp-.› de innnulgación y estulìm y urlu capacidull de difiluncla y símscsis pum drci: lo justo. ln impmsacin-
dihle y lo ufmvenifenle. Anna. 1¬Zsr.au1y lu ha logrado cn esta Inrruriwrión u Ia flf-¿›.n¿fl'a JI' la |:'1'e.m.'r`u, dirigida a Ie|.'1n|'E› mnyxlr-
Inem: univctsirurioes. nu ncccsuríurnnmc especialisus n mudianms de fllmmíía. Lu aulrmn ha eviludu cl enfoque mcmmcntc histórion 0 por escuelas. sulìnricnlemc-:Il: alen-
dido pm' om» publir-wioncs cxísncnmssobmhmnrcrimy haupladn pnr la uricnuuriún lcmútica. lu
más apropiada. 1 su jui-cin. para el ne-'61im en la disciplina. Los capítulos 'Lmmduc-
,
ínrinfi nnalimn qué ¡ipn de cunucinxìcmo cn el de Il filomfla du: la cienpiu. mlálefl unn su objI:1i\¬I.1 y sus lnéludm, cuñl ha sido su cvolución histórica y
1
¢uãI ax su lenguuje. Sigue ul :sludiu dc las hipóI1:uis_ las lnycs, las iunrfas y tu
explicauinnu científica; mmm lema cnnstimlivus del núcleo formal y cslruciursl de la ciencia. I.u.\ numerosas referencias a dmrsos mumrantoa dc lu historia dc la ciencia 3lus cjcmpäus pr.k:lims que iluslmn los usmas
'i
csmdimkm huocn dc cslc ¡ibm nm inslrumcn-
10 uxoclennc para la oonnpmuión de la fi§o›
I
'U
snsíïu de la ciencia..
III! Iä-HI!-SII-I
-4
"Í 9
ax-rs 3
|