Al fin obtuvo la verdadera historia, después después de mucho preguntar. J. R. R. Tolkien Hay, por consiguiente, un gran número de verdades, que parecen repugnarse, repugnarse, y que subsisten todas ellas en un orden admirable. Blaise Pascal Pues tocando la cítara se hacen tanto los buenos como los malos citaristas. Aristóteles
2
Presentación Primera parte. Los herederos se disponen a abrir el testamento Capítulo I. Historia de la ciencia y filosofía de la ciencia: ¿vecinos incómodos o pareja de hecho?
1. La “Revolución Historicista” en la Filosofía de la Ciencia
2. El debate sobre las relaciones entre la Historia de la Ciencia y la Filosofía de la Ciencia 3. ¿Historia ciega? ¿Filosofía vacía? Acerca del problema de una metodología normativa 3.1. ¿Deben los filósofos de la ciencia ser buenos historiadores (y viceversa)? 3.2. Las normas metodológicas y el problema de la racionalidad Capítulo II. Aventuras y desventuras de la concepción semántica de las teorías científicas 1. La idea de una semántica de las teorías científicas 2. El desarrollo de la tradición semántica en Filosofía de la Ciencia 3. Algunas cuestiones disputadas en la tradición semántica 3.1. ¿Cuáles son las herramientas semánticas más apropiadas para el análisis de la ciencia? 3.2. ¿Qué tipo de conexiones entre modelos son relevantes filosóficamente? 3.3. ¿Debe haber una conexión general entre modelos, leyes y teorías? 4. La tradición semántica y los aspectos pragmáticos de la ciencia Capítulo III. Naturalismo al natural. 1. El naturalismo en filosofía de la ciencia. 2. Las teorías de Giere y de Kitcher. 2.1. Representaciones Representaciones y juicios en la teoría de Giere. 2.2. Prácticas, progreso y método en la teoría de Kitcher. 3. Apuntes para una comparación crítica. 3.1. La evolución de la ciencia como un proceso darwiniano. 3.2. El uso de modelos cognitivos. 3.3. La racionalidad y el principio de simetría. Segunda parte. ¿Se puede saber a qué estamos es tamos jugando? Capítulo IV. Cómo verificar teorías inverificables Capítulo V. Verosimilitud con rostro humano 1. Los intereses de los científicos y las normas metodológicas 2. Algunas reglas metodológicas comunes
3. La verosimilitud empírica como “función de utilidad epistémica” 3
4. El científico como realista 5. El científico como instrumentalista i nstrumentalista 6. ¿Por qué existen redes teóricas? 7. ¡Reduce, que algo queda! 8. La naturaleza del progreso científico Capítulo VI. Sociología de la Ciencia y Economía de la Ciencia: otra extraña pareja 1. Introducción 2. El orden científico como un orden social 2.1. El carácter institucional de la ciencia 2.2. La ciencia como empresa cooperativa 2.3. Las normas de la ciencia 2.4. Las relaciones de la ciencia con el resto de la sociedad 3. El orden científico como un equilibrio económico
3.1. Una explicación “económica” de la investigación científica 3.2. El cambio en el orden científico
4. Sobre la Sociología “Radical” del Conocimiento Científico
4.1. El Programa Fuerte y sus puntos débiles 4.2. La Antropología Constructivista de la Ciencia: un cordero con piel de lobo
Capítulo VII El juego de la contrastación 1. El problema de los términos observacionales observacionales 2. Algunas dificultades en el criterio de T-teoricidad 3. Una interpretación inferencialista 4. Teorías básicas y conceptos observacionales observacionales 5. El juego de Hintikka de un enunciado de Ramsey-Sneed 6. Verificabilidad y falsabilidad Bibliografía
4
PRESENTACIÓN
No hay libro alguno que no sea autobiográfico, 1 y no va a ser precisamente éste el primero que contradiga tan elegante regularidad. Pero en el caso del que el lector tiene ahora ante sus manos, hay, en comparación con otras obras mías, casi siempre de tema tan árido como el de la presente, muchos más rastros de las andanzas vitales del autor... una vida que no da para muchas novelas, y sí, en cambio, para algún que otro ensayo filosófico. En fin, como d ijo el torero, “de todo tiene que haber”. Más confesiones personales: escribo estas líneas el día de mi cuadragésimo cumpleaños, y parece oportuno, en fecha tan escogida, detenerse a pensar en lo que uno ha recibido, profesionalmente hablando, y en cuanto de bueno o de malo pueda estar haciendo con ello. De lo primero, es decir, de la herencia, saco las cuentas en la primera parte del libro, no sé si con la debida ecuanimidad, aunque confío en que mi narración sea útil a quienes deseen averiguar los derroteros por los que ha transitado la filosofía de la ciencia en los últimos tiempos. Respecto a lo segundo, es decir, sobre los frutos que uno intenta sacar de lo heredado, el protocolo académico exige que no sea yo quien lo pondere, mas la inmodestia (¿fingida?) que ese mismo protocolo demanda me permite, al menos, soltar en la segunda parte de la obra el pequeño fardo de algunas de mis contribuciones a la filosofía de la ciencia. Hablando de protocolo, es esta una noción tan central que he decidido ponerla en el título mismo, y ello por tres razones. La primera, porque el concepto de protocolo de observación, tan exquisitamente utilizado por ese maestro de filósofos que fue Otto Neurath, influyó de manera decisiva en mis primeras cavilaciones epistemológicas desde que José Luis Zofío me iniciara por los caminos de la metodología de la ciencia hace ya más de veinte años. Una de mis preocupaciones constantes en este terreno ha sido la de cómo se podría rescatar algo parecido a los protocolos de Neurath, algo que
pudiese proporcionar una “base empírica” para el conocimiento científico, en una visión
naturalista y sociologista de la investigación científica, y a esa cuestión está precisamente dedicada la primera parte del último ensayo que compone esta obra. En segundo lugar, cada vez estoy más convencido (y casi todo el libro, aunque más explícitamente los capítulos quinto y sexto, es una consecuencia de ello) de que la ciencia es una actividad regida por normas, por reglas prácticas que determinan el mérito, la dignidad, o el honor científico que cada investigador debe otorgar a las acciones de sus colegas, y de rebote, a sus colegas mismos. La ciencia es, por lo tanto, una escenario tan gobernado por el protocolo como lo fue la corte del Rey Sol, y no creo que haya tarea más importante para la epistemología, o para lo que ahora suele llamarse más protocolariamente los “estudios sobre la ciencia” ( science studies), que la de comprender por qué son las que son las normas científicas, las generales (si las hubiera) y las de cada momento y circunstancia. Sólo esa comprensión permitirá valorar justamente los rendimientos (cognitivos, culturales, económicos o lo que sea) de la investigación científica. 1
¬ x(Lx¬Ax).
5
La tercera y última razón es más autobiográfica si cabe: el protocolo académico, y en especial los dos actos más protocolarios de todos aquellos por los que un profesor universitario ha de pasar, han sido directamente responsables de la producción de buena parte del “material” (¿es ése un término peyorativo?) que se incluy e en este volumen. Hablo, naturalmente, de las oposiciones y de la redacción de una tesis doctoral. En las
primeras, los “candidatos” han de escribir y presentar una “memoria” que ponga de
manifiesto su dominio de la especialidad. En los dos casos en los que, hasta la fecha y
con suerte dispar, he concursado, dicha memoria debía ajustarse a sendos “perfiles” decididos por la Universidad, que fueron, respectivamente, “Historia y Filosofía de la Ciencia” y “Semántica de las Teorías Científicas”. Ironías del d estino (pues en ninguno
de los casos tuve ni arte ni parte en la eleción): eran justo los temas en los que yo mismo había sido criado como cachorro de investigador; aunque tampoco sería tanta la casualidad, porque, bien mirado, eran también los componentes principales del caldo de cultivo disciplinar en el que había crecido la generación de filósofos de la ciencia a la que pertenezco. Así que me tomé las dos oportunidades como una excusa para reflexionar sobre esa herencia, y el resultado, con ligeras modificaciones, son los dos primeros ensayos de esta obra, que, junto con el tercero (procedente asímismo de la
“lección” que tuve que desarrollar en una de aquellas oposiciones, para la cual elegí el tema del “naturalismo científico”), ofrecen un panorama, si no completo, sí al menos sistemático, de las tres principales (aunque no únicas) “placas tectónicas” con las que se
ha constituido el suelo que pisamos en nuestra disciplina. Lo más importante, desde un punto de vista generacional, es que nuestra herencia no era ya, precisamente, aquello que cuando fuimos estudiantes se nos enseñó con el nombre de “Concepción Heredada” (en dos palabras: el neopositivismo light de Hempel, Nagel -Ernest- y el último Carnap), y lo que al menos otras dos generaciones de filósofos se vieron impelidas a demoler desde su base. Nuestra herencia consistía, más bien, en lo que aquella empresa de derribos, y todas y cada una de las constructoras que vinieron inmediatamente después, habían deshecho y edificado en el solar del neopositivismo. Y una nueva ironía como principal conclusión: desde la perspectiva que dan las décadas pasadas, algo que ahora resulta meridianamente claro es que, en
realidad, no existió nunca un “modelo hegemónico” en la filosofía de la ciencia,
digamos, pre-kuhniana. Pero esta es una historia que se cuenta con más detalle en la primera parte del libro. Los ensayos de la segunda parte tienen, cada uno de ellos, una historia distinta, y en su diversidad también dan cuenta del protocolo que rige nuestras vidas académicas. El capítulo cuarto es una comunicación presentada a un congreso y planteada bajo la
especie de un “divertimento” filosófico, pues una de mis máximas es la de que, quien se
moleste en escucharme en ese tipo de actos (no sé si alguien alguna vez leerá una comunicación publicada en unas actas, pero si ése es el caso, entonces él o ella también), cuando menos merece no aburrirse, o aburrirse poco. El capítulo quinto resume mis peleas de al menos una década con el problema de la verosimilitud, al que dediqué mi tesis doctoral en Filosofía (parte de la cual dio origen al libro Mentiras a medias); el capítulo está concebido como una respuesta a las cuestiones más significativas planteadas en la primera parte, a saber, qué consecuencias epistemológicas podemos sacar de lo que hemos aprendido sobre la práctica científica, a partir de los estudios sobre la historia de la ciencia, pero también, desde un punto de vista más biográfico, la obra responde a la insatisfacción que me produjo la alambicada teoría de la verosimilitud que yo mismo presenté en mi tesis, una teoría que carecía de 6
“rostro humano”, y que, por ello, era difícil conectar con la práctica científica. Espero
que la teoría que resumidamente presento aquí, y cuyo detalle matemático puede consultarse en los últimos capítulos de Mentiras a medias, cumpla mejor esa misión. Los capítulos sexto y séptimo, en cambio, tuvieron un origen mucho más abrupto, sobre todo el último. Con respecto al sexto, originalmente fue un trabajo que redacté un poco a marchas forzadas en el verano de 1997 para poder aprobar en septiembre una asignatura en mis estudios de doctorado en Ciencias Económicas, asignatura a cuyas clases no había asistido por mil excusas que cualquier estudiante de doctorado estoy seguro que comprenderá. Curiosamente, ese trabajo precipitado acabó convirtiéndose en el germen de mi siguiente tesis doctoral (publicada como La lonja del saber ). Por último, el contenido básico del capítulo séptimo vino al mundo en un arranque de cuatro o cinco días de junio de 2001, como respuesta a la inexorable
necesidad de desarrollar un “tema” o “lección” para una de las oposiciones
mencionadas, y sus dibujitos fueron esbozados mientras hacía que vigilaba exámenes... cuando la protocolaria quietud de los examinandos lo permitía. Pero vaya, creo que el protocolo académico me exige no continuar haciendo confesiones de este cariz, y sí, en cambio, dar paso al obligado capítulo de agradecimientos. Además del cariño y el apoyo constante de mi familia, quiero reconocer aquí mi gratitud hacia algunos colegas, y pese a ello, amigos, con los que he tenido la oportunidad de discutir, en uno u otro formato, algunas de las ideas presentadas en las siguientes páginas: Paco Álvarez, Miguel Beltrán, Eduardo Bustos, Antonio Diéguez, José Antonio Díez, Javier Echeverría, Theo Kuipers, Anna Estany, José Luis Falguera, Juan Carlos García-Bermejo, Adolfo García de la Sienra, Andoni Ibarra, Francesco Indovina, Ramón Jansana, Pablo Lorenzano, Uskali Mäki, Ulises Moulines, Ilkka Niiniluoto, León Olivé, Ana Rosa Pérez-Ransanz, Eulalia PérezSedeño, Luis Miguel Peris, Miguel Ángel Quintanilla, Andrés Rivadulla, Javier Sanmartín, Mauricio Suárez, David Teira, Juan Urrutia, Luis Vega, Javier Zamora y José Luis Zofío. También quiero reconocer la deuda contraída con mis numerosos alumnos, quienes tal vez más veces de lo conveniente han tenido que soportar mis elucubraciones cuando lo que querrían eran tan solo unos buenos apuntes, pero cuya paciencia y curiosidad me han sido siempre de gran ayuda para intentar hallar la forma más didáctica de expresar mis ideas, y no pocas veces, para darme cuenta de que lo que estaba diciendo era una tontería. Con respecto a los agradecimientos institucionales, esta obra se ha encuadrado en los proyectos de investigación PB98-0495-C08- 01 (‘La cultura de la tecnociencia’), BFF2002- 03656 (‘Raíces cognitivas en la evaluación de las nuevas tecnologías de la
información’), financiados por el Ministerio español de Ciencia y Tecnología, y el proyecto hispano-mexicano ‘Capacidades potenciales, racionalidad acotada y evaluación tecnocientífica’, financiado por el Ministerio de Educación, Cultura y Deportes y la Agencia Española de Cooperación Internacional. Asímismo he recibido generosos apoyos por parte de la Fundación Urrutia Elejalde y de la Fundación Española para la Ciencia y la Tecnología. Finalmente, deseo también agradecer a la Universidad Nacional de Educación a Distancia el maravilloso ambiente de trabajo me proporciona, y a la Editorial Tecnos las facilidades para la publicación de esta obra.
Madrid, navidad de 2003 7
Primera parte LOS HEREDEROS SE DISPONEN A ABRIR EL TESTAMENTO
8
Capítulo I HISTORIA DE LA CIENCIA Y FILOSOFÍA DE LA CIENCIA: ¿VECINOS INCÓMODOS O PAREJA DE HECHO?
9
1. LA “REVOLUCIÓN HISTORICISTA” EN LA FILOSOFÍA DE LA CIENCIA. Hubo un problema que sacudió como una onda de choque la Filosofía de la Ciencia a partir de los l os años sesenta, y que, pese a que su interés en la literatura lit eratura actual ha menguado considerablemente con respecto al que llegó a alcanzar entonces, sin llegar por eso a desaparecer, desaparecer, no es menos cierto que aquellas convulsiones dejaron marcadas las, por así decir, principales estructuras orográficas que iban a caracterizar la disciplina en los años sucesivos. Este problema es, por supuesto, el de las relaciones entre la Historia de la Ciencia y la Filosofía de la Ciencia. 2 Para quienes iniciamos nuestros estudios universitarios alrededor de los años ochenta y vimos cómo nuestros pasos se dirigían hacia la Metodología o la Filos ofía de la Ciencia, este problema era “el
problema”, era el asunto que había acaparado una mayor parte de la atención en las discusiones sobre los fundamentos y los detalles de la disciplina, y era, además, el eje que articulaba la mayoría de los programas docentes a través de los que prácticamente toda una generación accedió a esta materia. Visto desde una perspectiva de tres o cuatro
décadas, el debate entre “formalistas” o “racionalistas”, por un lado, e “historicistas”, “psicologistas” “psicologistas” o “sociologistas”, por el otro, parece haberse ido amortiguando, bien sea
por la l a consecución consecución de un cierto acuerdo sobre las cuestiones más básicas del debate, o bien sea por la necesidad de buscar nuevos temas de conversación; y uno llega tal vez a pensar que hacer excesiv o hincapié en la dicotomía del “modelo clásico” frente a las
“críticas historicistas”, como puede haber ocurrido en la enseñanza de la Filosofía de la
Ciencia en las últimas décadas (y no sólo en nuestro país), puede restar esfuerzos al estudio de otras temas que no tienen un encaje natural en dicha dicotomía, y al de otras herramientas conceptuales que son, actualmente, las que de forma más fructífera se están utilizando en la producción de trabajos en esta disciplina, como las ciencias cognitivas, la microsociología, la inferencia estadística, los modelos evolutivos, la teoría de la decisión y de los juegos, etcétera, configurando una Filosofía de la Ciencia
“transdisciplinar”, “transdisciplinar”, por llamarla de algún modo.
El origen de este debate sobre las relaciones entre la Historia de la Ciencia y la Filosofía de la Ciencia se sitúa normalmente en la publicación de la obra de Thomas S. Kuhn La estructura de las revoluciones científicas científicas (1962), aunque algunas críticas recibidas desde, por lo menos, los años cincuenta por la concepción de la ciencia heredada del empirismo lógico ya estaban basadas en la constatación de un cierto desajuste entre la estructura de la ciencia tal como la describían los filósofos tradicionales y la práctica real de los científicos en la historia, además de otras razones epistemológicas. Entre estas voces críticas podemos citar a Popper, Quine, Toulmin o Hanson. En todo caso, con o sin precedentes, el éxito de la obrita de Kuhn consiguió 2
Usaré las expresiones “Historia de la Ciencia” y “Filosofía de la Ciencia” con mayúsculas cuando me
refiera a las disciplinas académicas académicas así denominadas, y emplearé, en cambio, las minúsculas para referirme al conjunto de los acontecimientos científicos del pasado, o a alguna doctrina particular sobre los problemas filosóficos relacionados con la ciencia. Dos buenas introducciones a la Filosofía de la Ciencia son Díez y Moulines (1997) y Echeverría (1999).
10
que la relevancia de la Historia de la Ciencia en el planteamiento y la respuesta de los problemas filosóficos, metodológicos o epistemológicos fuera algo que, unos años después, se aceptaba prácticamente sin cuestión. Así, de acuerdo a una poderosa tradición expositiva que, por lo que alcanzo a saber, se remonta a la introducción escrita por Frederick Suppe al libro La estructura de las teorías científicas cie ntíficas,,3 en la Filosofía de la Ciencia (o al menos en su dominante versión anglosajona, aunque sus principales líderes eran autores de origen germano emigrados en los años treinta) había existido entre los años cuarenta y los sesenta del siglo XX un notable consenso sobre la naturaleza básicamente formal de la disciplina, emparentada sobre todo con la lógica y
la metamatemática; Suppe, siguiendo a Putnam, denominó “Concepción Heredada”
(received view) view) a la síntesis de los principios básicos establecidos en este consenso. Estos principios incluían, desde el punto de vista de la metodología de trabajo de los filósofos de la ciencia, la idea de que las teorías científicas debían reconstruirse en un lenguaje formalizado que sirviera como herramienta básica para los posteriores estudios epistemológicos, con lo que una de las principales tareas del filósofo fi lósofo sería la de expresar el contenido de las teorías con absoluta claridad, y esto significaba en la práctica fabricar una versión de las teorías científicas a la que pudieran ser aplicadas las técnicas desarrolladas desde finales del XIX para el análisis formal de los sistemas lógicos axiomáticos. Una cuestión sobre la que no se había alcanzado un consenso absoluto era la de si el lenguaje formal que debía emplearse para reconstruir las teorías científicas era el de la lógica de primer orden u otro más complejo (por ejemplo, el de la teoría de conjuntos, como defendían Patrick Suppes y sus seguidores). La primera opción, aunque resultaba mucho más cómoda sobre todo para estudiar la semántica de las teorías científicas, impedía de todas maneras reconstruir éstas de forma mínimamente realista, debido, entre otras cosas, a la irreductibilidad de la aritmética a la lógica de primer orden. Esta misma mi sma lógica fue incluso abandonada posteriormente como herramienta principal por lo difícil que resultaba explicar con su ayuda la semántica de los términos teóricos, tarea en la que algunos seguidores de Suppes, especialmente Joseph Sneed, consiguieron un notable éxito empleando la teoría de conjuntos (muchos más detalles sobre esta cuestión en el próximo capítulo). Esta discusión se resume bien en el eslogan de Suppes según el cual “la filosof ía de la ciencia debe inspirarse en la matemática, y no en la metamatemática”. Otro principio metodológico fundamental de
la “Concepción Heredada” era la distinción absoluta entre lo que Reichenbach denominó “contexto de descubrimiento” y “contexto de justificación”, respectivamente,
afirmándose además que sólo el segundo de estos contextos era relevante para la Filosofía de la Ciencia. Finalmente, esta concepción tradicional también afirmaba que debía existir algún criterio de tipo lógico que permitiera distinguir el conocimiento verdaderamente verdaderamente científico de las afirmaciones pseudo-científicas.
Con respecto a los principios sustantivos de la “Concepción Heredada” sobre la
estructura de la ciencia, los más importantes se referían a la necesidad de distinguir dos vocabularios en el lenguaje de las teorías (correspondientes a los términos observacionales y a los teóricos), al análisis del valor epistémico de las teorías basado en la relación de confirmación (que podía estudiarse en términos cualitativos, al estilo 3
Este libro contiene las actas de un simposio celebrado en 1969. La mencionada tradición historiográfica de la filosofía de la ciencia incluiría obras como Newton-Smith (1981), Hacking (1983), Chalmers (1992), y, en nuestro país, Rivadulla (1986) y Echeverría (1999), además de haber influido en numerosos programas docentes.
11
de Hempel, o cuantitativos, al estilo de la lógica inductiva de Carnap), y a la idea de que el desarrollo de las ciencias maduras procede fundamentalmente mediante la reducción de las teorías exitosas antiguas a teorías nuevas más amplias y precisas. De la distinción entre los términos observacionales y los teóricos se derivaba a su vez una clasificación de los enunciados científicos en regularidades empíricas, leyes teóricas y reglas de correspondencia, así como una tesis sobre la interpretación semántica de cada uno de ambos tipos de términos: mientras que los conceptos observacionales recibirían una interpretación completa directamente a través de la experiencia, los conceptos teóricos sólo recibirían una interpretación empírica parcial, a través de las reglas de correspondencia. A modo de síntesis podemos afirmar que la concepción derivada del empirismo lógico basaba su análisis de la ciencia en tres grandes dicotomías conceptuales: la distinción entre enunciados analíticos y sintéticos (o, digamos, entre forma y contenido dentro de las expresiones lingüísticas), la distinción entre conceptos observacionales y teóricos, y la distinción entre enunciados positivos (descripciones, explicaciones) y normativos (justificaciones, valoraciones). Estas tres distinciones se presuponían como absolutas, válidas para todo contexto histórico, y conducentes siempre a los mismos resultados independientemente independientemente de cuándo, dónde y por quién fuera aplicadas. Siempre según de acuerdo a la tradición expositiva de la moderna historia de la Filosofía de la Ciencia, este gran consenso se habría roto bruscamente con la aparición de la obra de Kuhn, que habría substituido aquel marco de análisis de las teorías científicas por otra concepción de acuerdo con la cual lo más importante son las pautas del desarrollo histórico de la ciencia, pautas que sólo pueden comprenderse debidamente usando categorías históricas, sociológicas y psicológicas. El principal debate de la filosofía de la ciencia a partir de la segunda mitad de los sesenta se habría centrado, entonces, en la cuestión de qué categorías de este tipo serían las más apropiadas para describir o explicar el desarrollo de la ciencia. Por citar sólo cuatro de
las propuestas más famosas, estas categorías podían ser las de Kuhn (“paradigmas”, “ciencia normal”, “revoluciones”, “cambio de Gestalt ”...), ”...), las de Laudan (“tradición de investigación”, “problemas empíricos”, “problemas conceptuales”...), las de Lakatos (“programas de investigación”, “núcleo firme”, “cinturón protector”, “heurística”, “cambios de problemática”...) o las de los seguidores de Sneed y Stegmüller (“red teórica”, “evolución teórica”, “reducción aproximativa”....). Estas cuatro propuestas vendrían a ser otras tantas variantes del tipo de concepciones de la ciencia que habrían
resultado de la “Revolución Historicista”, ordenadas de menor a mayor grado de formalización. Mi inclusión de la concepción estructuralista o “no enunciativa” sneediana entre estos cuatro ejemplos tiene, obviamente, la intención de mostrar que lo
más importante de dicha “Revolución” no habría sido, en particular, el abandono de las
herramientas típicas del lógico matemático y su sustitución por las del historiador, sino el cambio del centro de interés, entre los filósofos de la ciencia, desde la estructura de estructura de las teorías hacia su dinámica. Se puede argumentar que, en el caso de la “concepción no
enunciativa”, el aspecto esencial seguía siendo el análisis de la estructura de las teorías,
y que la insistencia de autores como Stegmüller y Moulines en los aspectos dinámicos
de la ciencia se debía, más que a otra cosa, al intento de hacer aceptable este “nuevo patrón de reconstrucción” reconstrucción” (por emplear emplear la expresión con la que que lo describió Feyerabend) Feyerabend)
a una relativa mayoría de filósofos convencidos por los argumentos historicistas de Kuhn. Pero, sea dicha insistencia el resultado de una argucia retórica o de un interés filosófico auténtico, lo más importante sería, para la tradición expositiva a la que me 12
estoy refiriendo, que ambas posibilidades demostrarían la existencia de un cambio radical de intereses dentro de la comunidad de los filósofos de la ciencia. De todas formas, la influencia de Kuhn se habría dejado notar especialmente en
el surgimiento de los que podríamos denominar “enfoques sociologistas radicales”, que, sobre todo a partir de la constitución del llamado “Programa Fuerte en la sociología del conocimiento”, han intentado llevar hasta sus últimas consecuencias la intuición de que,
para entender la ciencia, lo más relevante es explicar de qué manera influyen el contexto histórico, la estructura social de las comunidades científicas, y los intereses personales y colectivos, en las decisiones de los investigadores. Aunque estos enfoques no están ni mucho menos despreocupados por entender el contenido y la estructura de las teorías científicas, lo que más les interesa de ambas cosas es encontrar en cualquiera de ellas
indicios de “influencias sociales”, y, por lo tanto, el análisis formal se considera como una herramienta bastante ineficaz, comparada con el análisis sociológico. Figura 1
La figura 1 muestra cuál sería la imagen de la evolución de la filosofía de la ciencia en la segunda mitad del siglo XX que se sigue de esta tradición historiográfica.
En ella, la expresión “kuhnianos” no significa, obviamente, “seguidores de Kuhn”, sino
autores que, influenciados por el mensaje de La estructura de las revoluciones científicas, habrían intentado, bien desarrollarlo hacia posiciones más historicistas o sociologistas, o bien construir esquemas alternativos para ofrecer una visión más racional de los fenómenos históricos expuestos por Kuhn. En todo caso, la idea más importante es que, tras un cierto período de consenso relativo sobre los problemas básicos de la Filosofía de la Ciencia y sobre las técnicas de análisis más apropiadas, los argumentos de Kuhn habrían dado lugar a una situación radicalmente nueva, en la que se planteaban problemas distintos y existían dos grandes paradigmas alternativos acerca de cuáles eran esos problemas y de cómo debían resolverse, y con un grado de consenso menor incluso dentro de cada uno de estos paradigmas que el que existía en el período
de vigencia de la “Concepción Heredada”. El impacto general de la obra de Kuhn sobre la disciplina de la Filosofía de la Ciencia sería precisamente la llamada “Revolución Historicista”. Como argumentaré con más detalle unas páginas más atrás, creo que esta imagen del desarrollo de la disciplina, aunque puede ser útil desde el punto de vista pedagógico, no es muy fiel a la realidad, y su vigencia se debe, fundamentalmente, al hecho de que fue adoptada en un momento en el que el número de filósofos de la ciencia estaba sufriendo un aumento espectacular, sobre todo en los años setenta, justo cuando el tema más candente de esta especialidad era la discusión entre Kuhn, Popper, Lakatos y Feyerabend. Las causas del aumento en el número de especialistas eran demográficas e institucionales: el baby-boom de la post-guerra, que, en combinación con el desarrollo del estado del bienestar, disparó el número de estudiantes universitarios y, por lo tanto, también el de profesores. 4 Pero una cosa es la interpretación que hacen los manuales de lo más relevante que ocurre en la disciplina, obligados siempre a la simplificación, y otra cosa son los auténticos movimientos intelectuales que tienen lugar bajo esas apariencias. Por supuesto, no pretendo negar que existiera a partir de mediados de los 4
Para una interpretación semejante de la historia de la Filosofía de la Ciencia, ver Giere (1999).
13
sesenta un gran aumento de las obras de Filosofía de la Ciencia más preocupadas por la Historia de la Ciencia que lo que aparentemente pudieran estar los trabajos de las tres décadas anteriores, ni mucho menos que la obra de Kuhn fuera el principal catalizador de dicho fenómeno. Pero sí me parece que una mirada un poco más detenida al tipo de trabajos que se han ido produciendo desde los años cincuenta en nuestra disciplina muestra una imagen de este desarrollo bastante diferente al de la figura 1.
En particular, la propia idea de la “Concepción Heredada” como una especie de
paradigma (en sentido cuasi-kuhniano), que dominara la disciplina casi de manera hegemónica, no resiste el paso del tiempo. Dado lo reducido de la población de
filósofos de la ciencia en los años cuarenta y cincuenta, los “críticos” del empirismo
lógico y de sus seguidores distaban mucho de ser una minoría marginal, y, además, fuera de los Estados Unidos llegaban a ser una abrumadora mayoría. Piénsese, por ejemplo, en la influencia de Karl Popper en Gran Bretaña y de Gaston Bachelard en Francia. Por otro lado, desde la publicación de las primer as obras “americanas” de Carnap y Reichenbach, 5 que distaron de lograr un consenso inmediato en los Estados Unidos (por entonces dominado filosóficamente por el pragmatismo), hasta la aparición de La estructura de las revoluciones científicas, pasaron escasamente veinticinco años, mientras que desde la publicación de esta obra hasta nuestros días han transcurrido más de cuarenta, y en esta segunda etapa ha habido corrientes que, además de tener un número apreciable de seguidores, han perdurado tanto como lo pudo hacer el empirismo lógico. Esto nos permite sospechar que el período de posible hegemonía de la
“Concepción Heredada” no es realmente una etapa de consenso seguida por una “crisis”
que a su vez da comienzo a una bifurcación en la disciplina, sino que, en mi opinión, las cosas se describen mejor diciendo que en ningún momento ha existido una tradición hegemónica en la Filosofía de la Ciencia del siglo XX , sino que siempre han coexistido vigorosos enfoques muy diferentes y contrapuestos, aunque con el aumento del número de especialistas ha habido una tendencia creciente al aumento de la diversidad de enfoques. Agrupar todos estos enfoques alrededor de la influencia que sobre ellos haya podido tener la “Revolución Historicista” no deja de ser una clasific ación artificial, excesivamente simplificada; en particular, porque, como señala Ronald Giere, 6
“aunque en los noventa existen muy pocos filósofos de la ciencia que se
identificarían a sí mismos como empiristas lógicos, la mayoría aún se ocupa de temas y emplea métodos de análisis que son históricamente continuos con los del
empirismo lógico”.
Entre estos temas y métodos de análisis podemos citar la teoría de la confirmación bayesiana y sus alternativas, la teoría de la medición, la naturaleza de las explicaciones científicas, la estructura de las teorías, la reducción interteórica, la naturaleza y función de las leyes y los modelos, los problemas del realismo y de la verosimilitud, el análisis de la causalidad, etcétera, además de los numerosos problemas conceptuales derivados de muchas teorías científicas reales, cuestiones todas ellas que
podían caer plenamente bajo los intereses de los representantes de la “Concepción 5
Si no me equivoco, serían Testability and Meaning de Carnap y Experience and Prediction de Reichenbach, aunque este último libro fue compuesto en la fase del exilio de su autor en Turquía. 6 Op. cit ., pg. 235. Téngase en cuenta que se refiere exclusivamente a la situación de la disciplina en los Estados Unidos.
14
Heredada” y que pueden ser discutidas, y de hecho lo son muy a menudo, con pocos
miramientos hacia los problemas históricos, aunque sin compartir dogmáticamente los presupuestos del empirismo lógico. Giere también indica que difícilmente podemos
interpretar la revolución kuhniana como una invitación a “volver a tener en cuenta la ciencia real”, en vez de las pretendidas caricaturas de la ciencia que aparecerían en las discusiones sobre la confirmación de las leyes y el significado de los términos teóricos
de la “Concepción Heredada”, pues los creadores del empirismo lógico (aunque tal vez
no tanto sus primeros discípulos americanos) no sólo estaban perfectamente al tanto de
“la ciencia real”, siendo varios de ellos profesores de física en la universidad germana
de entreguerras, sino que el principal estímulo filosófico a lo largo de la vida de estos
autores fue el de crear una teoría de la ciencia que estuviese “a la altura” de las dos
grandes teorías físicas desarrolladas en las primeras décadas del siglo: la mecánica
relativista y la mecánica cuántica. Si hubo una mayor “atención a la ciencia real” a
partir de la revolución kuhniana, esto ha de entenderse más bien como un aumento de la importancia de los estudios históricos, psicológicos y sociológicos en la Filosofía de la Ciencia, algo que no ha venido a sustituir, ni mucho menos, a la lista de cuestiones ofrecida al principio de este párrafo, sino que simplemente se ha añadido al conjunto de temas que han pasado a ser objeto legítimo de estudio en nuestra disciplina, y ampliando de paso el número de posibles enfoques utilizados en el análisis de estos temas. Por otro lado, la mayor parte de estos asuntos habían sido ya estudiados muy intensamente por parte de otras tradiciones de investigación sobre la ciencia distintas del empirismo lógico. No sólo se trata de que el enfoque historicista de Kuhn y otros autores hubiera tenido algunos “precursores” notables, como Ludwig Fleck 7, o de que la relatividad de los enunciados observacionales hubiera sido asumida desde muy pronto por algunos notables defensores del positivismo lógico, como Otto Neurath 8, sino que este mismo positivismo lógico era hasta cierto punto en la Europa Central de entreguerras una corriente filosófica marginal, y otras corrientes más dominantes, como la fenomenología de Edmund Husserl y Max Scheler, la sociología del conocimiento de
Karl Mannheim y el neokantismo de Ernst Cassirer, la teoría “psicoanalítica” de la
ciencia de Gaston Bachelard en Francia, o el pragmatismo de John Dewey en los Estados Unidos, todas ellas habían asumido en mayor o menor medida la esencial dependencia del conocimiento científico con respecto a las condiciones culturales, sociales o económicas de cada época, si bien esta asunción se había llevado a cabo, en general, más a partir de una posturas filosóficas determinadas que mediante un estudio sistemático de la historia de la ciencia. 9 Dentro de este contexto, el empirismo lógico tuvo la suerte de ganar la adhesión de la mayor parte de los filósofos de la ciencia de Estados Unidos inmediatamente después de la Segunda Guerra Mundial, pero ni mucho menos puede llegar a considerarse como una “ortodoxia” temporal en la historia de la Filosofía de la Ciencia. Así, una representación gráfica medianamente realista de dicha historia en la segunda mitad del siglo XX sería, por lo tanto, mucho más confusa que la que se muestra en la figura 1, pues contendría numerosos enfoques más o menos relacionados entre sí, y tan mezclados en algunos puntos que sería difícil reconocerlos como escuelas autónomas. 7
Fleck (1986); ed. orig. de 1935. Ayer (1965), cap. 9. 9 Cf. Rossi (1990). 8
15
2. EL DEBATE SOBRE LAS RELACIONES ENTRE LA HISTORIA DE LA CIENCIA Y LA FILOSOFÍA DE LA CIENCIA. Sea como fuese, el hecho es que desde los años sesenta hubo un creciente interés
por la historia entre los filósofos de la ciencia, si bien la pretendida “Revuelta Historicista”10, más que dar un cambio completo de rumbo a los intereses, problemas y
perspectivas de la disciplina, se limitó a introducir en ella nuevos temas y nuevos enfoques sin eliminar los que ya existían, aunque afectándolos en mayor o menor medida. Entre los problemas más importantes que se suscitaron debido a este creciente interés podemos señalar el de la objetividad del conocimiento científico, el del progreso de la ciencia y el de su racionalidad , cualidades que casi todos los filósofos de la ciencia, tanto fuera como dentro del empirismo lógico, habían dado por sentadas anteriormente, y que ahora se convirtieron en cuestiones de intensa disputa. El análisis de estos problemas hacía más razonable el uso de argumentos derivados de la historia de la ciencia (bien que entre otras clases de argumentos), y por este motivo se suscitó
desde finales de los sesenta una literatura más o menos voluminosa sobre “las relaciones entre la Historia de la Ciencia y la Filosofía de la Ciencia”. A continuación resumiré
algunas de las posiciones más importantes sostenidas a lo largo de dicho debate. 11 Una de las primeras obras en las que se experimentó el choque entre la Historia de la Ciencia y la Filosofía de la Ciencia fue el libro de Joseph Agassi titulado Towards an Historiography of Science (1963). En ese libro, el conocido discípulo de Popper criticaba la mayor parte de las obras de historia de la ciencia entonces existentes por estar basadas, desde su punto de vista, en imágenes falsas del método científico, como eran el inductivismo y el convencionalismo. Esto supone que los trabajos de los historiadores de la ciencia cometerán un doble error: por una parte, al imaginar (equivocadamente) que los grandes científicos del pasado han seguido uno de esos dos métodos, no acertarán a reconstruir el proceso del desarrollo del conocimiento tal como realmente sucedió (por ejemplo, tenderán a ignorar, por no ser capaces de percibir su importancia, las continuas disputas metodológicas entre los científicos); por otra parte, al intentar emplear esas mismas (y defectuosas) metodologías como historiadores, no conseguirán elaborar teorías verdaderamente interesantes y exitosas sobre la historia de 10
Por usar la expresión de Díez Calzada (1989). Una buena introducción a este problema, y en general a la relación entre lo descriptivo y lo normativo en la Historia y la Filosofía de la Ciencia es el capítulo final de Estany (1990). La misma autora ha retomado esta cuestión recientemente, defendiendo la tesis de que la historia y la metodología de la ciencia no sólo se necesitan mutuamente, sin confundirse entre sí, sino que lo mismo sucede con una multitud de disciplinas que pueden tener a la ciencia como objeto de estudio (sociología, ciencias cognitivas, ética, política, etcétera), tanto con el fin de entender el desarrollo de la ciencia, como para poder intervenir socialmente sobre ese desarrollo (v. Estany (2000)). Por otro lado, tres buenas introducciones a los problemas metodológicos de la Historia de la Ciencia, y en parte sus relaciones con la Filosofía de la Ciencia, son Kragh (1989), Losee (1989) y Barona (1994). Otras obras interesantes sobre las relaciones entre la Historia y la Filosofía de la Ciencia, y sobre las dificultades metodológicas de la Historia de la Ciencia, son Chattopadhyaya (1990), Dear (1995), Fuller (1991b), Gallison (1988), Hahn (1975), Hankins (1979), Hatfield (1996), Kranzberg (1990), Laín Entralgo (1992), Lepenies y Weigart (1983), Lindholm (1981), López Piñero (1992), Losee (1983), Medina (1983), Moulines (1983), Nickles (1986) y (1997), Pyenson (1977) y (1992), Radder (1997), Ribes (1977), Ruse (1993), Sánchez Ron (1992), Shapin (1982) y (1992), Shapin y Thackray (1974), Smart (1972), Ten (1988), Vicedo (1993), Wartofski (1976), Williams (1975). 11
16
la ciencia. Agassi, en cambio, intenta utilizar la hipótesis de que los científicos han seguido más o menos la metodología falsacionista, en el sentido de que sus experimentos y observaciones no fueron realizados como una mera búsqueda de hechos, sino como contrastaciones de teorías, y afirma que, con esta metodología, es posible porducir investigaciones historiográficas mucho más relevantes. Un curioso paralelismo entre la obra de Agassi y la de Kuhn es que, mientras esta última hizo que muchos filósofos de la ciencia considerasen importante la Historia, la primera intentaba demostrar que los historiadores de la ciencia debían emplear de un modo consciente los resultados de la Metodología. La obra de Agassi fue duramente criticada en el libro del historiador Maurice Finocchiaro, History of Science as Explanation (1973).12 Su argumento parte de la distinción entre dos tipos de obras en Historia de la Ciencia, a saber, las descriptivas y las explicativas. Las primeras se limitan a acumular hechos relevantes, sin pretender ofrecer interpretaciones muy profundas de los mismos, y su función principal es la de servir como fuente de referencias. Las segundas, en cambio, intentan explicar por qué los científicos del pasado actuaron como lo hicieron. El primer tipo de obras no necesitaría estar basado en ninguna concepción filosófica; las del segundo tipo, en cambio, habrán de basarse principios a partir de los cuales generar las explicaciones. Finocchiaro argumenta que muchos de estos principios difícilmente se encontrarán en las teorías metodológicas mencionadas por Agassi, todas las cuales se ocupan más del
“contexto de justificación” que del “contexto de descubrimiento”, que es el que centra la antención del historiador. Por ejemplo, el esquema popperiano de “conjeturas y refutaciones” no es tanto una estructura lógica en la mente de los científicos reales de la
historia, sino una estructura en la mente del filósofo, que en ocasiones puede confundir más que iluminar los hechos históricos. Además, incluso cuando ciertos principios de una metodología son útiles para explicar la conducta y las creencias de un científico, eso no implica que los principios de otra metodología rival no puedan ser igual de útiles en otros casos, con lo que el historiador no debe elegir entre las diversas metodologías, sino que puede y debe utilizarlas todas. Finocchiaro afirma incluso que el conocimiento de la ciencia contemporánea, y no sólo el de la filosofía actual de la ciencia, puede llegar a ser perjudicial para el historiador, pues este conocimiento (al estar por lo general mucho mejor justificado que el de épocas anteriores) puede impedirnos entender los verdaderos procesos de razonamiento de los científicos del pasado. En su contribución al simposio del que surgió el ya citado e influyente libro La estructura de las teorías científicas, editado por Suppe, el conocido historiador de la ciencia I. B. Cohen criticaba el uso que los filósofos suelen hacer de los ejemplos históricos, en parte por extrapolar categorías científicas y metodológicas actuales al pensamiento de los científicos de otras épocas, y en parte por no estar lo suficientemente preocupados de determinar si esos ejemplos son realmente correctos
desde el punto de vista histórico. Por otro lado, “los filósofos”, afirma, “se sirven de la
historia para dotar a sus afirmaciones de contenido empírico, o al menos para encontrar ejemplos en el mundo de la ciencia (tal y como se la ha practicado de hecho) que sirvan
para ilustrar una tesis propia o para refutar alguna opuesta”; y añade que “es evidente que para este objetivo resulta más útil la historia verdadera que la falsa”. 13 En cambio, el historiador no tiene este tipo de prejuicios filosóficos a la hora de realizar sus 12
Ver también Finocchiaro (1979) y (1985). Cohen (1979), pg. 392.
13
17
investigaciones, y él se ocupa de averiguar, en la medida de lo posible, qué era lo que realmente pensaban los científicos del pasado, o qué influencias recibieron y ejercieron de hecho, sin preocuparse, por lo general, de establecer tesis generales sobre el proceso de investigación científica. Además, aunque no niega que la Filosofía de la Ciencia puede aportar conceptos útiles para el historiador, Cohen no piensa que la mayor parte de los historiadores de la ciencia se vayan a beneficiar mucho si dedican una parte de su esfuerzo a convertirse en expertos en Metodología, pues la mayor parte de la literatura de dicha disciplina existente hasta finales de los sesenta era muy difícilmente aplicable de forma directa a la investigación histórica. Además, muchos casos en los que obras de Historia de la Ciencia han sido elaboradas desde ciertos presupuestos filosóficos muestran que, al rechazarse o pasar totalmente de moda las filosofías que las iluminaron, resulte “difícil, si no imposible, leer esas obras hoy con algún provecho”. 14 En general, para comprender el pensamiento de un científico, sería mucho más importante estar al corriente de la filosofía general y la filosofía de la ciencia de su época que estar familiarizado con la filosofía de la ciencia contemporánea. 15 Por contra, en su comentario a este artículo de Cohen, Peter Achinstein indicaba que difícilmente puede un historiador averiguar qué tipo de razonamientos hicieron los científicos del pasado si no tiene unas nociones claras, proporcionadas básicamente por la filosofía de la ciencia, de cuáles son los tipos posibles de razonamiento científico y lo ignora casi todo sobre la validez y aplicabilidad de cada uno. 16 Posiblemente la contribución más relevante a la literatura sobre las relaciones
entre la Historia y la Filosofía de la Ciencia fue el artículo de Imre Lakatos titulado “La Historia de la Ciencia y sus reconstrucciones racionales”, presentado originalmente en
un simposio en el marco de la reunión bianual de 1970 de la Philosophy of Science Assocation.17 En este artículo Lakatos mantiene dos tesis principales. La primera, inspirada posiblemente en la obra de Agassi comentada más arriba, es que cada doctrina metodológica (Lakatos examina, como Agassi, el inductivismo, el convencionalismo y el falsacionismo, además de su propia metodología de los programas de investigación)
puede entenderse como un “programa de investigación historiográfico” que intenta explicar los “juicios de valor” emitidos por los científicos en el pasado sobre las
diversas teorías, hipótesis o programas de investigación que han sido propuestos a lo largo de la historia, en particular, los juicios sobre su aceptación o rechazo. La segunda tesis lakatosiana afirma que puede utilizarse la historia real de la ciencia para
determinar cuál de aquellas doctrinas metodológicas está mejor “corroborada”. Así,
igual que en la investigación científica las teorías se usan para explicar los hechos y los hechos para contrastar las teorías, Lakatos propone que la Filosofía de la Ciencia
proporcione teorías para explicar los hechos “descubiertos” por la Historia de la Ciencia, y ésta sirva, por tanto, como juez para decidir qué teoría filosófica sobre la
14
Suppe (1979), p. 412. La cita corresponde a la “Discusión” que aparece tras los artículos de Cohen y Achinstein entre varios asistentes al simposio del que el libro procede. 15 Ibid ., p. 413. 16 Achinstein (1979). 17 El lector castellano tiene (por lo que sé) hasta tres traducciones diferentes de este artículo: una en un libro homónimo publicado por Tecnos en 1974, y que contiene además las otras contribuciones al simposio y las respuestas de Lakatos; otra en la traducción del volumen de sus Philosophical Papers con el título La metodología de los programas de investigación científica , y otra en el volumen coeditado por Lakatos y Musgrave con el título La crítica y el desarrollo del conocimiento científico.
18
ciencia es la más apropiada. 18 La archiconocida frase con la que Lakatos comienza su
artículo, parafraseando a Kant, resume lo esencial de ambas tesis: “La Filosofía de la Ciencia sin la Historia de la Ciencia es vacía. La Historia de la Ciencia sin la Filosofía
de la Ciencia es ciega”. La primera tesis condujo a Lakatos a efectuar una distinción entre “historia interna” e “historia externa” diferente de la distinción habitual. Según el uso más corriente de estas dos expresiones, la historia interna de una disciplina es la historia de sus contenidos “puramente científicos” (la evolución de las teorías e hipótesis, el desarrollo de las pruebas experimentales, etcétera), mientras que la historia externa consistiría en la investigación de la influencia que sobre esa disciplina hayan podido tener los diversos factores “extracientíficos” (hechos económicos, creencias religiosas,
ideologías, decisiones políticas, etcétera). En cambio, Lakatos llama “historia interna”
al conjunto de decisiones sobre la aceptación y el rechazo de teorías que, de acuerdo con una doctrina metodológica en particular , se muestran como “racionales” o
“justificables”, mientras que la “historia externa” serían todas las demás decisiones que
los científicos reales tomaron. Esto quiere decir que el contenido de los conceptos de
“historia interna” y “externa” sería dependiente de cada metodología. Por su parte, el
criterio meta-metodológico defendido por Lakatos en la segunda tesis citada es el de que es preferible aquella metodología que consiga incluir una parte mayor de la historia
real como “historia interna”, es decir, como decisiones o juicios de valor racionales.
Sobra decir que es su propia metodología la que, según él, sale mejor parada de esta contrastación con la historia. 19 Las tesis de Lakatos recibieron numerosas críticas. Por ejemplo, Kuhn señaló que si un filósofo defiende una cierta metodología de acuerdo con la cual una parte de la historia de la ciencia es irracional, sólo usará la parte restante (su propia visión de la “historia interna”) como fuente de datos relev antes para juzgar su propia metodología;
es decir, “el filósofo sólo aprenderá de la historia, por lo que al método científico se refiere, lo que previamente haya introducido en ella” 20. Richard Hall criticó la identificación lakatosiana entre, por un lado, el “código de honestidad científico”
realmente existente en una comunidad, o el propuesto por una metodología, y, por otro lado, los criterios de racionalidad, ya que en muchas ocasiones puede ser racional ser deshonesto;21 aunque pueda ser cierto que muchas metodologías no establecen una clara distinción entre ambas cosas, no ocurriría así con el inductivismo, al menos en las contribuciones de Carnap y Hempel, afirma Hall, pues éstos distinguen claramente entre las estrategias que puede utilizar un científico para aumentar el grado de confirmación de una teoría (por ejemplo), maximizando una función de utilidad epistémica, y las que puede seguir para alcanzar sus objetivos personales, maximizando su función de utilidad individual. Cuando Lakatos utiliza el adjetivo “racional” se está refiriendo, aparentemente, sólo al primero de estos sentidos. Además, se entiendan en cualquiera de los dos sentidos, las recomendaciones de una metodología serán normalmente hipotéticas más que categóricas, es decir, tendrán la forma “en tales circunstancias, será
racional hacer tal cosa”, de modo que la aplicación de estas normas a casos concretos de
la historia de la ciencia será sumamente difícil, porque el historiador y el filósofo 18
No puedo ni debo ocultar que esta estrategia metodológica es la que inspira el modelo sobre la verosimilitud que presento más abajo, en el capítulo IV. 19 Dentro de la órbita del falsacionismo, esta tesis se desarrolla en Andersson (1994). 20 Kuhn (1974), p. 87. 21 Hall (1974), pp. 109 y ss.
19
actuales tendrán pocas oportunidades de averiguar si en la situación en la que se encontraban los científicos del pasado se daban exactamente dichas circunstancias. Pero la crítica más severa de Hall a Lakatos es que, según su segunda tesis, una metodología que considerase racionales cualesquiera decisiones científicas, incluso las que de acuerdo con el sentido común y con el consenso mayoritario de los científicos son decisiones irracionales, esa metodología, si hiciéramos caso a Lakatos, sería la mejor
“corroborada”, pues según ella toda la historia de la ciencia sería “historia interna”, y no quedaría nada que fuera “historia externa”.
El filósofo polaco Stefan Amsterdamski 22 también ha criticado las tesis de Lakatos, basándose fundamentalmente en la incapacidad de la Metodología para proporcionar criterios realmente practicables de selección de teorías. Por una parte, los criterios de selección en los que efectivamente se basan los científicos están
determinados por factores extralógicos, que dependen de la “imagen ideal de ciencia”
vigente en cada época y en cada contexto, y, en último término, de los factores sociales que rodean el desarrollo de la ciencia. Además, el problema de la selección de teorías, en la ciencia contemporánea, se refiere sobre todo al reparto de los recursos económicos que van a destinarse al desarrollo de cada teoría, y esa decisión suele ser tomada por instituciones colegiadas que necesitan algún criterio de racionalidad, difícil de encontrar en las teorías de los filósofos acerca del método científico. Así pues, los criterios de selección han de ser básicamente de naturaleza social. Esto no conduce a Amsterdamski, empero, a una posición radicalmente sociologista ni relativista, pues concede que el ser humano es capaz de perseguir desinteresadamente la verdad, así como de argumentar y tomar decisiones racionalmente, pero el concepto de racionalidad subyacente a esta visión estaría muy alejado de los principios considerados tradicionalmente por la Metodología de la Ciencia. Pero, sin duda, las críticas más severas al artículo de Lakatos procedieron del bando de los historiadores de la ciencia. 23 Éstos, por una parte, se resistieron a la idea de que la Filosofía debiera ser la única y exclusiva fuente de explicaciones que pudieran usarse en la investigación histórica, es decir, rechazaron la tesis de que, subyaciendo a cada enfoque historiográfico, existiera una filosofía de la ciencia claramente articulada
(o articulable) como “núcleo duro” del propio enfoque (por usar los términos de
Lakatos). En particular, se señalaba el hecho de que la mayor parte de los historiadores
de la ciencia resultaban inclasificables bajo los “programas de investigación historiográfica” esquematizados por Lakatos, y en general, se criticó como carente de
fundamento la idea lakatosiana de que un mismo autor debería defender necesariamente
la misma “metodología” en el plano filosófico que “metametodología” en el plano
historiográfico.24 Por otra parte, los historiadores están más interesados en descubrir los procesos de investigación tal y como tuvieron lugar, que por ofrecer una
“reconstrucción racional” de los mismos apta para el consumo de los filósofos. Por
ejemplo, al historiador le interesa la cuestión de cómo llega a emerger un programa de investigación con su “núcleo”, y no solamente lo que le pas a al programa una vez que ha sido constituído, que es para lo que el enfoque de Lakatos ofrece alguna indicación. Todo esto significa que la Historia de la Ciencia es autónoma con respecto a la Filosofía 22
Amsterdamski (1992). P. ej., McMullin (1982), Rossi (1990). 24 P. ej., según McMullin (op. cit ., p. 207), dos historiadores o filósofos con “programas de investi gación 23
historiográficos” muy distintos podrían, no obstante, considerar recomendables casi exactamente los mismos métodos científicos para los investigadores cuya obra estén estudiando.
20
de la Ciencia, según la mayoría de los historiadores, pues éstos no necesitan que la teoría del conocimiento o la metodología abstracta les dicten cuáles son los problemas más interesantes que deben resolver, ni cuáles son las líneas que deben seguir para solucionarlos. Otro artículo muy conocido sobre las relaciones entre la Historia de la Ciencia y la Filosofía de la Ciencia, y que defiende una postura muy diferente de la de Lakatos y de la de sus críticos historiadores, es el que Ronald Giere publicó en 1973 con el curioso título de “Historia y Filosofía de la Ciencia: ¿relación íntima o matrimonio de conveniencia?”25. La tesis principal de Giere es que, aceptando que la Filosofía de la Ciencia no puede desentenderse de la ciencia tal como realmente se practica, ni de la forma y el contenido reales de las teorías científicas, el estudio sistemático de la historia de la ciencia es bastante irrelevante para resolver los problemas específicos de la Filosofía de la Ciencia. En especial, estos problemas se refieren a la evaluación o validación de los conocimientos y métodos científicos, y para ello es razonable utilizar como punto de referencia las teorías más recientes, que son las que estarán mejor validadas.26 Extrapolando la tesis de Giere a una o dos décadas después, cuando el tema del realismo (más que el de la racionalidad) se convirtió en el centro de atención de una gran parte de los filósofos de la ciencia, podríamos indicar, en la misma línea que este autor, que para aclarar la cuestión de si debe aceptarse o no la existencia independiente de las entidades o estructuras postuladas por las teorías científicas, lo más interesante con diferencia es preguntarnos si existen o no los quarks, los agujeros negros o los genes, más que los epiciclos, el flogisto o el éter, y por ello, estudiar la historia de aquellos episodios de la investigación científica en los que se discutió la existencia de estas últimas entidades resultaría, cuando menos, filosóficamente poco atractivo. Así pues, el filósofo de la ciencia está obligado a conocer de cerca la ciencia, pero no necesariamente la historia de la ciencia. Una tesis similar defendía varios años después Daniel Garber, indicando que la principal función de la metodología de la ciencia es la de promover las mejores prácticas científicas posibles, aunque este autor reconoce que
la historia puede ofrecernos ejemplos de “buen pensamiento científico” que podemos
tener en cuenta al desarrollar las teorías metodológicas. 27 Entre algunas de las respuestas que recibió el polémico artículo de Giere, destacaré las de Ernan McMullin y Richard Burian. 28 Según el primero de estos autores, la ciencia real no es sólo un instrumento que le sirve al metodólogo o epistemólogo para resolver algunos de sus problemas filosóficos, sino que también es el objeto del que se ocupa la Filosofía de la Ciencia. Cuando se contrastan históricamente las afirmaciones de los filósofos sobre la ciencia, muchas de ellas resultan ser simple y llanamente falsas; con el fin de evitar estos errores, sería necesario conocer con bastante detalle la historia de la ciencia. Además, McMullin señalaba, desde algunos antes, que la historia de la ciencia es en cierto sentido más relevante para el filósofo que la ciencia contemporánea porque la primera proporciona casos de estudio completos en su dimensión temporal. 29 Burian, por su parte, en una vena mucho más kuhniana, afirma que las propias teorías científicas son entidades históricas, en el sentido de que no pueden ser consideradas 25
Título en el que, obviamente, se basa el de este capítulo. Una tesis semejante había defendido Hanson (1971). 27 Garber (1986). Por su parte, González Recio (1999) defiende una tesis paralela a la de Giere: la ciencia moderna no debe guiar el estudio de la historia de la ciencia. 28 McMullin (1975) y Burian (1977). 29 McMullin (1970), p. 29. 26
21
como estructuras inmutables, sino que su propia identificación y evaluación es un proceso que sucede a lo largo del tiempo, en el marco de un contexto histórico determinado, en el que se dan muchos factores subyacentes que simplemente
desaparecen al “reconstruir racionalmente” las teorías. Así, cuando un filósofo ofrece y
discute alguna reconstrucción de una teoría del pasado, debe estudiar si está teniendo en cuenta suficientemente la evolución histórica de la teoría y el contexto en el que fue desarrollada y evaluada. Pero el autor en cuya obra ha sido más decisiva la cuestión de las relaciones entre la Historia y la Filosofía de la Ciencia ha sido, seguramente, Larry Laudan, que es uno de los filósofos de la ciencia de primera línea que más se ha involucrado en la investigación histórica. En particular, su libro El progreso y sus problemas 30 constituyó
una síntesis muy notable de los enfoques “historicistas” derivados de la obra de Kuhn y los enfoques “racionalistas” al estilo de Popper y Lakatos. En esta obra, Laudan sostiene
que, si la tarea del filósofo es la de dilucidar la racionalidad de la ciencia (y esta última noción, a su vez, la reduce Laudan a la cuestión de si una determinada tradición de investigación progresa o no), entonces el filósofo debe obtener de la historia de la ciencia, en primer lugar, un conjunto de “intuiciones preanalí ticas sobre la racionalidad
científica” (es decir, ejemplos paradigmáticos de decisiones sobre la aceptación o el
rechazo de teorías, que se tomen como prácticamente fuera de duda para cualquier persona científicamente educada), intuiciones con las que contrastar la metodología preferida por cada filósofo, y, en segundo lugar, un registro lo más detallado posible de casos históricos de evolución de tradiciones de investigación, para determinar cómo pueden ser aplicados los criterios de esa metodología a dichos procesos, y esto, a su vez, con el fin de juzgar si aquellas tradiciones de investigación han sido más o menos progresivas. La Historia de la Ciencia sería, así, esencial para la Filosofía de la Ciencia, pero sin constituir por ello un tipo de investigación subordinado conceptualmente a ésta, como proponía Lakatos. En trabajos posteriores, Laudan ha ido más lejos que lo que las tesis que acabamos de ver implican a propósito de las relaciones entre la Historia y la Filosofía de la Ciencia, al afirmar que la propia Historia de la Ciencia es la fuente de la que la Filosofía de la Ciencia extrae su carácter normativo, o más bien, sus posibles prescripciones concretas. Esto es, curiosamente, una consecuencia del enfoque “naturalista” adoptado por Laudan tras la publicación de El progreso y sus problemas, y desarrollado en particular en el libro Ciencia y valores.31 Según este enfoque, no existe ninguna discontinuidad entre la ciencia y la filosofía, en el sentido de que la filosofía debe emplear, en general, los mismos métodos de investigación que las ciencias empíricas; esto implica que no es posible justificar las intuiciones normativas sobre el progreso y la racionalidad en una concepción apriorística de la ciencia, por muy ilustradas que estén dichas intuiciones por los casos históricos. Ahora bien, mientras que otros autores sacarían a partir de aquí la conclusión de que el único estudio válido de la ciencia es el de tipo psicologista o sociologista, Laudan añade que esa estrategia también eliminaría el carácter prescriptivo de la metaciencia, pues se limitaría a mostrar cuáles han sido los juicios de valor mantenidos por los científicos a lo largo de la historia. En cambio, opina Laudan, si la metodología ha de seguir manteniendo un espíritu normativo, debe utilizar la historia de un modo distinto. Las normas 30
Laudan (1986); ed. orig. de 1977. Laudan (1984).
31
22
metodológicas han de entenderse como imperativos hipotéticos, es decir, como enunciados que establecen una cierta conexión entre los valores o los fines que los científicos pretenden conseguir y los med ios (“métodos”) que son precisos o convenientes para alcanzarlos de manera satisfactoria. Pues bien, los dos elementos presentes en estas normas deben ser extraidos de la Historia de la Ciencia, pues sólo ella nos puede decir qué fines han perseguido de hecho los científicos y cuál ha sido el grado de eficacia de cada regla metodológica. La importancia de la Historia de la Ciencia va todavía más allá, pues no sólo sucede que los valores científicos justifiquen las normas metodológicas, sino que las propias teorías científicas que han sido validadas con ayuda de aquellas normas, al indicarnos cómo es el mundo, qué cosas son posibles y cuáles no, etcétera, también tienen algo que decir acerca de qué fines son alcanzables, qué valores son compatibles entre sí, y qué métodos son más dignos de confianza. Las normas de la metodología sólo son justificables, pues, investigando la historia de las teorías científicas que las fundamentan y que, a su vez, son fundamentadas por ellas. Es innegable que todo esto implica un alto grado de circularidad, pero la conclusión de Laudan es, precisamente, que por ser así la relación entre valores científicos, principos metodológicos y teorías, no podemos esperar que la Filosofía de la Ciencia se base en fundamentos con validez absoluta, sino que sus conclusiones serán siempre tan provisionales como las de la propia ciencia, y tendrán, como mucho, el grado de aceptabilidad que tengan las teorías científicas.
3. ¿HISTORIA CIEGA? ¿FILOSOFÍA VACÍA? ACERCA DEL PROBLEMA DE UNA METODOLOGÍA NORMATIVA. En este último apartado ofreceré un esbozo de mi propia visión sobre las relaciones entre la Historia y la Filosofía de la Ciencia, si bien el asunto en el que mi interés va a centrarse más específicamente, siguiendo los enfoques de Lakatos y, sobre todo, Laudan, será el del estatus y la justificación de las normas metodológicas (el
dichoso “protocolo científico”), ya que es este problema el que constituye, desde mi
punto de vista, el principal foco de discordia entre quienes defienden las diversas posiciones que he ido exponiendo en el apartado anterior.
3.1. ¿Deben los filósofos de la ciencia ser buenos historiadores (y viceversa)? Generalmente, tras la cuestión de si la Historia y la Filosofía de la Ciencia eran disciplinas independientes o se necesitaban la una a la otra se solían esconder varias disputas de naturaleza puramente académica, como, por ejemplo, la de si la Historia de la Ciencia debía englobarse en los departamentos de Lógica y Filosofía de la Ciencia o constituir un departamento aparte (posiblemente en las propias facultades de ciencias), o la de si el historiador de la ciencia como historiador debía defender y emplear una cierta postura filosófica en su trabajo, y el filósofo ciencia como filósofo debía embarcarse en investigaciones historiográficas. Con respecto a la primera cuestión, tradicionalmente la Historia de la Ciencia ha venido siendo una disciplina muy dispersa en su distribución académica, en el sentido de que algunos de sus practicantes se han adscrito a departamentos de Lógica y Filosofía de la Ciencia, otros han ocupado un lugar en las facultades de aquellas disciplinas cuya historia estudian, e incluso se han constituido algunos centros de investigación autónomos para el estudio la historia de la ciencia. Dos décadas después de los momentos más ácidos de la polémica que estoy exponiendo, no 23
parece que esta situación tenga nada de especialmente malo o especialmente bueno, pues, con independencia de su adscripción académica, los historiadores de la ciencia parece que pueden hacer un trabajo de buena calidad. Resulta curioso, en cambio, que no se haya cuestionado tan a menudo la mayoritaria adscripción de los filósofos de la ciencia a los departamentos de Lógica, al menos dentro de las facultades de Filosofía,
cuando, tras la pretendida “revolución historicista”, si algo quedó meridianamente claro es que la metodología no es una simple “lógica aplicada”. De todas formas, esta
situación tampoco parece tener consecuencias particularmente negativas. Con respecto a la segunda cuestión (la de si historiadores y filósofos deben utilizar en su trabajo las herramientas de los otros), mi propia postura se aproxima más a las de Paolo Rossi y Ronald Giere que a ninguna de las demás que han sido expuestas. En concreto, pienso que el filósofo de la ciencia necesita tener un conocimiento profundo (y esto requerirá generalmente que sea “de primera mano”) sobre algunas ramas de la ciencia, y un conocimiento amplio de algunas otras ramas, aunque no necesariamente tan profundo (y, por tanto, puede basarse para ello en “fuentes secundarias fiables”). Los tiempos en los que el filósofo debía ser el integrador de todas las ramas del conocimiento han quedado, si es que alguna vez existieron, definitivamente atrás, sobre todo tras la explosión de las disciplinas científicas en el último siglo y medio. Pero aunque es conveniente que una buena parte de los conocimientos que el filósofo tenga sobre la ciencia lo sean sobre la historia de la ciencia (por lo menos para evitar cometer serios anacronismos y otros errores graves al referise a la ciencia del pasado), no considero imprescindible que su fuente básica de contacto con la ciencia real sea la Historia de la Ciencia, sino que me parece más conveniente mantener una relación directa con las prácticas científicas de alguna disciplina científica contemporánea. Al fin y al cabo, el historiador de la ciencia no puede experimentar de forma verosímil el sentido de participante en las actividades que él investiga (y mucho menos si su actividad como historiador no es la principal), al menos no tanto como quien se involucra de forma efectiva en las discusiones de una disciplina concreta. Esto no significa, ni mucho menos, que el filósofo pueda permitirse ignorar la historia de la ciencia (justificaré precisamente lo contrario en la sección siguiente), pero sí afirmo que me parecen más relevantes sus contactos con la práctica de la ciencia contemporánea que su dedicación a la investigación historiográfica. Algunas veces se ha tendido a interpretar la tesis de Giere como si afirmase que la Historia de la Ciencia es menos relevante para el filósofo que la ciencia contemporánea
porque ésta es más “científica” que aquélla, es decir, porque las teorías modernas están
mejor establecidas que las antiguas. Este argumento (que creo que no es atribuible al propio Giere) puede tener alguna validez cuando nos dedicamos a problemas de filosofía de una ciencia específica: p. ej., si reflexionamos sobre la realidad última de la materia será más útil conocer la electrodinámica cuántica que la teoría atómica de Dalton. Pero si estamos discutiendo algún problema de filosofía general de la ciencia,
en ese caso nos preguntaremos si los “buenos” científicos actúan de tal o de cual modo, y muchos científicos del pasado fueron con seguridad tan “buenos” como nuestros
contemporáneos. Por otra parte, pienso que el trabajo de los buenos historiadores de la ciencia no se deja representar de forma mínimamente fiel en la caricatura lakatosiana de alguien que intenta aplicar a los datos históricos los principios de racionalidad científica elaborados desde una cierta epistemología, sobre todo si ésta es apriorística. Es verdad que muchos historiadores han pretendido que sus descubrimientos servían para apoyar 24
algunas tesis filosóficas, pero creo que, por lo general, esta clase de pretensiones ha tendido más a oscurecer y obstaculizar la investigación historiográfica que a iluminarla. En concreto, pienso que está totalmente fuera de lugar el requerimiento de Lakatos de que los historiadores de la ciencia tendrían que limitarse a contrastar la evolución real
de las teorías científicas con su evolución tal como “debería” haber ocurrido según alguna doctrina filosófica, esto es, con las “reconstrucciones racionales” de dicha
evolución. Más bien me parece que el historiador tiene ya bastante trabajo con establecer de forma suficientemente verosímil cuál fue la evolución real de la ciencia, y puede dejar a los filósofos interpretar sus resultados como deseen. En particular, más que tomar partido por una metodología determinada y “reconstruir” con ella las decisiones de los científicos que estudia, el historiador tendría que averiguar qué principios metodológicos aceptaban o practicaban efectivamente los científicos del pasado, y explicar por qué lo hacían así y qué consecuencias tenía esto sobre sus otras decisiones. Si ocurriese que unos científicos hubieran seguido (o creído seguir) un tipo de metodología y otros hubieran hecho lo propio con una metodología distinta, esto sería algo que de ninguna forma se podría averiguar si los historiadores se limitaran a seguir las recomendaciones de Lakatos, pues este autor plantea el uso contrastador la historia en el sentido de que dicha contrastación debería darnos como resultado alguna tesis que afirmase que una sola metodología (y Lakatos apuesta obviamente por la suya en particular) es la que mejor consigue explicar el desarrollo de la ciencia. Naturalmente, en la medida en la que las investigaciones científicas del pasado hayan estado influidas por cuestiones o polémicas de tipo metafísico, epistemológico o metodológico, será absolutamente imprescindible para el historiador que las estudia tener un conocimiento suficiente sobre tales problemas. Pero esta necesidad debe ser bien entendida, y en particular hay que advertir dos cosas. La primera consiste en darse cuenta de que esto no implica que el historiador deba tener una opinión formada sobre cuál puede ser la solución más aceptable a esas cuestiones filosóficas, pues es posible que el mero hecho de querer defenderla le lleve a ofrecer una visión sesgada de aquellos acontecimientos históricos; más bien lo importante es que el historiador sepa percibir claramente todos los argumentos y las posibles falacias que pueden cometerse al defender cada posición. Lo segundo que hay que advertir es que, de forma análoga a como el filósofo sacará en general más ventaja de conocer a fondo la ciencia contemporánea que la ciencia pasada, así para el historiador será generalmente más útil dominar las disputas filosóficas del pasado que las contemporáneas, pues a él le interesará sobre todo conocer el estado de la discusión sobre ese tipo de problemas en la época sobre la cual él está investigando. Todo esto no quiere decir que la Filosofía contemporánea de la Ciencia sea del todo inútil para la Historia de la Ciencia pues, como ha afirmado por ejemplo el historiador John Murdoch, muchas veces el intento de explicar las teorías científicas pasadas a la luz de conceptos científicos y filosóficos modernos, aunque generalmente nos conduzca a la conclusión de que los segundos no pueden aplicarse a las primeras, sí que nos sirven para descubrir y entender aspectos de aquellas teorías que seguramente no habríamos llegado a descubrir si no las hubiéramos contemplado desde este punto de vista.32 Este autor afirma incluso que la aplicación de tesis filosóficas contemporáneas a la ciencia del pasado es menos perniciosa que la aplicación de conceptos científicos modernos, pues aquéllas suelen ser aplicadas de forma más crítica. 32
Murdoch (1981).
25
De todas formas, no creo que la sugerencia de Murdoch deba entenderse como una estrategia que los historiadores deberían seguir regularmente, sino sólo como un punto de contacto más entre la Historia y la Filosofía de la Ciencia. En resumen, y contestando a la pregunta con la que encabezaba este subapartado: es cierto que el historiador puede beneficiarse en cierta medida de la Filosofía de la Ciencia, y que el filósofo puede sacar aún más partido de la Historia, pero esto no implica que cada uno de ellos deba dedicarse a las actividades habituales del otro. Es decir, merece la pena que, por ejemplo, el filósofo tenga conocimientos abundantes sobre la historia de la ciencia (es, incluso, imprescindible), pero no creo que sea necesario en ningún modo que haya obtenido dichos conocimientos mediante una investigación historiográfica realizada por él mismo; basta con que se aplique a estudiar (y tal vez discutir) buenos libros y artículos de Historia de la Ciencia, los cuales, al fin y al cabo, siempre serán mejores si los ha elaborado un historiador especialista que si los
ha escrito el propio filósofo “en sus ratos libres”. Y lo mismo cabe decir del historiador.
3.2. Las normas metodológicas y el problema de la racionalidad. De todas formas, cuando el tema de discusión se va desplazando hacia la pregunta de si las actividades del historiador y del filósofo de la ciencia dependen mutuamente entre sí, o hacia la pregunta de si ambas actividades deben entremezclarse, pienso que vamos desenfocando el asunto más importante de la discusión, el cual, desde mi punto de vista, no es otro que el siguiente: si pretendemos que la metodología de la ciencia tenga un carácter eminentemente normativo, indicando qué pautas de acción de los científicos son racionales, o qué desarrollos teóricos son progresivos, entonces resulta inevitable contrastar con las prácticas científicas reales los criterios de racionalidad y progreso discutidos por los filósofos. Defender una teoría sobre la racionalidad científica que nos llevara a la conclusión de que la inmensa mayoría de los investigadores han sido irracionales casi todo el tiempo, estaría más cerca del fundamentalismo que de la propia filosofía. Por tanto, cada filósofo deberá utilizar “datos” obtenidos de la ciencia real para defender s us propias teorías y criticar las de sus
oponentes, pero es ya menos relevante la cuestión de si esos “datos” los obtiene a partir
de la ciencia pasada o de la ciencia actual. Ahora bien, puesto que la mayor parte de los estudios históricos no están elaborados como intentos de responder a las preguntas planteadas por las metodologías contemporáneas en disputa, puede ser difícil encontrar en las obras de los historiadores
de la ciencia el tipo de “datos” que los filósofos necesitan, pero eso no obliga de
ninguna manera a los historiadores a cambiar el tipo de trabajos que llevan a cabo, y sólo ofrecerán ese tipo de colaboración si les resulta interesante. En particular, los historiadores estarían más dispuestos a responder con sus trabajos a las preguntas formuladas por los metodólogos si percibieran que estas preguntas les podrían servir para desarrollar nuevos enfoques historiográficos interesantes desde su propio punto de vista, como en la sugerencia de Murdoch que acabamos de ver (por ejemplo, si una historia de la termodinámica clásica elaborada con la intención de averiguar si respondía o no a la metodología lakatosiana o sneediana fuese a aportar alguna novedad valiosa a nuestro conocimiento histórico de la ciencia de aquella época). En la medida en la que las teorías filosóficas no sean capaces de aportar perspectivas iluminadoras para los historiadores, no es de esperar que éstos las adopten como hipótesis de trabajo. 26
El filósofo puede responder que, dado que el historiador no sólo quiere describir
el pasado, sino también “explicarlo” (en el sentido de hacerlo inteligible), debe también tener alguna teoría, aunque ésta sea tan sólo implícita, que le permita afirmar que entre unos hechos y otros se dan unas relaciones tales que los primeros explican los segundos.
Esto es lo que quería indicar Lakatos con la segunda parte de su célebre frase (“la Historia de la Ciencia sin la Filosofía de la Ciencia es ciega”). Parecida opinión
expresaba Agazzi, aunque previniendo a la vez contra el uso partidista de la historia por parte del filósofo y de la metodología por parte del historiador. Así, afirma que
“también debemos decir que la historia de la ciencia apoyada por una filosofía de la
ciencia dogmática y pretenciosa se arriesga a ser doblemente ciega, mientras que una filosofía de la ciencia apoyada por una historia partidista de la ciencia corre el riesgo de ser a la vez ciega y vacía”. 33 Pero el historiador, a su vez, puede muy bien dudar de que el tipo de “teorías” que él necesita vayan a ser precisamente las que le ofrecen los filósofos. Por ejemplo, ¿por qué no dar cuenta de los hechos históricos basándonos en
teorías psicológicas o sociológicas, en lugar de teorías filosóficas sobre la “racionalidad científica”? De forma aún más específica, ¿por qué debería utilizar el historiador teorías
normativas, que afirman lo que los científicos deben hacer, en lugar de teorías positivas, que se limitan a exponer cómo influyen unos factores sobre otros? Al fin y al cabo, si no pensamos en la Historia de la Ciencia, sino en cualquier otra rama de la Historia, un
relato basado en concepciones previas acerca del bien y el mal tenderá a parecer “mera ideología” (al menos para quienes no compartan esas preconcepciones). ¿Por qué habría
de suceder de otra manera en el caso de la Historia de la Ciencia? En este sentido, una historia de la Revolución Científica elaborada dogmáticamente desde los
“presupuestos” del falsacionismo no creo que fuera a resultar menos subjetiva e
inaceptable que una historia de la Conquista de América basada en el supuesto de una congénita superioridad moral e intelectual de los europeos sobre los indígenas americanos. Teniendo esto en cuenta, no es de extrañar que entre los historiadores de la ciencia hayan gozado de más predicamento algunas tesis sociologistas (empezando por las de Kuhn) que las teorías metodológicas más en boga entre los filósofos de la ciencia. La raíz de este problema (“problema” si acaso para los filósofos, por supuesto, no para la inmensa mayoría de los historiadores y los sociólogos de la ciencia) se encuentra, desde mi punto de vista, en una cierta confusión acerca de la propia idea de
una “metodología normativa”. Larry Laudan y Ronald Giere han ayudado
considerablemente a deshacer esta confusión al mostrar que las normas metodológicas, usando los famosos términos kantianos, tienen la estructura de los imperativos hipotéticos, más que la de los categóricos (cf. más abajo, cap. III). 34 En tal sentido, dichas normas no le dicen al científico lo que debe hacer, sin más, sino lo que resulta racional hacer si pretende alcanzar ciertos fines. Esto implica que, aunque dos científicos tomen decisiones diferentes en un contexto similar, tal cosa no debe llevarnos necesariamente a concluir que al menos uno de ellos tomó una decisión irracional, pues es posible que el motivo de la discrepancia haya que buscarlo en los diferentes objetivos que ambos persiguiesen, o bien en el hecho de que cada científico poseyera información diferente sobre la situación, o no dispusieran ambos de los mismos recursos. Desde este punto de vista, podemos afirmar lo siguiente (en contra de la tesis de Lakatos): la aplicación a la historia de las normas metodológicas, como 33
Agazzi (1981), p. 248. Para el caso de Giere, cf. su (1999), p. 72. Para Laudan, cf. apartado 2, final.
34
27
explicaciones de la conducta de los científicos, no tiene por qué llevarnos a la conclusión de que algunas decisiones científicas han sido racionales (la “historia interna” de la ciencia) y otras irracionales (la “historia externa”), sino que en principio podemos suponer que todas las decisiones de los científicos han sido “racionales” , en el sentido de haber sido, o haber pretendido ser, instrumentalmente eficaces para satisfacer sus aspiraciones, al menos desde la situación en la que cada decisión fue tomada, y dada la información que cada científico tenía en ese momento. Esto no es más que una aplicación del principio de racionalidad a la Historia y la Filosofía de la Ciencia, tal como ese principio se utiliza en algunas ciencias sociales, en especial en la economía, y, para ser más precisos, en la teoría económica neoclásica. Dicho principio afirma que todo el mundo hace siempre lo que cree que es mejor para él, es decir, aquello que “maximiza su utilidad”, dentro de sus posibilidades .35 Expresado de esta manera, se trata de un principio totalmente vacío, pues, dada cualquier conducta, siempre pod emos imaginar una “función de utilidad” tal que esa conducta sea la que permite maximizarla. Pero esto no hace que el principio sea inútil metodológicamente; el mismo problema existe, por ejemplo, con la segunda ley de la mecánica: dado cualquier tipo de movimiento, siempre podemos imaginar alguna fuerza que haga moverse a los objetos precisamente de esa manera. Lo que necesitamos hacer para convertir el principio de racionalidad en una tesis verdaderamente explicativa es intentar reducir el conjunto de objetivos de los científicos lo máximo posible, preferentemente de tal manera que todos los científicos persigan básicamente los mismos fines, y de tal modo que la conducta de cada uno se diferencie sólo porque sus opciones, y los costes asociados a cada una, sean distintos en cada caso. Es decir, la tarea del filósofo de la ciencia, con respecto al problema de las normas científicas, consistiría sobre todo responder a la siguiente cuestión: ¿qué objetivos pueden tener los científicos para que sea racional aceptar las normas que aceptan, dadas las situaciones a las que se enfrentan? Una buena respuesta a esta pregunta sería aquella que redujera la cantidad y la variedad de dichos objetivos lo máximo posible, y que fuera consistente, por otro lado, con las consecuencias que pudiéramos extraer de otros tipos de testimonios (por ejemplo, sus declaraciones directas) sobre los fines o valores adoptados por los científicos. En los capítulos V y VI ofreceré una respuesta parcial a esta cuestión, pero ahora quiero volver al tema de la normatividad. 36 Como hemos visto, las normas metodológicas tendrían en este enfoque el carácter de imperativos hipotéticos, y esto 35
La conducta “altruista” puede explicarse simplemente sup oniendo que a algunas personas les afecta el bienestar de otras. Esta no es una respuesta que carezca de problemas serios, empero, aunque me abstendré de discutirlos ahora. Por otro lado, la cuestión sobre el carácter positivo o normativo de la metodología es completamente paralela a la misma discusión a propósito de la teoría económica. Por ejemplo, la teoría neoclásica sobre la producción, ¿describe cómo se toman las decisiones de producción en la empresa, o estipula cómo deberían tomarse? Los economistas resuelven este dilema aceptando los dos cuernos a la vez: la teoría dice ambas cosas, pues un empresario que no tomara las decisiones que, según la teoría, son racionales, sería expulsado del mercado por las empresas con más éxito. Igualmente podemos pensar que los científicos que no fueran capaces de hacer regularmente lo que es racional, dados sus objetivos y su propia situación, no durarían mucho en el juego de la ciencia. Esta última tesis, por supuesto, no puede ser afirmada a priori, sino que necesita una contrastación histórica (dicho sea de paso: también lo necesita la tesis de los economistas). 36
Una explicación mucho más detallada, que también tiene en cuenta expresamente los valores “no epistémicos” de los científicos (prestigio, recursos, ganan cias...) la desarrollo en Zamora Bonilla (2003a).
28
implica que resulta problemático entender la aceptación de dichas normas como si dicha aceptación fuera equiv alente a una especie de “canon de honestidad científica”. Este es un problema que siempre tiene la concepción económica del ser humano cuando intentamos utilizarla para explicar los aspectos morales de la conducta: si todo el mundo se limita a intentar maximizar su utilidad, y la conducta de cada uno sólo se diferencia por las opciones que tiene a su alcance y por algunas peculiaridades de su función de utilidad, ¿qué diferencia hay entre quienes trabajan honradamente y quienes se dedican al robo? Al fin y al cabo, ambos están “maximizando su utilidad”. Existen varias teorías que intentan resolver esta dificultad, 37 pero la solución que me parece más razonable es la siguiente:
a) en primer lugar, algunos “imperativos categóricos” se pueden defender
teóricamente si se muestra que, supuesto que los científicos sean racionales, habrá ciertas cosas que deban hacer independientemente de cuáles sean sus fines ( i. e., puesto
que un imperativo hipotético dice que “si quieres conseguir X, debes hacer Y”,
tendríamos un imperativo categórico si demostráramos la validez del principio que
afirmase “para todo X, si quieres X, debes hacer Z”);
b) en segundo lugar, lo más importante para dar carácter normativo a las reglas científicas no me parece que sea su estructura formal (si son reglas condicionales o incondicionales), sino el hecho de que el científico individual se haya comprometido con unas reglas determinadas; una regla, en este enfoque, no debe entenderse como una “regularidad” en la conducta de los científicos, sin o más bien como un principio con el
que cada científico se puede comprometer (o no); una conducta “deshonesta” no
equivaldría, por tanto, a una conducta que meramente no coincide con las normas adoptadas por la mayoría, sino en la violación de una norma a la que el propio sujeto ha decidido otorgar carácter normativo. 38
Así, cuando nos preguntamos por las “normas adoptadas por los científicos”,
nuestra cuestión es triple. Por un lado, queremos saber si algunas normas científicas tendrán necesariamente un carácter universal. Por otro lado, nos preguntamos también qué fines pueden haber sido los que les han llevado a unos científicos a aceptar exactamente las normas que han aceptado (de las cuales podemos suponer que, en general, no serán universalmente aceptadas). Finalmente, podemos preguntarnos por qué en ciertas ocasiones los sujetos deciden incumplir esas mismas normas. Con respecto a la primera cuestión, sólo se me ocurre algo que toda persona debería hacer si quisiera ser racional, e independientemente de los fines que se proponga conseguir, y es, simplemente, intentar averiguar, en la medida de lo posible, qué consecuencias puede esperar de cada una de las acciones que podría llevar a cabo. Esto podemos entenderlo como una especie de compromiso mínimo de la racionalidad con la verdad . Se trata un compromiso con la verdad porque, ceteris paribus, cualquier persona que intente obtener los mejores resultados posibles con sus decisiones, preferirá tener creencias verdaderas antes que creencias falsas acerca de la conexión entre las segundas y los primeros. Pero es un compromiso mínimo porque no implica necesariamente que el
objetivo del científico sea “descubrir (o publicar) la verdad”, sino que el requisito
considerado se refiere sólo a la conexión entre las decisiones del científico y sus resultados; por ejemplo, al científico le interesa saber que, haciendo ciertos 37
Ver Zamora Bonilla (1998) y (2004) para un panorama muy resumido. Ver Searle (2001) para una defensa de una visión parecida de la normatividad como constitutiva del propio concepto de racionalidad. 38
29
experimentos, aumentará la probabilidad de que sus trabajos sean aceptados, pero no es necesario que el mismo investigador sostenga una interpret ación “realista” de los resultados de esos experimentos. En cambio, la existencia de este compromiso mínimo sí que puede utilizarse como un argumento (entre otros) contra las epistemologías o sociologías del conocimiento radicalmente relativistas, pues, si los científicos son capaces de descubrir ciertas verdades (las relacionadas con sus prácticas sociales), y además están interesados en ello, no se entiende por qué otro tipo de verdades estarían inevitablemente más allá de su alcance y de sus intereses. Con respecto a la segunda cuestión, mi estrategia es más o menos abductiva: dadas las normas que, aparentemente, los científicos han seguido en el curso de la historia y parecen seguir en la actualidad, intentaré buscar algunos fines que cumplan las dos siguientes condiciones: a) que parezcan simples y razonables, y b) que resulte posible inferir que la obediencia de aquellas normas es una estrategia racional para alcanzar precisamente dichos fines. Por último, con respecto a la cuestión del incumplimiento de las normas, la respuesta es sencillamente la misma que podemos dar a la pregunta de por qué una persona puede aprobar el establecimiento de una ley contra el robo, y, simultáneamente, decidir robar alguna cosa de vez en cuando, siempre que el riesgo de ser descubierto sea muy bajo. Esta doble decisión no es irracional, al menos en el sentido instrumental del
término, en la medida en que ambas cosas (la aprobación “pública” de la ley y su incumplimiento “privado”) forman parte de una estrategia que maximiza la utilidad de
esa persona. Así, en el caso de los científicos, es perfectamente racional que uno de ellos acepte el compromiso de describir con rigor el resultado de sus observaciones, pongamos, y a la vez no cumpla dicho compromiso si en cierta ocasión es poco probable que sea descubierto y las ventajas que puede obtener falsificando sus datos son considerables. Como en el caso del orden social y económico, los científicos mismos verán si la frecuencia con la que se incumplen las normas ha llegado a un punto en el que se vea amenazada la consecución de los fines de cada científico, y, en tal caso, pueden plantearse si reforzar esas normas de alguna manera (estableciendo mecanismos de control más severos, por ejemplo) o dejar simplemente las cosas como están (pues el coste de aplicar estas nuevas normas puede ser tal vez demasiado alto). Concluiré este capítulo volviendo al tema de las relaciones entre la Historia y la Filosofía de la Ciencia. En el enfoque sobre las normas científicas que acabo de esbozar, y al que daré un mayor contenido en los capítulos V y VI, la Historia de la Ciencia es relevante en un sentido muy cercano al que proponía Lakatos, a saber, para
proporcionar los “hechos básicos” que la teoría sobre las normas debe explicar; pero, al
contrario que en el caso de Lakatos, nuestra teoría no debe estipular cuáles son los objetivos de los científicos, sino que más bien se limita a proponer una hipótesis sobre cuáles pueden ser esos fines, si las normas derivadas de la historia deben poder ser explicadas como elementos de una estrategia racional por parte de cada científico. Hay que reconocer, por otro lado, que Lakatos mismo es muy poco explícito cuando se trata de responder la cuestión de cuáles pueden ser los objetivos que justifican las normas metodológicas. Con respecto a la tesis de Laudan, según la cual el contenido normativo de la teoría se deriva completamente de la Historia, mi enfoque establece más bien que, aunque es cierto que la Historia nos proporciona las normas efectivamente seguidas, e incluso nos sugiere algunos fines perseguidos por los científicos, lo que la teoría añade 30
es la justificación del carácter normativo de tales normas, es decir, la demostración de que es racional seguir esas reglas si lo que se pretende es alcanzar aquellos fines. Concluiré este capítulo indicando un uso filosófico adicional que puede darse a una teoría de las normas científicas concebida según la pauta que he descrito. Dicho uso es, simplemente, el de discutir si las normas aceptadas por los científicos son eficaces para alcanzar otros fines, que cada filósofo pueda pensar que merece la pena perseguir. Por ejemplo, podríamos tal vez llegar a la conclusión de que el descubrimiento de la verdad objetiva sobre la estructura de la realidad no es un fin situado muy alto en la escala de valores de la mayor parte de los científicos, y que, consecuentemente, éstos no se preocupan mucho de adoptar aquellas normas que garanticen la consecución de aquel fin; pero de aquí no se sigue de ningún modo que las normas de hecho adoptadas carezcan en absoluto de la capacidad de proporcionarnos verdades que sean válidas desde el punto de vista de alguna teoría epistemológica. Tal vez los científicos, persiguiendo sólo sus propios intereses profesionales, sean conducidos hacia la verdad
“como guiados por una mano invisible”, por decirlo con las famosas palabras de Adam
Smith. ¡Claro, que también existe el riesgo contrario!: es posible que los científicos intenten descubrir la verdad, pero que el juego de sus intereses les lleve a adoptar normas y a seguir estrategias que dificulten de hecho el logro de tal objetivo. Y, finalmente, el filósofo también puede usar la teoría de las normas de manera puramente estipulativa: si ciertos argumentos le llevan a pensar que tales y cuales fines son los que debería perseguir la ciencia, entonces podría seguir el enfoque defendido aquí para intentar deducir cuáles tendrían que ser las normas metodológicas que maximizarían las posibilidades de alcanzar sus fines favoritos. Que los científicos de carne y hueso le hagan caso después, ya será otra cuestión.
31
Capítulo II AVENTURAS Y DESVENTURAS DE LA CONCEPCIÓN SEMÁNTICA DE LAS TEORÍAS CIENTÍFICAS.
32
1. LA IDEA DE UNA SEMÁNTICA DE LAS TEORÍAS CIENTÍFICAS. La evolución histórica de nuestra disciplina en las últimas décadas hace que, al
referirnos a la “semántica de las teorías científicas”, corramos un cierto riesgo de
confusión. La causa de este peligro se encuentra en el hecho de que una de las corrientes más pujantes de la filosofía de la ciencia actual recibe habitualmente la denominación
de “concepción semántica”, o, de forma aún más precisa, “la concepción semántica de las teorías científicas”. 39 Se podría estar tentado, pues, a suponer que los únicos temas y
enfoques relevantes a los que habría que referirse al abordar aquel asunto serían aquellos que son explícitamente tratados por los autores de la corriente conocida por ese nombre, y que también deberían adoptarse precisamente esos mismos enfoques al abordar la exposición de la semántica de la ciencia. Desde mi punto de vista, tal decisión constituiría un severo error, y este primer apartado voy a dedicarlo, precisamente, a justificar esta afirmación y a elaborar un panorama de las cuestiones que creo que no pueden dejar de ser tratadas en ningún ensayo medianamente sistemático sobre la semántica de las teorías científicas. Así, en este primer apartado ofreceré, en primer lugar, una definición tentativa del ámbito de estudio cubierto por la última expresión en cursiva, tras lo cual intentaré caracterizar los aspectos
fundamentales de la llamada “concepción semántica”, y ofreceré una comparación
crítica de ambas cosas. Sí quiero adelantar que una conclusión importante de esta comparación será la de que dicha corriente puede ser englobada en el marco de una tradición de investigación más amplia dentro de la filosofía de la ciencia, caracterizada por considerar que los aspectos más importantes de la ciencia están directamente relacionados con problemas semánticos de uno u otro tipo (y que deben ser tratados con herramientas derivadas básicamente de la semántica formal), y a la que podemos razonablemente llamar, por tanto, la “tradición semántica”, cuyos aspectos serán expuestos con mayor detalle en los apartados segundo y tercero. Finalmente, el cuarto apartado lo dedicaré a comentar el que, desde mi punto de vista, es el principal punto débil de la tradición semántica, como es el tratamiento que los autores encuadrados en ella ofrecen de los aspectos pragmáticos de la investigación científica. Antes de ofrecer una definición de la semántica de las teorías científicas, es preciso indicar que por semántica se entiende habitualmente aquella parte de la semiótica, o ciencia general de los signos, que se ocupa de las relaciones que pueden darse entre los signos de un lenguaje y aquellas cosas de las cuales dichos signos son signos.40 La semántica, así entendida, se contrapone a la sintaxis, que sería el estudio de las reglas que determinan qué combinaciones de signos son fórmulas gramaticalmente correctas de un lenguaje, y a la pragmática, que consistiría en el estudio de las relaciones existentes entre los signos y quienes los emplean. A su vez, suele distinguirse entre una semántica empírica, o descriptiva, por un lado (que sería el estudio de los significados que específicamente poseen los signos de los lenguajes realmente 39
Además de los capítulos sobre la concepción semántica en las introducciones generales a la filosofía de la ciencia indicadas en la nota 1, puede verse Ibarra y Mormann (1997), Diederich (1989), Suppe (1989), partes I y II, y Suppe (2000), para una exposición del desarrollo histórico de esta corriente. 40 V., p. ej., Hierro Pescador (1980), vol. 1, p. 41.
33
existentes, y cuyo estudio correspondería básicamente a los lingüistas y filólogos, aunque en el caso del lenguaje científico este trabajo sería llevado a cabo más bien por los historiadores de la ciencia), y una semántica formal o semántica lógica, por otro lado (que estudiaría las propiedades más genéricas que un sistema de signos debe poseer para poder tener una función de significación). 41 Esta última distinción no es completamente aceptable, porque dejaría sin clasificar la mayor parte de los trabajos sobre filosofía del lenguaje, que se ocupan indudablemente de problemas semánticos, y lo hacen desde una perspectiva abstracta y general. Así pues, podríamos distinguir entre
una “semántica empírica” y una “semántica abstracta”, y dentro de esta última hacer otra división entre la “semántica formal” y la “semántica filosófica”. Por supuesto, una tarea básica que corresponde a la “semántica abstracta” es la de elucidar los prin cipales conceptos utilizados en el análisis lógico-semántico del lenguaje. Entre estos conceptos fundamentales encontramos los de significado, referencia, verdad y validez. No me detendré ahora en ofrecer un análisis, y ni siquiera una mínima enumeración, de las abundantes teorías que se han presentado, desde casi los orígenes mismos de la filosofía, acerca de estas cuatro nociones. Definiendo estos términos de la manera más neutral que soy capaz, baste indicar ahora que por “significado” podemos entender e l
contenido conceptual de una expresión; por “referencia”, podemos entender la relación que, en un sistema lingüístico determinado, une la expresión con aquello de lo que ella
habla; por “verdad” entenderemos aquella condición que hace que cierto tipo de expresiones (las aserciones) resulten correctas; y, finalmente, por “validez”
entenderemos la condición que hace que la verdad de una aserción sea independiente de circunstancias particulares, o bien la condición que hace que la inferencia de un conjunto de aserciones a otra aserción sea “correcta”. No pretendo que estas precarias definiciones sirvan para resolver ninguna disputa de filosofía del lenguaje o de filosofía de la lógica, ni que sean aceptables para todos los especialistas en estas disciplinas, pues sólo quiero utilizarlas para presentar, más abajo, algunos de los temas de los se ocupará la semántica de las teorías científicas. Tampoco pretendo que otros conceptos semánticos distintos de los cuatro que acabo de presentar no puedan ser también importantes. Una vez delineado someramente el ámbito de la semántica, debemos pasar a la segunda parte de la expresión de marras: las teorías científicas. Tal vez la expresión “semántica de la ciencia” habría cubierto un ámbito más amplio de nuestra disciplin a, al permitirnos reconocer que los aspectos y problemas semánticos pueden darse no sólo en el caso de las teorías; pero, ciertamente, podemos considerar que las teorías científicas son el terreno natural en el que se manifiestan plenamente en la ciencia las cuestiones de las que se ocupa la semántica. Así, los conceptos científicos adquieren normalmente su significado en el marco de una u otra teoría; son las teorías las que afirman la existencia de entidades o propiedades que pueden constituir la referencia de aquellos conceptos; también son las teorías (junto con las hipótesis y leyes que de una u otra forma las componen) las proposiciones cuya verdad es más interesante establecer, aunque, por supuesto, las condiciones de verdad de otros enunciados también constituirá un problema importante; y finalmente, los métodos formales empleados en la elaboración, manipulación y contrastación de las teorías son el elemento básico en el que, dentro del marco de las ciencias empíricas, tiene sentido plantearse cuestiones relacionadas con la validez. De esta manera, aunque sería erróneo pretender que sólo se dan aspectos 41
V., p. ej., Edwards (1967), vol. 7, p. 348.
34
semánticos en la ciencia dentro de las teorías, sí que es cierto que, por lo general, aquellos aspectos se manifiestan “alrededor” de éstas. En la figu ra 2 se indican esquemáticamente los aspectos fundamentales de la semántica de las teorías científicas, tal como han sido caracterizados en los dos últimos párrafos. Naturalmente, los problemas indicados en la parte inferior de la figura no son una lista exhaustiva de los que pueden ser estudiados. También se indican las disciplinas de las que cada uno de los tipos de investigación semántica (formal, filosófica y empírica) puede depender más directamente (respectivamente, la lógica y la filosofía de la matemática en el caso de la semántica formal, la filosofía del lenguaje y la epistemología en el caso de la semántica filosófica, y la historia y la sociología de la ciencia para la semántica empírica). Figura 2 En realidad, por el conjunto de problemas que se ejemplifican en la figura, puede
llegarse fácilmente a la conclusión de que la problemática de la “semántica de las teorías científicas” cubriría, entendida en sentido laxo, prácticamente la totalidad del ámbito de la filosofía de la ciencia. Por ejemplo, muchas de las obras de la llamada
“corriente historicista”, o, lo que de Frederick Suppe denominó “concepciones weltanschaaunguísticas”42 (p. ej., Kuhn, Hanson, Feyerabend, e incluso será posible
añadir parte de la sociología del conocimiento científico; cf. capítulo anterior) podrían tomar como suyos los problemas del tipo de los reseñados en los dos últimos niveles del
cuadro. Por este motivo, en el panorama de la “tradición semántica” que ofrezco en los
próximos apartados, tomaré ese concepto en su significado más estrecho, de tal manera que solamente cubra la aplicación de la semántica formal al análisis de la ciencia, y, como mucho, de los problemas y perspectivas filosóficas relacionadas más directamente con la semántica formal. En cambio, la deno minada (también por Suppe) “concepción
semántica de las teorías científicas” cubre un conjunto de enfoques sustancialmente más reducido. Como suele ser habitual, los defensores de un cierto punto de vista suelen definirlo por oposición a otro u otros punto s de vista; en el caso de la “concepción
semántica”, el oponente sería una pretendida “concepción sintáctica”, ejemplificada tal
vez por la obra de autores como Carnap, Hempel y Reichenbach, pero posiblemente también por muchos otros filósofos más recientes, como Lakatos, Laudan, Niiniluoto, Rescher, Salmon o Kitcher, y cuyo pretendido error común sería el de considerar las teorías científicas como enunciados o sistemas de enunciados, junto con la creencia de que el análisis “sintáctico” de tales en unciados (básicamente, las relaciones de deducibilidad entre ellos) sería la herramienta analítica más poderosa en
filosofía de la ciencia. En cambio, la tesis principal de la “concepción semántica”, en el
sentido de que es la tesis que une todas las versiones que existen de esta concepción y las distingue de otras visiones alternativas, es la de que, al presentar una teoría, lo que los científicos hacen es ofrecer una caracterización de los sistemas que satisfacen dicha teoría (sus “modelos”, en el sentido de la teoría de modelos), pues dos sistemas de enunciados diferentes (incluso pertenecientes a lenguajes distintos) que fueran satisfechos por los mismos modelos, serían en realidad formulaciones diferentes de la misma teoría. 42
Cf. Suppe (1979), introducción.
35
Sin perjuicio de la exposición más amplia que ofreceré en el próximo apartado sobre el desarrollo de la “ tradición semántica en filosofía de la ciencia”, indicaré muy brevemente ahora cuáles han sido los principales autores que han contribuido a la “concepción semántica de las teorí as científicas”. El primer antecedente fue la reconstrucción de la mecánica newtoniana y la mecánica cuántica por Evert Beth en los años cuarenta del siglo XX, basándose en los métodos de la semántica formal desarrollados por Alfred Tarski. Pero sin duda la figura más influyente en el desarrollo de la concepción semántica fue Patrick Suppes, quien desde principios de la década siguiente, e influido también por la obra de Tarski sobre el método axiomático, defendió la idea de que la reconstrucción axiomática de las teorías científicas debería llevarse a cabo mediante la definición de un predicado conjuntista, el cual sería satisfecho por todos los sistemas, y sólo aquellos, para los que fuesen verdaderas las cláusulas que de esa definición (p. ej., el predica do ‘ x es una mecánica clásica de partículas’ es satisfecho por el sistema s si y sólo si se cumplen dos condiciones: 1ª) s está formado por una serie de conjuntos de entidades y de funciones matemáticas que pueden interpretarse, respectivamente, como un conjunto de partículas, un intervalo de tiempo, y las funciones que asignan a cada partícula: i) su posición en cada momento, ii) su masa, y iii) las fuerzas que se ejercen sobre cada partícula en cada momento; y 2ª estas funciones cumplen la segunda ley de Newton: “la fuerza total ejercida en cada instante
sobre cada partícula es igual a la masa de la partícula por su aceleración instantánea”).
Entre otras contribuciones interesantes de Suppes, destacan también, por su relevancia para el desarrollo de la concepción semántica, sus teorías sobre los modelos de datos y los modelos probabilistas, esenciales ambos para comprender la aplicación empírica de las teorías científicas reales, aunque el análisis de esta aplicación requirió la introducción de un concepto adicional (debida a Ernest Adams), muy determinante en el desarrollo de los posteriores enfoques semánticos, como es el concepto de “interpretación pretendida”, esto es, los sistemas reales, no puramente matemáticos, que a los que científicos están interesados de hecho en aplicar el formalismo de la teoría. Influidos por el trabajo de Suppes, aunque con otros bagajes notablemente distintos, durante los años sesenta varios autores comenzaron a desarrollar sus propias versiones de la concepción semántica: Frederick Suppe, Joseph Sneed y Bas van Fraassen (este último más influenciado por el trabajo pionero de Beth), seguidos unos años después por Ronald Giere, y cuyas obras principales fueron publicadas a partir de la década siguiente. Suppe concibe una teoría como un sistema relacional consistente en el conjunto de estados posibles de un dominio, y el de transiciones entre esos estados, dominio sobre el cual varias relaciones han sido impuestas; la caracterización de aquellos conjuntos podría precisar el emple o de nociones modales, como la de “sistema
causal físicamente posible”. Sneed y sus seguidores (los “estructuralistas”) entienden por “teoría” un entramado más complejo de conjuntos de modelos (los que cumplen no sólo los “axiomas fundamentales” de la teor ía, sino también otras condiciones -p. ej., “ligaduras”-), junto con la clase formada por las “aplicaciones propuestas” de la teoría, y de la cual se afirma que satisface todas aquellas propiedades formales. Bas van Fraassen, a su vez, también entiende las teorías como conjuntos de modelos, cada uno
de los cuales a su vez posee una “subestructura empírica”, que debería corresponder a la
estructura de los fenómenos observados. Por su parte, Giere (cuya concepción de las teorías científicas comento más extensamente en el próximo capítulo) ofrece una visión
más liberal, en el sentido de que está menos interesado por ofrecer “reconstrucciones modelo-teóricas” de las teorías científicas, y centra su atención en los mecanismos
36
cognitivos que llevan a los científicos a desarrollar y elegir hipótesis de la manera como lo hacen. Otros autores que han utilizado la tesis de que la mejor forma de representar las teorías científicas es como conjuntos de estructuras han sido los polacos Przelecki y Wójcicki, los italianos Dalla Chiara y Toraldo di Francia, y los brasileños Da Costa y Bueno, todos ellos, en general, describiendo aquellos conjuntos de estructuras de manera más ceñida a las construcciones que habitualmente se pueden encontrar en la teoría de modelos. De todas estas variantes, el estructuralismo de Sneed ha sido la que más éxito ha alcanzado en España, y en general, en los países hispanohablantes, sobre todo bajo la influencia de uno de los principales impulsores de dicha corriente, C. Ulises Moulines; entre los autores españoles cuyas contribuciones al estructuralismo han sido más relevantes podemos citar a José A. Díez, José Luis Falguera y Andoni Ibarra. Hay que decir asímismo que la amplia repercusión del estructuralismo, dentro y fuera de España, fue debida también al hecho de que ofrecía un programa de investigación muy amplio y muy bien definido, en el que resultaba fácil encontrar tanto un tema de estudio
(en muchos casos, la “reconstrucción estructural” de alguna teoría científica concreta), como un conjunto de herramientas conceptuales mediante las que abordarlo. Teniendo en cuenta, pues, la existencia de una pujante corriente filosófica
reconocida bajo el nombre de “concepción semántica de las teorías científicas”, y, en
particular, la notable influencia que una de las ramas de esa corriente ha ejercido en el desarrollo de la filosofía de la ciencia en nuestro país, sería fácil sucumbir al riesgo de confundir una exposición de la semántica de las teorías científicas con la de la concepción semántica de las teorías, e incluso centrarse excesivamente en la exposición
del estructuralismo. La contrastación entre la “concepción semántica de las teorías científicas”, sucintamente detallada en el párrafo anterior, y la “semántica de las teorías científicas”, descrita también brevemente al principio de este apartado, debe poner de manifiesto, por el contrario, que dedicar una excesiva atención a la “concepción semántica” en general, o al estructuralismo en particular, nos impediría abordar otros
temas no menos legítimamente pertenecientes al terreno de la semántica de las teorías, incluso aunque este terreno lo limitemos programáticamente, como anuncié más arriba, al de la semántica abstracta. En concreto, y como veremos con más detalle en el próximo apartado, existen tres grandes asuntos que tenderían a pasarse por alto, o a recibir demasiada poca atención, en un estudio de la semántica de las teorías científicas elaborado exclusivamente desde la perspectiva de la concepción semántica, y sobre todo si esta perspectiva es la del estructuralismo: el problema del significado de los conceptos científicos, el problema de las relaciones entre las teorías científicas y la realidad , y el problema de la evaluación de las teorías científicas.
2. EL DESARROLLO DE LA TRADICIÓN SEMÁNTICA EN FILOSOFÍA DE LA CIENCIA. En el apartado anterior hemos relatado brevemente el desarrollo de la
“concepción semántica de las teorías científicas”, pero hemos afirmado asímismo que
dicha concepción no cubre, ni mucho menos, todo el ámbito de lo que razonablemente podemos denominar la tradición semántica en filosofía de la ciencia, esto es, el conjunto de líneas de investigación que toman explícita o implícitamente, como uno de sus principios heurísticos básicos, la tesis de que los problemas fundamentales de la filosofía de la ciencia deben ser abordados utilizando herramientas conceptuales 37
derivadas de la semántica formal . Obviamente, estas líneas de investigación arrancan con el advenimiento de la propia semántica formal como una subdisciplina con entidad propia dentro del ámbito de la lógica (y de la filosofía de la lógica), un acontecimiento que podemos situar alrededor de 1930, y del cual el principal responsable fue el lógico polaco Alfred Tarski. Sería descabellado pretender que antes de esa fecha no habían existido investigaciones semánticas filosóficamente serias, o que las intuiciones de
Tarski sobre las nociones de “verdad”, “modelo” o “consecuencia lógica”, pongamos,
no contaran en absoluto con precursores, 43 pero sí que es cierto que la obra de este autor fue la que permitió asentar las investigaciones semánticas sobre fundamentos firmes, y la que contribuyó a sistematizar el contenido de la disciplina. Sobre la influencia de Tarski en el desarrollo de la lógica y la filosofía del lenguaje contemporáneas no voy a extenderme aquí, pues es materia de otras asignaturas; naturalmente, de lo que debo hablar es de la influencia de su obra en el desarrollo de la filosofía de la ciencia, influencia que, aunque sumamente intensa, ha sido más sutil y, por así decir, más diversificada que en el caso de la lógica y la metamatemática. La razón es, sobre todo,
que mientras la “semántica de los lenguajes formalizados” se ha llegado a constituir como una rama sistemática y coherente de la metalógica, la noción de una “semántica de la ciencia” dista mucho de poseer siquiera un significado preciso, y más bien lo que ocurre es que cada autor sobre el que la obra de Tarski ha ejercido alguna influencia ha tendido a utilizarla para desarrollar y justificar sus propias posiciones, las cuales, aunque hayan podido converger parcialmente con otros puntos de vista gracias al influjo común recibido del lógico polaco, han seguido siendo radicalmente heterogéneas en muchos casos. Es por ello que de lo más que podemos hablar en el caso de la filosofía
de la ciencia no es de la constitución de una “semántica de las teorías” (o algo parecido) como subdisciplina autónoma, sino tan sólo del establecimiento de una cierta “ tradición semántica”. Cronológicamente, la primera influencia destacable que la obra de Tarski ejerció sobre la filosofía de la ciencia fue la recepción, por parte de los miembros del Círculo de Viena, y especialmente Rudolf Carnap, de su trabajo sobre la noción de verdad en los lenguajes formalizados. El mismo Carnap había llegado a conclusiones muy semejantes a las de Tarski (p. ej., a propósito de la relevancia del metalenguaje, de la noción de valuación o satisfacción, etcétera) en su obra, publicada en alemán en 1934, y traducida al inglés tres años más tarde, Logische Syntax der Sprache,44 pero en ese libro seguía manteniendo la primacía de un enfoque sintáctico para definir la noción de validez lógica. También por aquella época seguía empeñado Carnap en definir la “significatividad empírica” de un enu nciado científico a partir de sus relaciones sintácticas con otros enunciados. Fue más bien el influjo de Tarski el que le convenció de la necesidad de utilizar categorías no reducibles a las puramente sintácticas para definir de manera coherente las nocio nes de “significado”, “verdad” y “validez”, si bien hay que decir que el éxito con la definición de las dos últimas nociones fue claramente
mayor que el de la búsqueda de un “criterio empirista de significado”. En sus obras
posteriores Carnap presentó varias herramientas analíticas que, aunque concebidas en el ámbito de la semántica formal, deberían servir de ayuda en la comprensión filosófica de 43
Para una historia detallada de la “tradición semántica” en la filosofía de l a lógica y de las matemáticas, ver Coffa (1991). Para la recepción de la obra de Tarski en el Círculo de Viena, ver sobre todo Wolenski et al. (1998). Los artículos más relevantes de Tarski están incluídos en su libro (1956). 44 Las semejanzas y diferencias son analizadas en Coffa (1991), cap. 16.
38
las teorías científicas; se trataba, por ejemplo, de las nociones de “descripción de estado” y de “postulado de significado”, nociones ambas desarrolladas con el fin
primordial de ofrecer una caracterización lógica de la distinción entre enunciados analíticos y sintéticos. Así, la primera noción (análogo sintáctico, en cierto sentido, a la
noción semántica de “modelo”) recibiría un uso epistemológico fundamentalmente en el intento carnapiano de desarrollar una “lógica inductiva”, mientras que la segunda constituiría un elemento conceptual básico en la elaboración de la “teoría de los dos niveles” como su solución al problema del significado de los términos científicos.
Como es bien sabido, las soluciones de los neopositivistas a este último problema (soluciones que manifestaban un fuerte componente operacionalista en el pensamiento de estos autores) fueron severamente socavadas a partir de los años cincuenta, no sólo por su relativa inadecuación a la práctica científica real, sino, lo que es más importante para la exposición presente, también por el propio desarrollo conceptual de la teoría filosófica del significado elaborada por dichos autores y por quienes, sobre todo en los Estados Unidos, intentaban contribuir a tal desarrollo; las dificultades de aquellas soluciones están bien recogidas en el clásico artículo de Hempel
“Problemas y cambios en el criterio empirista de significado” (ed. orig., 1950), mientras que la principal crítica “desde dentro” a los fundamentos de la “semántica empírica”
que intentaban desarrollar los neopositivistas fue la presentada por Quine en su artículo “Dos dogmas del empirismo” (ed. ori g., 1951). Curiosamente, estas dificultades con la elaboración de una teoría del significado coexistían con la aceptación casi general de que el trabajo de Tarski había resuelto de una vez por todas el problema formal de una
definición del concepto de “verdad”, lo que, hasta cierto punto, proporcionaba
esperanzas de conseguir lo mismo con los otros conceptos semánticos relevantes para el análisis de la ciencia. En realidad, lo que, tras largas discusiones, vino a quedar finamente de manifiesto fue la idea de que la aceptación de la teoría de Tarski era compatible con la de muy diversas interpretaciones filosóficas del problema de la verdad, desde la clásica visión de la verdad como correspondencia objetiva (defendida, por ejemplo, por Popper y Kripke), a las concepciones “eliminativistas” o
“desentrecomilladoras” (como tal vez podríamos interpretar las posturas de Quine y Davidson), pasando por el “realismo interno” de Putnam (en el que las herramientas de la semántica formal, y en especial la teoría de modelos, se utilizan para mostrar que la
“realidad objetiva” no puede impedir que haya interpretaciones completamente distintas de los términos de las teorías, aunque éstas sigan siendo verdaderas en muchas de aquellas interpretaciones; esto fue planteado por Putnam como un argumento lógico-
semántico contra el “realismo metafísico”, es decir, contra la tesis de que el mundo está
constituido por entidades bien definidas, cuya naturaleza es independiente de nosotros). Con respecto al programa inductivista de Carnap (menos influido, ciertamente, por consideraciones semánticas, pero que se benefició notablemente del análisis lógico del lenguaje permitido por la semántica formal), su objetivo era, básicamente, ofrecer una
explicación del concepto de “probablemente verdadero” que fuese tan sano desde el punto de vista lógico-semántico como el de “verdadero”, y que resultara útil como reconstrucción de la idea de “grado de confirmación” de una hipótesis. Este programa sufrió básicamente dos dificultades: la imposibilidad de asignar un grado de confirmación inductiva mayor que cero a las generalizaciones universales, y el
problema de los predicados “extraños”, formulado por Goodman. El primer problema
fue resuelto por Hintikka mediante una cierta modificación del programa carnapiano (además, posteriormente Tuomela y Niiniluoto desarrollaron el enfoque de Hintikka 39
para conseguir dar un grado de confirmación positivo incluso a teorías que contienen términos no observacionales), mientras que el segundo ha recibido en general respuestas más bien pragmáticas que formales. En todo caso, el programa de la lógica inductiva ha tendido a ofrecer resultados escasamente relevantes, en mi opinión, para la comprensión filosófica de la actividad científica real, lo que, por otro lado, es menos cierto del enfoque bayesiano contemporáneo, aunque este último es ya difícilmente clasificable dentro de la tradición semántica. La segunda gran influencia que ha ejercido la obra de Tarski en el desarrollo de la filosofía de la ciencia del siglo XX fue a través de Karl Popper, quien también conoció a Tarski en los encuentros que éste mantuvo en Austria con los miembros del Círculo de Viena, muy poco después de que el segundo publicara su obra La lógica de la investigación científica en 1934. De acuerdo con sus propias confesiones autobiográficas, la motivación de este libro era desde el principio fuertemente realista, y en ese sentido, anti-positivista, pero, en el ambiente intelectual en el que Popper desarrolló y presentó sus concepciones, le parecía más legítimo ofrecer una explicación del método científico que no presupusiera elementos semánticos sospechosos de ser una rendija para la entrada de conceptos metafísicos, y que pudiese formularse en términos puramente sintácticos. En cambio, el encuentro con la teoría tarskiana de la verdad le
persuadió de que introducir explícitamente las nociones de “verdad” y “falsedad” en el
análisis de la ciencia no entrañaba ningún riesgo de incoherencia. Así, en obras posteriores a la edición inglesa de La lógica de la investigación científica (1959), sustituye sin contemplaciones la más tímida expresión de la finalidad de la ciencia como
“búsqueda de problemas más profundos y soluciones mejor corroboradas” por la formulación más directamente realista de “aproximación a la verdad”, sobre todo a partir de su artículo de 1960 “La verdad, la racionalidad, y el desarrollo del conocimiento científico”. 45
Ciertamente, la interpretación que hace Popper de la teoría semántica de la verdad de Tarski hay que tomarla cum grano salis (según Popper, esta teoría
“rehabilita” la noción de verdad como correspondencia, cuestión sobre la que el propio
Tarski se abstenía explícitamente); 46 pero, naturalmente, lo que de veras es importante para la historia de la filosofía de la ciencia no es tanto la cuestión de si Popper entendió
“correctamente” la teoría de Tarski, sino el original empleo que hizo de ella. Como es
bien sabido, este uso consistió básicamente en el desarrollo de la teoría de la verosimilitud, la cual, en su primera formulación popperiana, utilizaba también otra herramienta conceptual puesta a punto por el mismo Tarski, como era la teoría de los sistemas deductivos. En esencia, la definición del concepto de verosimilitud propuesta por Popper era la de que una teoría científica era más verosímil (es decir, estaba más próxima a la verdad completa) que otra, si y sólo si la primera contenía todas las consecuencias verdaderas de la segunda, y la segunda contenía todas las consecuencias falsas de la primera. El aspecto más importante de esta definición, no siempre señalado correctamente, era que permitía ofrecer una justificación del método falsacionista propugnado también por Popper, pues el hecho de que una teoría tuviese un grado de 45
Incluido como capítulo 10 de Popper (1965). Para una historia del “programa de la verosimilitud”
iniciado por Popper, véase Zamora Bonilla (1996a). Mis propias tesis sobre el tema se exponen más abajo, en el capítulo IV. 46
V. el artículo de Tarski “La concepción semántica de la verdad y los fundamentos de la semántica”,
recogido en Valdés (1991), y cuya edición original es de 1944. Una buena exposición, tanto de la teoría semántica de la verdad, como de su peculiar interpretación popperiana, se ofrece en Haak (1982).
40
corroboración mayor que otra podía interpretarse ahora, no como la finalidad misma de la ciencia (como puede dar la impresión por la lectura de La lógica de la investigación científica), sino como un “dato” que permite corroborar la “meta-hipótesis” que afirma que la primera teoría es más verosímil que la segunda (pues aquel hecho se infiere deductivamente a partir de esta meta-hipótesis). Desgraciadamente para la definición popperiana de verosimilitud, en la década siguiente se demostró que ésta era inaplicable a teorías falsas, con lo que prácticamente perdía todo su posible interés. Si los popperianos más ortodoxos (como John Watkins o David Miller) tomaron este último resultado como un argumento para retrotraerse hacia las versiones más descarnadamente anti-inductivistas de las doctrinas de su maestro, otros filósofos, menos comprometidos con el falsacionismo, consideraron que el desarrollo de una definición coherente y aplicable del concepto de “aproximación a la verdad” podía llegar a ser una tarea fructífera, en la que se combinaban, como posiblemente no lo han hecho en otros campos de investigación dentro de la filosofía de la ciencia, la posibilidad de aplicar una gama de herramientas lógicas considerablemente amplia, por un lado, y la de formular e intentar resolver con gran precisión conceptual problemas epistemológicos y metodológicos muy interesantes. Es hasta cierto punto paradójico el hecho de que los dos principales defensores actuales de la teoría de la verosimilitud, Ilkka Niiniluoto y Theo Kuipers, hubieran iniciado sus pasos en nuestra disciplina trabajando en la tradición carnapiana de la lógica inductiva, y que, sin haber abandonado en modo alguno la postura de que es posible una cierta justificación epistémica del razonamiento inductivo, hayan logrado hacer compatible dicha postura con la defensa de una concepción popperiana, fuertemente realista, sobre la meta del conocimiento científico. Los desarrollos modernos de la teoría de la verosimilitud manifiestan, de esta manera, la integración de las dos primeras ramas de la tradición semántica, que podemos denominar carnapiana y popperiana. En el caso de Kuipers, como veremos, incluso la tercera y última rama de la tradición semántica también se funde con las dos primeras. Esta tercera vía de influencia de Tarski en la filosofía de la ciencia fue la que
generó lo que ha llegado a conocerse en nuestra disciplina como “concepción semántica”, y consistió básicamente en la aplicación de las herramientas de la teoría de
modelos (y, en general, de la teoría de conjuntos) al análisis de las teorías científicas. El principal elemento común a todos los enfoques que pueden ser englobados en el marco de la “concepción semántica de las teorías científicas” es la tesis de que una teoría es básicamente una familia de estructuras (“modelos”) conectadas entre sí mediante ciertas relaciones formales o funciones de representación (“mappings”). Como vimos en el apartado anterior, esta tesis admite formulaciones y desarrollos muy diferentes entre sí, desde la definición más “clásica” de Dalla Chiara y Toral do di Francia (una teoría como el par formado por un sistema formal y sus modelos), hasta la definición
más “psicologista” de Ronald Giere (una teoría como el par formado por la definición “informal” de una familia de estructuras y un conjunto empíricament e dado de ellas). Como ya he indicado, el punto de arranque más vigoroso de esta concepción se sitúa en la obra de Patrick Suppes, quien a partir de los años cincuenta comenzó, junto con varios colaboradores, un programa de reconstrucción de teorías mediante la definición de un predicado conjuntista, así como una serie de trabajos sobre la importancia de los modelos en la ciencia, tanto desde el punto de vista pragmático (esto es, acerca del uso que los propios científicos hacen de los modelos), como desde el punto de vista
filosófico (especialmente el análisis de la relación entre los “datos” y las “teorías”, y
41
muy particularmente el desarrollo de la teoría axiomática de la medición). Las líneas de investigación que de una u otra manera podemos enraizar en los trabajos de Suppes son las que más se han despegado del programa neopositivista. En cambio, otros autores intentaron desde los años sesenta, y de manera independiente, aplicar la teoría de modelos al estudio de las propiedades formales de las teorías, si bien podemos afirmar que el espíritu de estos trabajos entronca más directamente con el espíritu carnapiano de
intentar reducir las afirmaciones de las teorías científicas a su “base empírica”; estos
autores son, principalmente, los ya mencionados Przelecki, Wójcicki, Dalla Chiara y Toraldo di Francia. 47 Los enfoques más directamente emparentados con la obra de Suppes se han desarrollado, de todas formas, siguiendo líneas muy diversas. Posiblemente la relación genealógica más directa con dicha obra es la que guarda la autodenominada “concepción estructuralista” o “concepción no -enunciativa”, mientras que los trabajos de otros autores, como van Fraassen, Suppe o Giere, se conforman generalmente con presentar sus discusiones de manera más informal, sin considerar esencial, al menos al tratar los principales problemas filosóficos relacionados con las
teorías científicas, el definir explícitamente los elementos de los “modelos” a los que se
refieren y las relaciones que puedan existir entre ellos, trabajo que sí ha sido desarrollado por los estructuralistas y que, indudablemente, hace los escritos de estos últimos mucho más áridos que los de los primeros. La figura 3 recoge esquemáticamente las principales líneas de desarrollo de la tradición semántica en filosofía de la ciencia, indicando a los autores más influyentes y algunos de los problemas que en cada una de esas líneas se han considerado más relevantes. Figura 3
3. ALGUNAS CUESTIONES DISPUTADAS EN LA TRADICIÓN SEMÁNTICA. En el próximo apartado ofreceré una visión crítica de la tradición semántica mediante una comparación con los enfoques que quedan fuera de ella (y que, de forma
un tanto arriesgada, podemos denominar globalmente como “tradición pragmática”, por
razones que indicaré allí). El presente apartado lo dedicaré, en cambio, a contrastar entre sí los diversos enfoques pertenecientes a la tradición semántica, si bien de forma no exhaustiva. Una primera división importante es, obviamente, la que se puede establecer
entre los defensores de la “concepción semántica de las teorías científicas” y el resto de
los miembros de la tradición semántica; esta división se refiere a la mayor o menor importancia relativa que se dé, en el análisis de la ciencia, bien a los sistemas (o modelos) empíricos de los que hablan las teorías, o bien al lenguaje en el que las teorías se expresan. En segundo lugar, aunque en conexión directa con la cuestión anterior, podemos abordar el problema de las relaciones entre unos modelos y otros, lo que a su vez podemos descomponer en dos preguntas, a saber, cómo deben analizarse las 47
Por ejemplo, estos dos últimos autores, en su obra Le teorie fisiche, presentan una concepción operacionalista de los términos científicos (aunque más liberal que la de Carnap), así como una concepción reductivista del progreso científico. V., ob. cit., pp. 41 y ss., y pp. 69 y ss.
42
conexiones entre modelos diferentes, y cuál es el papel de las teorías científicas en la formulación de dichas conexiones. Otras cuestiones sobre las que existe una notable discrepancia entre los miembros de la tradición semántica son las relativas a la interpretación ontológica y epistemológica de las teorías científicas.
3.1. ¿Cuáles son las herramientas semánticas más apropiadas para el análisis de la ciencia? El objetivo básico de la semántica formal es permitirnos explicar, de forma consistente, las condiciones de posibilidad del contenido semántico de las expresiones lingüísticas. En su origen, el principal problema de la tradición semántica fue, por lo tanto, el de explicar formalmente la noc ión de “condiciones de verdad” para los
enunciados científicos, y esta tarea exigía la “reconstrucción” de estos enunciados en un
lenguaje al que pudieran ser aplicadas las técnicas de la semántica tarskiana. Al fin y al cabo, esta rama de la lógica había sido desarrollada originalmente para el análisis de teorías matemáticas expresadas en un lenguaje totalmente formalizado (al estilo de Frege, Russell y Hilbert), y la cuestión de en qué medida podía ser aplicable a los lenguajes naturales era muy discutida (siendo la teoría del significado de Davidson, desarrollada en los años sesenta y setenta, la primera que abordó con relativo éxito el desafío). Pese al carácter profundamente matemático de la mayor parte de la física teórica, y de otras ramas de las ciencias naturales y sociales, estaba claro desde el principio que el lenguaje de las ciencias empíricas es fundamentalmente el lenguaje natural, y a falta de una teoría semántica apropiada para analizar este lenguaje, si quería elaborarse una semántica de la ciencia mínimamente útil era preciso reformular los enunciados científicos en un lenguaje formalizado. Esta exigencia se reducía, básicamente, a la de trabajar con un vocabulario limitado (que este vocabulario incluyera sólo predicados de primer orden era una decisión más bien pragmática que fundamentada rigurosamente desde el punto de vista teórico), la referencia de cuyos términos no lógicos (o, mejor dicho, no matemáticos) pudiera ser establecida con absoluta claridad mediante enunciados de un metalenguaje. Puesto que las condiciones de significatividad y validez de los enunciados lógico-matemáticos estaban suficientemente claras (o así se asumía), el problema se reducía al de formular las condiciones que permitieran recibir un valor de verdad a los enunciados no tautológicos que contuvieran términos distintos de los lógico-matemáticos. Este problema no era otro que el viejo conocido de los empiristas lógicos (la búsqueda de un criterio de significatividad empírica), sólo que intentado resolver con ayuda de técnicas lógicas algo más profundas. En opinión de Carnap, el problema se reducía a establecer formalmente las condiciones bajo las cuales podía afirmarse que un enunciado científico era, o bien sintético (en cuyo caso su valor de verdad debía determinarse mediante la experiencia, en la medida de lo posible), o bien analítico (en cuyo caso su valor de verdad estaba determinado únicamente por las reglas semánticas del lenguaje en el que estuviera formulado). Los argumentos de Quine, y posteriormente de Kuhn y Feyerabend, sobre todo, convencieron a la mayoría de la profesión de que la búsqueda de tales condiciones era un ideal imposible de alcanzar, ni siquiera aproximadamente, pues la distinción
entre enunciados que son verdaderos (o falsos) “por cómo es el mundo” y los que lo son “por cómo es el lenguaje” sería realmente una distinción convencional . La respuesta de
Carnap me parece que no ha recibido toda la atención que merecería por parte de los filósofos de la ciencia, tal vez empujados irremediablemente por el maremoto kuhniano: 43
en primer lugar, a nivel de la reconstrucción del lenguaje “observacional”, pueden
establecerse de manera arbitraria los postulados de significación que deseemos, los cuales establecerán fuera de toda duda cuáles son los enunciados que en esa reconstrucción del lenguaje científico deben ser considerados “analíticos” (a Quine se le concedería que esa reconstrucción es una hipótesis empírica sobre el uso de dichos términos, susceptible de ser criticada con la comparación con las prácticas lingüísticas efectivas de los científicos, pero esto no importunaría a Carnap); en segundo lugar, a nivel del lenguaje “teórico”, el contenido empírico de una teoría (equivalente a la conjunción de sus axiomas teóricos, T , y de sus reglas de correspondencia, C ) vendría dado por el enunciado de Ramsey de dicha conjunción ( (T&C) R), mientras que el único postulado necesario para implicar todos los enunciados analíticos que se derivan de T&C sería el enunciado más débil que, en conjunción con el enunciado de Ramsey de la teoría, es equivalente a la teoría misma, esto es, el enunciado (T&C) R (T&C).48 Este enunciado otorga un sentido muy preciso a la idea según la cual los términos teóricos
reciben sólo una “interpretación parcial”, pues lo que afirma es únicamente que “las entidades teóricas son lo que la teoría dice que son”, sin proporcionar una definición de
esos términos que sea más explícita que lo que lo son los axiomas de la teoría. Pero, como decía, esta hipótesis de Carnap tuvo escaso seguimiento,
básicamente por el abandono generalizado de la tesis de “los dos sublenguajes” (teórico y observacional): si todos los términos tienen “carga teórica”, parece imposible
formular ni siquiera el enunciado de Ramsey de una teoría, y por lo tanto, elaborar una distinción entre los enunciados analíticos y los enunciados sintéticos de dicha teoría. Una estrategia alternativa (básicamente la empleada por Hintikka y Niiniluoto) es la de olvidarse por completo de la distinción entre términos observacionales y teóricos, y establecer todas las reglas semánticas del lenguaje mediante postulados de significación (que, recordemos, era el método empleado por Carnap para los términos observacionales), es decir, determinar por estipulación, antes de introducir los axiomas de la teoría, qué enunciados del lenguaje en el que vamos a reconstruirla son analíticos. En esta estrategia, cada teoría será identificada, posteriormente, con la disyunción de todos aquellos enunciados máximamente informativos 49 consistentes con la teoría y a la vez con los postulados de significación. Las relaciones semánticas entre unos enunciados y otros se podrían analizar, después, en términos de las relaciones que existan entre los diversos conjuntos de enunciados máximamente informativos cuya disyunción sea equivalente a cada uno de los enunciados considerados (por ejemplo, un enunciado es una consecuencia lógica de otro si el conjunto de los miembros de la disyunción de enunciados máximamente informativos equivalente al primero incluye al conjunto de los miembros de la disyunción que es equivalente al segundo). Una estrategia algo distinta fue la utilizada por Popper en su definición de verosimilitud: identificar cada teoría con el conjunto de sus consecuencias lógicas; en este caso, un enunciado se sigue lógicamente de otro si todas las consecuencias del primero lo son también del segundo. Ahora bien, ambas estrategias, tanto la de Hintikka como la de 48
Cf. Carnap (1969), caps. 27 y 28. Puesto que la teoría T&C es equivalente desde el punto de vista lógico a la conjunción (T&C) R & [(T&C) R (T&C)], podemos inferir que el enunciado ‘(T&C) R (T&C)’ representa aquello que la teoría T&C “añade” además de su propio contenido empírico (T&C) R. 49
La naturaleza de estos “enunciados máximamente informativos” dependerá de la potencia lógica
lenguaje considerado; por ejemplo, en un lenguaje proposicional, cada uno sería el equivalente a una
“fila” de una tabla de verdad; en un lenguaje con constantes individuales y sin variables individuales, sería una “descripción de estado”; etcétera.
44
Popper, han mostrado ser comparativamente débiles, en relación a la siguiente estrategia que vamos a ver (la de considerar “directamente” los conjuntos de modelos de las teorías), y sobre todo, demasiado dependientes de las peculiaridades del vocabulario en el que reconstruyamos las teorías, en el sentido de que, incluso construyendo un lenguaje lógicamente equivalente (por estipulación) al primero, las consecuencias que saquemos en el análisis semántico de las teorías mediante su reconstrucción con uno de estos vocabularios no coincidirán necesariamente con las que derivemos con ayuda del otro lenguaje. Así pues, históricamente la partida parece haber sido ganada por quienes defienden que la mejor herramienta para analizar la estructura de las teorías son los modelos. Los estructuralistas han llegado a hacer suyo el eslogan de que el enfoque idóneo para esta tarea es el “no -enunciativo”, es decir, estudiar las teorías, no como enunciados que hablan de ciertas estructuras (sus posibles modelos), sino directamente como tales conjuntos de estructuras (ver especialmente Stegmüller (1981)). Otros autores no comparten tan excesivo entusiasmo, ni siquiera dentro de la “concepción
semántica”; por ejemplo, van Fraassen afirma explícitamente que la suya sería más bien una “ statement view”;50 por cierto, que este autor no incluye al estructuralismo dentro del marco de la “concepción semántica”, pues, al fin y al cabo, la semántica es una parte del estudio del lenguaje, y si las teorías científicas no son entidades lingüísticas, ¿qué
sentido tiene denominar “semántico” al análisis de esas teorías? Obviamente, como
veremos, el motivo de que podamos incluir al estructuralismo dentro de la tradición semántica es que, en realidad, el lenguaje desempeña en el análisis estructuralista de las teorías un papel no menos importante que en otros enfoques, aunque sui generis. Por e jemplo, la noción de “especie de estructuras” es claramente relativa a un lenguaje, pues se trata, sencillamente, de la indicación de qué elementos de un modelo constituyen la interpretación de cada término que aparece en la formulación de una teoría; la equivalencia formal de dos estructuras pertenecientes a especies distintas, pero que
representaran “el mismo hecho” (pongamos por caso dos estructuras, cuya única diferencia consista en que en una de ellas se ha sustituído la relación “es más corto que” por la relación “es más largo que”, de tal manera que si el par de objetos
está
incluída en la primera relación, en la segunda se incluirá el par ), esta equivalencia, decía, no puede establecerse más que introduciéndola por estipulación al presentar la clase de los modelos potenciales de una teoría, y esta estipulación no es más que el correlato modelo-teórico de los viejos postulados de significación de Carnap. Un segundo ejemplo, creo que aún más relevante, 51 es el hecho de que, si bien los estructuralistas definen la noción de “teoría” como un cierto tipo de conjunto de estructuras, al fin y al cabo introducen como una noción básica de su análisis la de “aserción (empírica) de una teoría”, que es sin lugar a dudas una entidad de carácter lingüístico, proposicional, aunque con la ventaja de que toda su carga semántica la
muestra “en su valor facial”, por así decir. Es frecuente referirse a esta aserción empírica suele como un “enunciado de Ramsey modificado”, pero se trata más bien de
la traducción de ese enunciado a un metalenguaje explícitamente modelo-teórico. Indiquemos finalmente que la descripción de la estructura de las teoría científicas y de sus relaciones mutuas en términos de modelos, en vez de como sistemas axiomáticos, puede dar la impresión de que la concepción semántica vendría a ser una 50
Cf. van Fraassen (1989), p. 191. Cf. Niiniluoto (1984) y Zamora Bonilla (1996b).
51
45
“aplicación” de la teoría de modelos a la filosofía de la ciencia. Esto sólo es cierto, de
todas formas, en contadas ocasiones: por ejemplo, el argumento de Putnam contra el realismo metafísico (al que me he referido más arriba) es ciertamente una aplicación del teorema de Löwenheim-Skolem; también los autores encuadrados en las escuelas polaca e italiana han intentado presentar resultados metalógicos sobre las relaciones semánticas entre las teorías físicas y sus modelos. Pero, en general, autores como Sneed, van Fraassen, Suppe o Giere se refieren directamente a los sistemas físicos sin pretender ofrecer un análisis formal de las relaciones que existen entre dichos sistemas y las teorías que los describen, pues más bien identifican las teorías con (ciertos conjuntos de) aquellos sistemas. Si tenemos en cuenta que el estudio de aquellas relaciones era el objeto de la teoría de modelos, podemos concluir que la concepción semántica no es, ni puede ser, una “teoría de modelos aplicada”. La concepción semántica, y sobre todo el estructuralismo, sería más bien un intento de aplicación de la teoría de conjuntos a la filosofía de la ciencia, obedeciendo el conocido motto de Suppes, de acuerdo con el cual, la principal herramienta para el análisis filosófico de las teorías científicas no debe ser la metamatemática, sino la matemática.
3.2. ¿Qué tipo de conexiones entre modelos son relevantes filosóficamente? Mis últimos comentarios en el epígrafe anterior pueden hacer pensar que todos los análisis de las teorías que se llevan a cabo en el marco de la concepción semántica (como si estuviéramos hablando de modelos) podrían reformularse como un análisis acerca de enunciados, y creo efectivamente que, en principio, cabe la posibilidad de que así sea. Pero, en todo caso, la concepción semántica ha logrado mostrar que pueden decirse muchas cosas interesantes, con una relativa economía de medios formales, si hablamos directamente de las estructuras de las que hablan las teorías, en vez de las formulaciones lingüísticas de éstas. Por ejemplo, van Fraassen indica que la distinción entre conceptos observacionales y no-observacionales es más iluminadora cuando se expresa en términos de los elementos de un modelo que cuando se expresa en términos de los predicados correspondientes; así, un enunciado que no contenga ningún predicado teórico no tiene que ser necesariamente observacional él mismo (p. ej., el
enunciado “en esta habitación hay algo que no se puede percibir sensorialmente”
incluye solamente términos observacionales entre sus términos no lógicos, pero no es
por ello un enunciado observacional); en cambio, si definimos un “modelo empírico”
como aquel que no contiene funciones no observables, todos los enunciados de los que aquella estructura pueda ser efectivamente un modelo serán enunciados observacionales; y, alternativamente, sólo una estructura que contenga funciones teóricas podrá ser un modelo de enunciados teóricos. Este ejemplo nos indica un primer aspecto de la estructura de las teorías que es más fácilmente analizable en el enfoque modelo-teórico que en el -llamémosle- metalingüístico: el “contenido empírico” de una teoría consistiría, sencillamente, en el conjunto de las subestructuras empíricas de los modelos de la teoría, es decir, lo que queda de estos modelos cuando se suprimen de ellos las funciones teóricas. Volveremos a esta cuestión en el capítulo VI. De todas formas, si esta fuera la única ventaja del enfoque modelo-teórico, la ganancia sería realmente escasa. Más importante es el hecho, muy fácilmente expresable en el marco de este enfoque, de que las teorías científicas se refieren a un conjunto indeterminado de sistemas, y no tienen, salvo en casos excepcionales, un
modelo único, universal o “canónico”. Por ejemplo, la mecánica clásica no es básicamente una afirmación sobre “el universo” (aunque pueda explorarse con sentido
46
la hipótesis de que el universo es un modelo de esa teoría), sino que es una afirmación sobre los sistemas mecánicos, de cada uno de los cuales se supone que obedece las leyes de la teoría. Este es un hecho banal sobre la práctica científica, que autores como Carnap no ignoraban, ni mucho menos, pero que sólo muy artificiosamente se puede encajar con la reconstrucción de las teorías en un lenguaje formal interpretado mediante postulados de significación y demás. En el enfoque de Carnap, Hintikka y Niiniluoto, la reconstrucción de este hecho exigiría, por ejemplo, establecer inductivamente generalizaciones sobre el comportamiento de los objetos de un sistema, para poder afirmar que dicho sistema es un modelo de la teoría, y en segundo lugar, realizar otra generalización inductiva sobre todos los sistemas de un cierto tipo, para alcanzar así la verdadera afirmación profunda de la teoría, que es la que dice que todos esos sistemas cumplen sus leyes; pero el problema es que este doble proceso de inducción difícilmente puede ser descrito en un lenguaje del mismo nivel: el primero se describiría en el lenguaje de la teoría, y el segundo en el metalenguaje. Intentar formular ambos procesos de inducción en el mismo lenguaje tal vez sería posible, de todos modos, pero exigiría al menos que ese lenguaje fuera de orden superior a uno, o que contuviera postulados de significación excesivamente complicados (los que relacionan cada objeto del primer proceso inductivo con uno o varios sistemas del segundo). El análisis es mucho más natural, en cambio, mediante la construcción de estructuras de varios niveles, al modo introducido por Suppes, por ejemplo. El reconocimiento de que las teorías hablan de un conjunto (generalmente abierto) de sistemas permite hacer explícitas ciertas suposiciones que quedaban implícitas en el análisis metalingüístico que acabamos de comentar: por ejemplo, que los valores que una función toma para un objeto en una aplicación de la teoría deben ser los mismos que en otras aplicaciones (aunque esto depende del tipo de función). Esto
permiten expresarlo las “condiciones de ligadura” sneedianas, que se introducen como
axiomas adicionales de cada teoría en el enfoque estructuralista. Naturalmente, las condiciones de ligadura serían superfluas en una reconstrucción carnapiana de una teoría en la que se asumiera la existencia de un dominio universal (esto es, de un único modelo), pero, como hemos visto, en la práctica este dominio universal no suele existir, y por lo tanto, las condiciones de ligadura son imprescindibles. Merece la pena destacar el hecho de que los estructuralistas son los únicos representantes de la concepción semántica de las teorías que parecen dar importancia explícitamente a aquellas conexiones entre modelos diferentes de una misma teoría que pueden formularse como condiciones de ligadura, el resto de los autores de este enfoque (por ejemplo, van Fraassen o Giere) hablan siempre como si la confirmación de que un sistema satisface los axiomas de la teoría fuera totalmente independiente de la misma confirmación para otro sistema, es decir, sin tener en cuenta que un mismo objeto puede aparecer en varios sistemas, y la información que sobre él tengamos en uno de ellos puede sernos útil en el siguiente. Por otro lado, el análisis directo de los modelos de las teorías ha permitido también ofrecer luz sobre uno de los grandes asuntos de la filosofía de la ciencia, como es el de las relaciones interteóricas, que dentro de la concepción semántica son analizadas simplemente como relaciones que pueden existir entre los conjuntos de modelos de varias teorías, en vez de relaciones entre los axiomas o consecuencias lógicas de las mismas. Por ejemplo, la diferencia entre reducción estricta y reducción aproximativa se expresa mucho más fácilmente en el marco de los modelos que en el de los enunciados. Además, de modo parecido a como la intersubjetividad del lenguaje es 47
garantizada en la filosofía de Quine (al menos la de sus primeras obras) más por la referencia de las expresiones que por su significado, también en el enfoque modelo-
teórico el problema de la posible “inconmensurabilidad” entre varias teorías se puede
analizar reconociendo que teorías alternativas pueden otorgar significados diferentes a sus términos, pero estableciendo unas ciertas relaciones de equivalencia entre las estructuras que son modelos de una teoría y las que lo son de las otras. En este sentido, destacan las contribuciones de David Pearce, 52 mucho más iluminadoras sobre el
problema de la inconmensurabilidad que las de otros estructuralistas más “ortodoxos”, como Balzer o Moulines. Por último, también quiero mencionar el hecho de que fijar nuestra atención directamente sobre las estructuras de las que hablan las teorías, más que sobre los enunciados de sus leyes, también facilita el darse cuenta de que las relaciones entre unos modelos y otros suelen ser de carácter intuitivo, más que formal, o al menos, las interconexiones formales son la expresión de aquellas relaciones intuitivas. Por
ejemplo, el hecho de que dos estructuras diferentes pertenezcan al mismo “tipo” de
sistemas, es algo de lo que no puede darse una prueba lógico-matemática, y en general depende de nuestras concepciones acerca de qué cosas son semejantes a cuáles. En esto
han insistido, por una parte, los estructuralistas, al presentar el “conjunto de aplicaciones propuestas de una teoría” como una entidad que sólo puede definirse en
sentido pragmático (es decir, ese conjunto contendrá lo que los científicos consideren que contiene, ni más ni menos), 53 o al definir el criterio de T-teoricidad mediante la referencia a procedimientos de medición tal como son usados por los científicos. Pero el autor que ha sacado un mayor provecho de esta idea, ha sido, en mi opinión, Ronald Giere, al considerar como un elemento esencial de la formulación de una teoría las relaciones de semejanza que permiten definir las familias de familias de modelos que constituyen la teoría. La principal diferencia en esta cuestión entre Giere y los
estructuralistas es que, al definir una “red teórica”, éstos introducirían los mencionados criterios pragmáticos (o “cognitivos”, como preferiría decir el primero) solamente en la identificación de los conjuntos de aplicaciones propuestas, mientras que Giere también
los incluye al definir lo que los estructuralistas llamarían el “núcleo” de cada “elemento teórico” de la red, en la medida en que los diversos “núcleos teóricos” están individualizados siguiendo criterios psicológicos de semejanza, no sólo basados en la
identidad formal de las ecuaciones de cada “núcleo”.
3.3. ¿Debe haber una conexión general entre modelos, leyes y teorías? En los últimos tiempos, varios autores dentro d e la “concepción semántica” han reconocido que una de las grandes ventajas del enfoque modelo-teórico es que permite reflejar el hecho de que una considerable proporción del trabajo de los científicos (posiblemente la mayor parte) no consiste en la elaboración de teorías, sino más bien en la construcción de modelos. 54 De hecho, en las últimas dos décadas hemos visto cómo el análisis de la elaboración de teorías perdía, entre los filósofos de la ciencia, buena parte del interés que tuvo anteriormente, y era el -digamos- “trabajo sucio” de los científicos el que cobraba más relevancia desde el punto de vista filosófico, es decir, la 52
V. esp. Pearce (1987). Aunque cabe plantearse si esta formulación no nos conduce al relativismo, o al menos, a hacer que las teorías carezcan de contenido empírico real, si sus aplicaciones propuestas son todas ell as “de quita y 53
pon”. 54
V., p. ej., Suppe (2000) y Da Costa y French (2000).
48
elaboración de modelos, relativamente independientes entre sí, que permitieran expresar coherentemente los datos empíricos. Un clarísimo antecedente de esta postura es ni más ni menos que el principal impulsor de la concepción semántica, Patrick Suppes, 55 quien, pese a sus decisivas contribuciones al análisis axiomático de las teorías (imprescindible para comprender el desarrollo posterior del estructuralismo), siempre ha insistido en la importancia de la elaboración y análisis de modelos empíricos en la ciencia, y ha reprochado a la mayoría de sus colegas por descuidar el estudio de esta parte tan fundamental de la investigación científica... ¡tan fundamental que en muchas ocasiones es casi la única! Este tipo de trabajos empíricos, alejados de la construcción de teorías, ha recibido también mucha atención por parte de los sociólogos de la ciencia, especialmente en lo que podemos denom inar “estudios de laboratorio”; desde las posiciones más relativistas se ha intentado mostrar que la poca importancia que se da en la práctica científica a la construcción de teorías es una muestra de que los ideales de objetividad y racionalidad defendidos por parte de muchos fílósofos no se corresponden
con la ciencia real, pero el hecho de que el “trabajo sucio” de los científicos pueda ser
reconstruído mediante el análisis de los modelos indica que tal conclusión es, por lo menos, excesivamente apresura da, pues no siempre hacen falta “teorías” para llevar a cabo una investigación racional. Otra cuestión directamente relacionada con la anterior es la progresiva pérdida
de confianza de los filósofos en las nociones de “ley científica” y de “ley natural”
(aunque no existe una opinión unánime sobre este problema). Tradicionalmente, se pensaba que las teorías científicas consistían en proposiciones acerca de cuáles eran las
“leyes” que obedecían ciertos fenómenos o ámbitos de la realidad; la verdad de las teorías equivaldría, así, a la validez de las leyes contenidas en ellas. El concepto de
“ley” ha sido atacado, de todas maneras, desde todos los frentes, y cada vez es más
común la opinión de que lo importante no es si los sistemas reales están efectivamente
“gobernados” por leyes, sean estrictas o indeterministas, sino, simplemente, si las
regularidades empíricas encontradas en los fenómenos pueden ajustarse lo suficientemente bien a ciertas ecuaciones, por ejemplo. Incluso algunos defensores de una interpretación realista del conocimiento científico afirman que las leyes científicas
“mienten”, por lo general, y que su valor principal no es, por tanto, el de describir el
auténtico funcionamiento de los sistemas, aunque pueda afirmarse razonablemente que existen aquellas entidades a las que se refieren las teorías con más éxito empírico. 56 Por
supuesto, el abandono de la noción de “ley” es más extremo todavía en los autores
antirrealistas, quienes han llegado incluso a negar que las leyes desempeñen algún papel en el plano epistemológico, ya que no lo tienen (según hemos visto que muchos afirman) en el ontológico. 57 La progresiva pérdida de importancia de la noción de ley científica, y el creciente interés de los filósofos en el trabajo que llevan a cabo los cient íficos “sin
(grandes) teorías”, han impulsado, en las últimas décadas, el desarrollo de muchos
enfoques destinados a explicar diversos conceptos que, de una u otra manera, tienen que ver con la idea de “afirmaciones inexactas”. El más viejo de estos proyec tos, el de la
lógica inductiva, conservaba, de todas formas, las nociones de “ley” y de “teoría” como
elemento básico de análisis (al fin y al cabo, eran dichas leyes las que deseábamos 55
V., p. ej., sus artículos recogidos en Suppes (1988). Cf., p. ej., Cartwright (1983), Hacking (1996) y Giere (1999). 57 Cf., p. ej., van Fraassen (1989). 56
49
confirmar inductivamente), y dejaba toda la “inexactitud” del lado de nuestro
conocimiento.58 La idea también está presente, por supuesto, en el desarrollo del programa de la verosimilitud, aunque también aquí se trata de una forma de análisis semántico de leyes y teorías. Salvo pocas excepciones, de todas formas, ambos enfoques, el de la lógica inductiva y el de la verosimilitud, han sido desarrollados sólo para ejemplos formales que, como mucho, llegan a ser reconstrucciones de regularidades cualitativas, o de leyes cuantitativas extraordinariamente simples; las excepciones, 59 de todas maneras, sólo son aplicables a leyes cuantitativas más o menos
“realistas”, es decir, semejantes a las utilizadas efectivamente en la ciencia, pero no a
teorías complejas como las reconstruidas por los estructuralistas, por ejemplo. La principal razón es que los enfoques de lógica inductiva y de verosimilitud no han sido desarrollados teniendo en cuenta un hecho fundamental que hemos comentados más arriba: el de que las teorías se aplican por lo común a conjuntos abiertos de sistemas reales, más que a una única estructura. Otros enfoques basados en la idea de que la
ciencia maneja sobre todo “afirmaciones inexactas” son las diversas teorías sobre el
problema de la idealización y la aproximación, así como algunas de las teorías que se han ocupado de analizar la naturaleza representacional de las hipótesis y modelos científicos. Sobre esta cuestión de la creciente importancia filosófica de los modelos por sí mismos, frente a las leyes y las teorías, hemos de hacer, no obstante, un par de comentarios críticos. Por una parte -aunque esto no deja de ser una cuestión terminológica- los “modelos”, “sistemas” o “estructuras” de los que hablan los defensores de la concepción semántica son, propiamente hablando, sistemas abstractos (es decir, entidades conjuntistas) que, en el mejor de los casos, representan sistemas efectivamente reales, sean éstos estructuras físicas o resúmenes de datos empíricos; considerar que estos sistemas abstractos eran relevantes para un análisis semántico de las teorías científicas estaba justificado porque tal análisis era coherente con el uso que se hacía de tales sistemas en la teoría de modelos. Pero un sistema abstracto es un
“modelo” sólo en el sentido de que puede establecerse un cierto tipo de morfismo entre
el sistema y cierto conjunto de enunciados, de los cuales se dice que aquel es un modelo. En la medida en que nos interesemos exclusivamente por aquellos sistemas, y
no los consideremos como “modelos de teorías (o leyes) científicas”, tendrá poco sentido denominarlos “modelos”. El verdadero problema semántico se trasladará, más
bien, al de qué justificación tenemos para considerar que un sistema matemático (al fin y al cabo, un conjunto ordenado de conjuntos, la mayoría de ellos compuestos a su vez por números y otros conjuntos) es una representación de un cierto sistema real (p. ej., el sistema solar, la economía española, etcétera). El segundo comentario es que, cuando los sociólogos y filósofos de la ciencia indican que la mayor parte del trabajo de los científicos consiste en la elaboración de modelos, más que en la construcción de teorías, en realidad pueden estar queriendo decir dos cosas diferentes, no necesariamente incompatibles entre sí, pero cuya confusión puede crear problemas. Por un lado, se trataría del hecho de que casi toda la actividad de los científicos consiste
en algo así como producir datos y “ensamblarlos” en un modelo, es decir, construir una 58
No así en los orígenes de la discusión sobre inducción y probabilidad entre los empiristas lógicos, quienes, en sus ímpetus más verificacionistas llegaron a identificar ese grado de confirmación con el valor de verdad de cada enunciado. Ni siquiera el joven Popper se libró de esta identificación en sus escritos anteriores a la Logik der Forschung . Cf. Coffa (1991). 59 Especialmente Kuipers (2000) y Kieseppä (1996).
50
estructura matemática relativamente sencilla en la que dichos datos “encajen”, y este “ensamblaje” muchas veces está guiado, más que por consideraciones teóricas (esto es,
derivadas formalmente de los principios de alguna teoría), por reglas de carácter más bien pragmático. Por otro lado, se trataría de que el conocimiento científico en un momento determinado consistiría, desde este punto de vista, en un conglomerado de modelos que sólo en los casos más afortunados muestran una interconexión teórica
profunda, pero que no serían necesariamente “ateóricos”, sino que más bien cada uno de esos modelos vendr ía a ser una “pequeña hipótesis” o “miniteoría” (“pequeña” en sentido de que posee un conjunto de aplicaciones empíricas reducido), a la que no habría por qué dejar de aplicar las técnicas de análisis semántico que se han
desarrollado para teorías “grandes”. En fin, los argumentos que se han presentado a favor de ambas posibilidades en la literatura sobre el tema hacen razonable pensar que, en realidad, la situación real en la ciencia es una combinación de ambas cosas. 60
4. LA TRADICIÓN SEMÁNTICA Y LOS ASPECTOS PRAGMÁTICOS DE LA CIENCIA. Este último apartado voy a dedicarlo, como decía, a ofrecer una visión crítica de la tradición semántica contrastándola con otros enfoques. La primera pregunta que debemos formularnos será, precisamente, la de cuáles son esos enfoques que quedarían
fuera de la tradición semántica. En las exposiciones habituales de la “concepción semántica de las teorías científicas” (o de la “concepción no enunciativa”) es habitual encontrar una contraposición entre dichas concepciones y una supuesta “concepción sintáctica” (o “concepción enunciativa”, respectivamente), que, según algunos autores, vendría a coincidir con la “concepción heredada”, esto es, con la visión elaborada por
Carnap, Hempel y sus seguidores. Ya he explicado más arriba por qué no me parece adecuada esta contraposición; baste ahora recordar que el mismo Carnap, al menos en sus obras posteriores a la segunda mitad de la década de los treinta, es ni más ni menos que el mismísimo introductor de la semántica formal en filosofía de la ciencia. Creo, en cambio, que es mucho más interesante contraponer la tradición semántica a aquellos estudios de metodología y epistemología que ponen el acento principal en los aspectos pragmáticos de la investigación científica, estudios que pueden agruparse, entonces, en
lo que denominaríamos “tradición pragmática” en filosofía de la ciencia, bien entendido
que el grado de unidad entre las teorías de los autores encuadrados en esta tradición es tan bajo como el que existe entre los propios miembros de la tradición semántica, si es que no más. La diferencia principal entre ambas tradiciones, si se nos permite representarla mediante algo así como un eslogan, sería que, mientras la tradición semántica considera que el problema fundamental de la filosofía de la ciencia es el de comprender la estructura y el contenido de las teorías científicas, para la tradición pragmática el problema más importante es el de comprender las decisiones de los científicos. Creo que estará claro que ambas cuestiones son realmente esenciales para una comprensión filosófica de la ciencia medianamente razonable, y, por supuesto, la mayoría de los autores se han ocupado de una u otra manera de ambos tipos de temas, aunque, en 60
V., p. ej., Redhead (1980), Downes (1992), Hugues (1997), Liu (1997) y (1998), y los artículos recogidos en Herfel (1996) y en Morgan y Morrison (1999).
51
general, poniendo el acento más en uno de ellos que en el otro. Dentro de la tradición pragmática existirían básicamente dos enfoques, que podemos denominar, muy grosso modo, “descriptivo” y “normativo”. El primero tendría como objetivo principal mostrar exactamente qué pautas de desarrollo han seguido el proceso de investigación científica y la evolución del conocimiento, intentando en la medida de lo posible ofrecer algún tipo de explicación de dichas pautas; para elaborar aquella descripción, la disciplina más importante sería la historia, o la sociología, más que la filosofía de la ciencia, mientras que para buscar esas explicaciones se acudiría, por lo general, a mecanismos de tipo psicológico o sociológico. Representantes destacados de este enfoque descriptivo serían, por ejemplo, Mary Hesse, Thomas Kuhn, David Bloor o Bruno Latour. El enfoque normativo hablaría también de las pautas del desarrollo de la ciencia, pero su principal interés a propósito de ellas sería, en cambio, ponerlas de manifiesto como patrones normativos que los procesos de investigación reales deberían obedecer si es que mediante ellos se pretende alcanzar eficazmente los fines de la ciencia; en la medida en que los científicos reales no hayan seguido dichas pautas, habrá sido por la influencia de los otros factores extracientíficos que de manera inevitable están presentes en la investigación. Algunos de los representantes más señalados del enfoque normativo serían Imre Lakatos, Larry Laudan o Philip Kitcher. Son estos dos grupos de autores los que, evidentemente, han estudiado con más detalle el desarrollo histórico de la ciencia, y en especial, las decisiones de los científicos de carne y hueso sobre qué teorías debían ser aceptadas de acuerdo con los datos y argumentos disponibles. Si los filósofos, sociólogos e historiadores que pueden agruparse dentro de la tradición pragmática se han ocupado a veces (como efectivamente lo han hecho) de los problemas relacionados con la estructura de las teorías, con la racionalidad de las inferencias, con el significado de los conceptos, etcétera, no lo han hecho tanto con el ánimo de desarrollar una teoría formal sobre dichos temas, como con la intención de buscar una elucidación aceptable de los procesos cognitivos o metodológicos que presuntamente constituyen el fundamento del funcionamiento real de la ciencia. Así, la teoría de Thomas Kuhn sobre los paradigmas, la teoría de Mary Hesse sobre la inferencia científica, la de Lakatos sobre los programas de investigación, o la de Kitcher sobre las prácticas individuales y colectivas, por poner sólo unos cuantos ejemplos, no deben ser tomadas como simples “remedos informales” de las sofisticadas estructuras lógico-matemáticas desarrolladas por Carnap, Niiniluoto o Sneed, sino como teorías con las que esos autores pretenden explicar por qué los científicos toman las decisiones que toman (teorías en las que, dicho sea de paso, se combinarían elementos descriptivos, causales y, frecuentemente, también normativos). Nuestra pregunta en este último apartado va a ser, precisamente, la de en qué medida las teorías formales sobre la estructura de la ciencia presentadas por los defensores de la concepción semántica permiten, si no ser convertidas directamente en una explicación sobre el funcionamiento real de la ciencia, sí, al menos, ser insertadas de forma coherente y razonable como un elemento básico (aunque no necesariamente único) de una tal explicación. En el caso de una respuesta afirmativa a esta pregunta, la siguiente cuestión será la de si la explicación así resultante sería mejor o peor que las que otros autores, dentro de la tradición pragmática, han ofrecido sin “soportar los
costes” de un excesivo formalismo. Obviamente, el espacio de este apartado no es
suficiente para responder estas dos cuestiones en referencia a todos y cada uno de los enfoques comprendidos en la tradición semántica, y mucho menos para compararlos con todos los de la tradición pragmática, así que no tenemos más remedio que 52
seleccionar algunas concepciones representativas. Comenzando por la que cronológicamente constituyó el primer intento sistemático de aplicar las herramientas de la semántica formal a la filosofía de la ciencia, esto es, la teoría carnapiana, hay que indicar antes que nada que seríamos muy injustos con Carnap si nos limitásemos a afirmar algo así como que su c oncepción de la ciencia “está muy alejada de la práctica
científica real”. Por una parte, es cierto que doctrinas como su lógica inductiva o su
análisis del significado de los términos científicos, son extraordinariamente abstractas, y difícilmente encontraremos algo en un artículo científico típico que podamos considerar
algo así como una “versión intuitiva” de aquellas doctrinas; pero, por otro lado, no hay
que olvidar que la intención básica de Carnap no era la de ofrecer una descripción empíricamente detallada de los procesos de la ciencia, sino más bien investigar las, digamos, condiciones lógicas de posibilidad del conocimiento científico (p. ej., ¿cómo es posible que las teorías científicas digan algo sobre el mundo, y no sean verdaderas o falsas solamente por convención?, ¿cómo es posible justificar inductivamente una afirmación sobre la realidad?, ¿cómo se justifica el papel de los razonamientos matemáticos en la ciencia empírica?, etcétera). Esta tarea era considerada por Carnap y el resto de los positivistas lógicos como análoga a la que se había llevado (o se estaba llevando) a cabo en el terreno de las matemáticas desde finales del siglo XIX; en ambos casos se trataba de encontrar la fundamentación lógica del conocimiento: del conocimiento formal, en un caso, y del conocimiento empírico en el otro. La coherencia del enfoque de Carnap frente a ambas cuestiones se comprueba por el hecho de que, si en el caso de la metamatemática sus simpatías se dirigían hacia el logicismo de Frege y Russell, de acuerdo con el cual las verdades matemáticas son verdades lógicas (aunque algunas sean indemostrables), en el caso de la ciencia empírica todo enunciado debía ser, o bien lógicamente verdadero, o bien con condiciones de verdad empíricamente definibles (aunque posiblemente no verificables); es decir, todos los enunciados científicos pertenecerían a una de las dos categorías (lógicamente verdaderos, o
empíricos), y la “fundamentación del conocimiento” sería posible simplemente si
consiguiéramos especificar las condiciones de verificación de ambos tipos de enunciados, y los límites de dichas condiciones. Ante la crítica de que la especificación de estas condiciones nos deja todavía extraordinariamente lejos de comprender los vericuetos de la práctica científica real, la respuesta de Carnap podría haber sido, me parece, la de que exactamente igual de lejos está, por ejemplo, el descubrimiento de la estructura del ADN del conocimiento de los procesos físico-quimicos que permiten al organismo autoconstruirse a partir d e la “información” contenida en sus genes; no porque esta distancia sea gigantesca deja de tener una importancia fundamental el
conocimiento de la “doble hélice”. La única crítica legítima al programa de Carnap
consistiría en mostrar, por lo tanto, o bien que no es posible derivar, con un esfuerzo razonable, una explicación detallada de los procesos de investigación científica y las teorías reales a partir del análisis carnapiano de la semántica del lenguaje científico y de la lógica inductiva, o bien que estos análisis son fundamentalmente erróneos desde el punto de vista filosófico. La mayoría de las críticas recibidas por Carnap (y en general, por los positivistas lógicos) corresponderían al segundo tipo, aunque en el primero podríamos encuadrar, tal vez, los comentarios de los estructuralistas, sobre todo Stegmüller (1981): según estos autores, un análisis de los conceptos científicos y de la estructura de las teorías, posiblemente tan productivo desde el punto de vista epistemológico como el de Carnap, pero mucho más rápido para conectar con la estructura de la ciencia real, sería el derivado de las contribuciones de Suppes y Sneed. 53
Estoy básicamente de acuerdo con esta última afirmación, en cuanto se refiere a la comparación con el enfoque de Carnap, pero como veremos un poco más adelante, mi opinión sobre la relevancia del estructuralismo para el análisis pragmático de la ciencia no es del todo positiva. Algo parecido a lo que hemos afirmado acerca de Carnap es lo que podemos decir sobre la teoría de otro representante destacado de la tradición semántica, en este caso Niiniluoto. Tanto en sus contribuciones de juventud al tema de la lógica inductiva como en su muy sofisticada concepción de la verosimilitud, el autor finés no pretende
ofrecer una “reconstrucción” de teorías o problemas científicos concretos, sino más bien
desarrollar una estructura abstracta que pueda servir como fundamentación conceptual a ciertas visiones filosóficas sobre el conocimiento científico, aunque, al contrario que en el caso de Carnap, esta concepción no sería empirista sino realista. También en un espíritu menos carnapiano, el objetivo de Niiniluoto no es tanto el de intentar demostrar que esa concepción es la única razonable, sino, sobre todo, defender su coherencia interna frente a las críticas que el realismo ha recibido por parte de numerosos autores. Desde mi punto de vista, en los aspectos esenciales de esta tarea Niiniluoto ha alcanzado un éxito notable, sobre todo gracias a una serie de argumentos convincentes para justificar el empleo de lenguajes formales en la elucidación de muchos problemas filosóficos. Por ejemplo, el problema de la inconmensurabilidad sería abordado mediante la especificación de vocabularios o postulados de significación distintos; el problema del “realismo metafísico” lo respondería indicando que la elección de un
lenguaje (y, por lo tanto, de un “marco conceptual”) es totalmente arbitraria, aunque lo
que ya no lo es de ninguna manera es la determinación de qué enunciados son verdaderos una vez que el lenguaje ha sido elegido; el problema de la necesidad física exigiría sencillamente utilizar un lenguaje con operadores modales, etcétera, etcétera. Como logro principal del enfoque de Niiniluoto destaca, en mi opinión, la demostración de que el concepto semántico de “aproximación a la verdad completa”, e incluso los conceptos epistémicos de “grado estimado de verosimilitud”, “grado probable de
verosimilitud”, y otros relacionados, pueden ser definidos de manera autoconsistente,
una vez que las cuestiones anteriores han sido resueltas mediante la elección de un lenguaje apropiado. En cambio, como ya he indicado en otros lugares, 61 la teoría de Niiniluoto se limita a justificar el realismo crítico mostrando que es una concepción coherente (lo que no está mal, por supuesto), pero cuenta con pocos instrumentos para poder siquiera discutir si la práctica científica real se ajusta o no a lo que el realismo crítico podría sugerir. Mejor parada sale en este sentido una teoría de la verosimilitud formalmente muy diferente, como es la de Theo Kuipers, quien ha conseguido ofrecer una justificación de ciertas pautas metodológicas comunes en la investigación científica (como el uso del método hipotético-deductivo, o el método de la idealizaciónconcretización) al mostrar que constituyen instrumentos eficaces en la búsqueda de teorías progresivamente más cercanas a la verdad, entendida ésta como el verdadero conjunto de sistemas físicos posibles. Además, su propia noción de verosimilitud y el uso que hace de la teoría de la confirmación inductiva son notablemente más simples, desde el punto de vista formal, que los de Niiniluoto, razón por la que es más defendible la hipótesis de que dichas herramientas filosóficas constituyen reconstrucciones (simplificadas e idealizadas, sí, pero también razonablemente aproximadas) de los procesos epistémicos que tienen lugar realmente en los procesos de investigación. En 61
V. especialmente Zamora Bonilla (2000).
54
todo caso, los desarrollos de Kuipers y sus colaboradores, pese a contar con una importante batería de casos de estudio, sólo llegan a tocar tangencialmente los problemas sobre la pragmática de la ciencia, a no ser que interpretemos tales desarrollos como una teoría normativa acerca de cuáles deberían ser las características básicas del método científico, lo que, por otro lado, no deja de ser legítimo; en este último sentido, la teoría del autor holandés iría incluso más allá de la que vamos a comentar a continuación (el estructuralismo), aunque sería más pobre que esta concepción en su capacidad descriptiva de la práctica científica. En relación con la visión de las teorías científicas derivada del trabajo de Joseph Sneed, hay que decir en primer lugar que, al contrario que los enfoques previamente comentados, sus defensores han intentado casi desde el principio que dicha visión fuera iluminadora de los aspectos pragmáticos del desarrollo de la ciencia sacados a la luz por autores como Kuhn o Lakatos, por ejemplo. Así, la mitad de una de las primeras exposiciones del estructuralismo (el libro de Wolfgang Stegmüller Estructura y dinámica de teorías) está dedicada a presentar una “reconstrucción” de ciertos aspectos
“kuhnianos” de la ciencia, tarea que siguió en obras posteriores, tanto por parte de Stegmüller, como, sobre todo, de Ulises Moulines. Así, la noción de “paradigma” es interpretada como un mecanismo de caracterización del “conjunto de aplicaciones propuestas” de una teoría; la misma noción de “paradigma”, en su sentido más análogo al concepto lakatosiano de “programa de investigación”, se interpreta como el desar rollo de una red teórica; la “resistencia de las teorías frente a las falsaciones” se explica -poco convincentemente, desde mi punto de vista- como una consecuencia de
que las teorías no son “realmente” sistemas de enunciados sino estructuras matemáticas, carentes de valor de verdad; la “carga teórica de la observación” se reinterpreta afirmado que los términos no-T- teóricos de una teoría T pueden ser T’ -teóricos con respecto a alguna teoría T’ “de más bajo nivel”; las cuestiones relacionadas con el “holismo” se hacen depender del hecho de que lo que una teoría afirma sobre la realidad solamente puede expresarse mediante un único enunciado “comprensivo”, y no
mediante la conjunción de múltiples enunciados independientes; etcétera. El propio Thomas Kuhn dio su placet poco después a dicha reconstrucción (cf. Kuhn (1976)), lo que les valió inmediatamente una fuerte reprimenda por parte de un empedernido antireconstruccionista como Paul Feyerabend (cf. Feyerabend (1976b)). En mi opinión, la mayoría de las intuiciones estructuralistas sobre los problemas mencionados son válidas, y posiblemente deben contarse entre las respuestas más serias a dichas cuestiones, pero esto sólo es así por lo que hace a los problemas más directamente epistemológicos sugeridos por la “revuelta historicista” en la filosofía de la ciencia de los años sesenta (cf. arriba, capítulo I). En cambio, las afirmaciones de estos autores sobre las ideas más propiamente pragmáticas (e inclusive metodológicas) surgidas de dicha “revuelta” dejan basta nte que desear, y dan la impresión de ser, como mucho, meras transcripciones de algunos eslóganes kuhnianos al lenguaje de la teoría de conjuntos, aptas sólo para el consumo de quienes consideran que todo lo que no sea expresado en ese lenguaje no merece la pena de discutirse. 62 Por ejemplo, la “definición conjuntista” del concepto de paradigma que se ofrece en Moulines (1982), p. 283, y las 62
Tiendo a pensar que la verdadera motivación de estas afirmaciones era la de mostrar a los filósofos,
sociólogos o historiadores de la ciencia “antiformalistas” que incluso lo que ellos afirmaban podía ser expresado mediante la teoría de conjuntos. Si esta interpretación es correcta, entonces no habría que tomar esas reconstrucciones más que como una especie de broma.
55
“definiciones” de otros conceptos relacionados, en las páginas anteriores, no aportan
realmente nada que no se pueda conseguir con una reformulación de esas definiciones en lenguaje natural (es decir, no permiten inferir a partir de ellas ningún teorema interesante y sorprendente), y son, en cambio, bastante más difíciles de entender para quienes no tienen la suerte de ser hablantes nativos del conjuntés. En realidad, todas las definiciones estructuralistas de conceptos pragmáticos están basadas en conceptos primitivos para los que estos autores se niegan a ofrecer una
explicación; así, por ejemplo, el concepto de “aceptar una teoría”, o “aplicación bien confirmada”, o “aplicación paradigmática”, o “comunidad científica”. Es cierto que
todos estos conceptos presuponen elementos de tipo cognitivo e intencional, y que, desgraciadamente, hay pocas teorías científicas (esto es, psicológicas o sociológicas, no filosóficas) sobre este tipo de factores, que se encuentren relativamente bien desarrolladas desde el punto de vista formal y bien confirmadas desde el punto de vista empírico, y cuya reconstrucción estructural pudiera utilizarse como un paso previo para elaborar una reconstrucción interesante del proceso de investigación científica. Pero, a falta de esas herramientas previas, creo que los estructuralistas harían bien en no pretender que la transcripción de dichos conceptos al lenguaje de la teoría de conjuntos sirve para esclarecerlos en alguna medida. 63 De hecho, pienso que harían aún muchísimo mejor si intentaran desarrollar esas teorías cognitivas y sociológicas formales que se necesitan para una comprensión cabal del proceso de desarrollo de la ciencia en términos estructuralistas. Una cuestión cuya ausencia en los principales textos del estructuralismo me parece especialmente grave es el análisis de qué condiciones deben darse (o se dan) para que una teoría se considere “bien confirmada”; es decir, la cuestión de cómo se evalúan las teorías científicas. Carnap, Niiniluoto y Kuipers, al menos, han presentado sendas hipótesis acerca de este problema, como hemos visto, aunque, sobre todo en el caso de los dos primeros, con difícil aplicación a la práctica científica real. Pero los estructuralistas han solido ignorar la cuestión, al menos hasta los últimos años. Una meritoria excepción es la obra Structuralist Theory of Science. Focal Issues, New Results, editada por Balzer y Moulines en 1996, pero,
curiosamente, las aportaciones “nuevas” que se presentan en dicha obra en el sentido indicado constituyen en su mayor parte meras “importaciones” desde otras ramas de la
tradición semántica: así, los dos capítulos sobre aspectos metodológicos están a cargo de Theo Kuipers (quien, obviamente, introduce su teoría de la verosimilitud, bien que en ortodoxos términos estructuralistas) y de Matti Sintonen (quien sugiere aplicar el modelo interrogativo de investigación de Hintikka); el capítulo de Werner Diederich prácticamente se limita a resumir las contribuciones estructuralistas anteriores sobre aspectos pragmáticos de la ciencia, y finalmente, el capítulo de Bernhard Lauth sobre confirmación y contrastación viene a ser poco más que una claudicación ante el enfoque carnapiano, al demostrar, como sus principales resultados, primero, que al fin y al cabo
también puede definirse una medida de “grado de confirmación” en el espacio lógico de
las teorías desarrollado por los estructuralistas, y segundo, que cuando la cantidad de información empírica disponible tiende a infinito, el grado de confirmación de la teoría correcta tenderá a uno (resultado este último cuya utilidad desde el punto de vista pragmático no deja de ser dudosa para aquellos seres que, como nosotros, no suelen 63
Una tal estrategia de silencio sobre las cuestiones pragmáticas es la que (tal vez más sabiamente) han seguido otros autores dentro de la concepción semántica, como van Fraassen, Suppe, o los miembros de las escuelas polaca e italiana.
56
tender a infinito; parafraseando a John M. Keynes, podríamos decir que, “cuando t , todos estaremos muertos”). Por mi parte, en el capítulo VII ofrezco una posible vía
alternativa para analizar la contrastación empírica de las teorías en el marco del estructuralismo. También he argumentado en otros lugares que una teoría de la verosimilitud como la que presento en el capítulo V puede ser aplicada a la concepción estructural de las teorías científicas. 64 Por último, entr e los autores encuadrados en la llamada “concepción semántica”, el que ha ofrecido una elucidación más interesante de los aspectos pragmáticos de la investigación científica ha sido, en mi opinión, Ronald Giere. Para este autor, los dos problemas más importantes de la filosofía de la ciencia son el de la naturaleza de las teorías científicas y el de los mecanismos de elección de teoría, aspecto este último que, como hemos visto, ha tendido a ser dejado de lado por muchos otros enfoques dentro de la tradición semántica, al menos en comparación con el esfuerzo dedicado a analizar la primera cuestión. La concepción de Giere me parece particularmente atractiva justo por el hecho de poner en pie de igualdad ambos problemas, y por intentar ofrecer, en cierta medida, una explicación relativamente unificada de los dos. Por desgracia para la tradición semántica, el vínculo de unión que Giere establece entre la cuestión de la naturaleza de las teorías y el problema de la elección de teoría tiene realmente poco que ver con su filiación en el marco de dicha tradición, y mucho más con su carácter de
representante del “naturalismo científico” (cf. cap. III). De hecho, si podemos
considerar a Giere como un miembro destacado de la concepción semántica es porque explícitamente describe las teorías científicas como “familias de modelos” (familias que Giere describe, además, como entidades con un notable parecido a la noción
estructuralista de “red teórica”), junto con una “hipótesis de aplicabilidad” que afirma
que ciertas estructuras reales son semejantes a aquellos modelos (de forma muy análoga
también a las versiones sneediana o vanfraaseniana de la “aserción empírica” de una
teoría). Pero Giere insiste también en que las relaciones epistemológicamente interesantes que se establecen entre unos modelos y otros, dentro de las citadas familias, vienen determinadas más por vínculos de tipo psicológico (es decir, cognitivo) que por relaciones meramente formales (relaciones éstas cuya existencia y relevancia Giere no niega, por supuesto); la relación más importante es, seguramente, la de similaridad entre unas estructuras y otras, la cual no puede ser reducida, al menos en la práctica, a ningún tipo de equivalencia formal. Las teorías son, así, entidades abiertas, de las que pueden existir muchas versiones distintas (no siempre compatibles entre sí), y cuyas características peculiares, en cada caso, dependerán en buena medida de los intereses y de los recursos cognitivos de los científicos o filósofos que las hayan desarrollado. Con respecto a la cuestión de la elección de teoría, Giere también utiliza un modelo psicologista (en este caso, la teoría de la racionalidad limitada, de Herbert Simon), tanto para explicar de qué modo toman los científicos la decisión de qué teoría elegir, como para analizar la cuestión de qué propiedades es de esperar que tengan las teorías seleccionadas de esa manera. Estas reflexiones de Giere están ya bastante alejadas, empero, de los aspectos fundamentales de la concepción semántica de las teorías científicas, y entran plenamente en una de las corrientes más poderosas de la tradición pragmática, como es el naturalismo científico, que será objeto del próximo capítulo. Esta corriente, el naturalismo, a pesar de ser bastante internamente heterogénea, me parece considerablemente más relevante en sus análisis de los problemas pragmáticos 64
Zamora Bonilla (1996b).
57
de la ciencia. Que el naturalismo y la concepción semántica no son incompatibles lo demuestra la propia existencia de la teoría de Ronald Giere, la cual me parece, por esta razón, un punto de partida muy interesante para analizar lo que ambas corrientes pueden aportar la una a la otra. Por otro lado, hay que recordar también que los propios estructuralistas han indicado en numerosas ocasiones que el análisis que ellos llevan a cabo de las teorías científicas no es en realidad un mero análisis “filosófico”, sino que lo que pretenden elaborar es más bien una teoría empírica sobre la ciencia, una expresión que todos los naturalistas suscribirían gustosos. Que la “teoría” desarrollada por los estructuralistas sea relativamente pobre desde el punto de vista de la explicación del funcionamiento interno de la ciencia es algo que puede sin duda alguna lamentarse, pero creo en todo caso que es mejor estrategia intentar construir una teoría más completa. Un posible punto de contacto entre ambas tradiciones, que menciono brevemente en la
última lección del tema, es lo que podemos denominar “fundamentación pragmática de la semántica de las teorías científicas”: de acuerdo con varios de los enfoq ues más
aceptados hoy en día en la filosofía del lenguaje, los hechos y propiedades semánticos no son primarios en relación con los aspectos pragmáticos (como tampoco son primarios los aspectos sintácticos del lenguaje), sino que, en todo caso, la semántica y la
sintaxis “responden” a las necesidades pragmáticas de los usuarios del lenguaje. Mi
hipótesis, que desarrollo más por extenso en el capítulo VII, es que si consiguiéramos mostrar razonablemente esta naturaleza pragmática-en-el-fondo de los conceptos semánticos utilizados habitualmente en el análisis de las teorías científicas, la conexión de la tradición semántica con la tradición pragmática ocurriría de manera mucho más fácil y natural que lo que hemos ido comprobando a lo largo de este apartado.
58
Capítulo III NATURALISMO AL NATURAL
59
1. EL NATURALISMO EN FILOSOFÍA DE LA CIENCIA. Una de las corrientes 65 más pujantes en la filosofía de la ciencia de los últimos años ha sido el llamado “naturalismo científico”, entre cuyos representantes más importantes podemos mencionar a autores como Dennet, Giere, Hooker, Hull, Kitcher o Laudan. En nuestro país, esta corriente ha captado también la atención de un número considerable de filósofos y propiciado la publicación de varias obras interesantes. 66 Puesto que existen ya buenas presentaciones de las principales tesis y planteamientos metodológicos del naturalismo, mi objetivo en este capítulo no es el de ofrecer un panorama, ni siquiera parcial, del enfoque, sino analizar desde un punto de vista crítico dos de las contribuciones más importantes a esta corriente: las teorías de Ronald Giere y Philip Kitcher, que son, además, quienes ofrecen una versión del naturalismo científico más favorable para la interpretación realista y racionalista de la ciencia. Así, tras una breve discusión introductoria sobre los rasgos fundamentales del naturalismo, dedicaré la sección segunda a ofrecer un esquema de las teorías de Giere y Kitcher, mientras que en la tercera y última sección llevaré a cabo una comparación crítica de ambas, basándome en tres cuestiones fundamentales desde la perspectiva del naturalismo: la idea de que la evolución de la
ciencia es “darwiniana”, el uso de modelos cognitivos en filosofía de la ciencia, y una reflexión sobre la “tesis de la simetría”, propuesta por los defensores del “Programa Fuerte”, pero que es legítimamente aplicable al propio naturalismo.
En cuanto a la caracterización del naturalismo en filosofía de la ciencia, podemos definirlo como la tesis según la cual la ciencia debe ser estudiada como cualquier otro fenómeno empírico (o “natural”, si entendemos este término muy grosso modo, que incluye también las realidades humanas), es decir, utilizando los métodos de las ciencias empíricas y echando mano de los conocimientos científicos más fiables entre los que sean relevantes para la solución de algún problema filosófico sobre la ciencia. La aplicación de esta tesis significa renunciar a una de las posturas más arraigadas sobre la epistemología, y que podemos retrotraer hasta la concepción aristotélica de la lógica, cuando menos: la idea de que el conocimiento del método científico debe ser obtenido a priori, como una propedéutica que sería necesario poseer antes de empezar a buscar conocimientos específicos sobre la realidad. Según los naturalistas, en cambio, el conocimiento sobre la
ciencia no estaría a un nivel “superior” al de los propios conocimientos científicos, sino
que debería ser exactamente del mismo tipo que éstos. Las principales diferencias entre unos autores y otros dentro del naturalismo se referirían a qué ciencia empírica en particular (p. ej., la psicología, la biología, la sociología, la historia, etcétera) se considera más relevante a la hora de explicar la actividad y el conocimiento científicos. Las principales dificultades conceptuales a las que se enfrenta el programa del naturalismo son el problema de la circularidad y el de la normatividad . El primero de estos problemas consiste en que el naturalismo parece presuponer la validez de aquello mismo que pretende explicar y juzgar, a saber, los métodos y conocimientos científicos. El hecho 65
Una versión anterior de este texto ha sido publicada en Revista de Filosofían nº 24, 2000. Véase, sobre todo, Ambrogi (1999). Las dos principales obras que comento en este capítulo son Giere (1998) y Kitcher (2001). Otro destacado representante de la corriente naturalista es Larry Laudan; v., sobre todo, Laudan (1993) y González (1998). 66
60
de que aquí existe un círculo es algo difícil de negar, y la respuesta de los naturalistas viene a ser que otros enfoques alternativos no salen mejor parados al enfrentarse a esta misma dificultad: por ejemplo, el apriorismo (que defendería la necesidad de partir de fundamentos no empíricos, y absolutamente ciertos, en el análisis de la ciencia) no ha conseguido ofrecer argumentos convincentes sobre cuáles pueden ser esos fundamentos a priori del método y del conocimiento científicos, ni sobre cómo es posible que nuestros cerebros de sangre y seso consigan aprehender sin error tales fundamentos y aplicarlos, mientras que el relativismo (que asumiría con satisfacción la carencia total de fundamentos) no ha conseguido ofrecer una explicación mínimamente satisfactoria de los éxitos de la ciencia. El naturalismo argüiría, en cambio, que, a falta de apoyos absolutos, no hay más remedio que basarse en los conocimientos más fiables que tengamos a nuestra disposición, mientras sean útiles; y además, podemos añadir, si se consigue dar una explicación científica del funcionamiento de la ciencia, esto mostrará al menos la coherencia interna de la propia actitud científica. El problema de la normatividad, por su parte, consiste en señalar que, si el naturalismo se limita a describir y explicar el funcionamiento de la ciencia, sus resultados no podrán en ningún caso indicarnos cómo deben comportarse los científicos, o si sus decisiones han sido racionales (o “correctas”), o qué reglas metodológicas son válidas. Si
el naturalismo intentase hacer tal cosa, cometería precisamente la “falacia naturalista”: derivar un “deber” a partir de un “ser”. Los naturalistas se defienden de esta crítica
argumentando que sólo a través del estudio empírico de la ciencia, de la psicología y de la naturaleza es posible descubrir cuáles son, por un lado, los fines que de hecho persiguen los científicos, y cuál es, por otro lado, la eficiencia esperable de cada método que se
utilice para conseguirlos; si las normas se entienden, pues, como “imperativos hipotéticos”,
esto es, como enunciados sobre la eficiencia relativa de los diversos cursos de acción que un científico puede seguir en un momento determinado, entonces no sólo no es problemático el buscar estas normas empíricamente, sino que esa sería la única forma razonable de hacerlo, como, según vimos en el capítulo primero, ha defendido también Larry Laudan.
2. LAS TEORÍAS DE GIERE Y DE KITCHER. Dentro de los enfoques naturalistas, las teorías de Ronald Giere y Philip Kitcher destacan por su compromiso con la interpretación realista del conocimiento científico, con
el individualismo metodológico (en el sentido de que las características “sociales” de la
ciencia deberían explicarse a partir de las decisiones de los científicos individuales) y con un temperado racionalismo (en el sentido de que intentan ofrecer una justificación de la objetividad de los métodos y conocimientos científicos). Vamos a ver de forma esquemática cuáles son las tesis principales de ambos autores.
2.1. Representaciones y juicios en la teoría de Giere. Giere interpreta el naturalismo básicamente como el intento de explicar las decisiones de los científicos a partir del supuesto de que éstos son agentes con determinadas capacidades psíquicas, lo que le lleva a utilizar modelos de explicación procedentes de la psicología. En particular, Giere supone que el cognitivismo es la teoría más útil y fiable para cumplir con esta tarea. Desde este punto de vista, los dos problemas centrales en una teoría sobre la investigación científica -que, según este autor, son el de la 61
naturaleza de naturaleza de las teorías y el de la elección de elección de teoría-, son reinterpretados por Giere como problemas problemas psicoló psicológico gicos, s, más que como como cuestione cuestioness lógicas lógicas (lo que había hecho hecho la filosofía filosofía de la ciencia tradicional). El primer problema se reduciría a la pregunta de qué tipo de “mapas cognitivos” son las teorías científicas , mientras que el segundo podría expresarse como el de qué mecanismos de decisión emplean los científicos al elegir una teoría. teoría.
Con respecto a la primera cuestión, hay que aclarar que la expresión “mapa cognitivo” se refiere a unas entidades hipotéticas, postuladas por el cognitivismo, y que
existirían en los cerebros de, por lo menos, todos los animales superiores; se trata de representaciones del representaciones del entorno (incluyendo, a veces, al propio sujeto), cuya manipulación
permite a los animales animales “solucionar” ciertos problemas. problemas. La postulación de estos “mapas”
sería la diferencia más notable entre el cognitivismo y el conductismo. Obviamente, los seres humanos también poseerían tales mapas cognitivos, sólo que por lo general mucho más sofisticados que en otros animales, y contando con la posibilidad de externalizarlos mediante diagramas, palabras u otros símbolos. Más específicamente, las teorías científicas consistirían en familias de “modelos” (y, a menudo, en familias de tales familias), siendo cada uno de estos modelos un mapa cognitivo individualizado, que representaría un tipo de situación posible. Estos modelos contienen por lo general elementos no-lingüísticos (p. ej., visuales), aparte de los elementos lingüísticos (es decir, conceptuales) considerados tradicionalmente, y están relacionados entre sí, dentro de una teoría, por ciertos vínculos vínculos cognitivos, de entre los que el más importante es el de semejanza respecto a un modelo “típico” de cada familia. A su vez, cada modelo o familia de modelos puede llevar asociada una hipótesis de aplicabilidad , que afirmaría
que aquel “mapa cognitivo” es más o menos semejante a algún sistema o tipo de
sistemas existente en la realidad. A partir de esta descripción de las teorías científicas, Giere deduce varias
consecuencias. En primer lugar, de una “misma” teoría pueden existir múltiples versiones distintas, dependiendo, sobre todo, de los “modelos típicos” y “criterios de semejanza” que cada científico tome como prioritarios (esto dependerá de la enseñanza
recibida, de los intereses investigadores, de las aplicaciones previstas, del estilo cognitivo de cada uno, etc.). Segundo, incluso una sola versión de una teoría es una entidad abierta: abierta: siempre pueden modificarse sus modelos, añadírsele otros nuevos, cambiar las hipótesis de aplicabilidad, etcétera. Tercero, las teorías no pueden axiomatizarse, axiomatizarse, salvo de forma trivial (los axiomas serían las definiciones de cada modelo, y los teoremas estarían referidos sólo a uno o varios modelos, siendo aplicables sólo a algunos sistemas reales). En cuarto lugar, las teorías no se refieren a leyes naturales, naturales, es decir, principios que se aplicarían de forma exacta a todo un dominio de
sistemas (o al “universo”), y que, en caso de existir, serían el correlato real de los
axiomas de las teorías. Finalmente, a pesar de todo es posible defender una interpretación realista realista de las teorías científicas, tanto en el sentido de que su finalidad es describir aproximadamente el verdadero funcionamiento de los sistemas realmente existentes, en general inobservables, como en el sentido de que las estrategias de los científicos han conseguido de hecho un notable grado de progreso en progreso en la consecución de esa finalidad. Con respecto a la segunda cuestión (la de cómo eligen los científicos las teorías más apropiadas), Giere comienza criticando el modelo apriorista más común en la filosofía anglosajona actual, el bayesianismo, bayesianismo , que podemos considerar como la parte epistémica de la teoría estándar de la elección racional. Según este enfoque, la racionalidad científica consistiría en la capacidad de evaluar el grado de probabilidad que cada hipótesis teórica posee dada la evidencia empírica disponible en cada momento; una 62
vez estimada dicha probabilidad por cada científico, éstos no tendrían necesidad de “escoger” entre todas las teorías posibles, sino que se limitarían a reconocer el grado de probabilidad probabilidad de cada una. Los principales principales inconvenientes inconvenientes del bayesianismo bayesianismo son, según Giere, los tres siguientes: a) los seres humanos son bastante ineficientes al manejar probabilidades probabilidades condicionadas condicionadas (p. ej., la probabilidad probabilidad de una causa conocidos conocidos algunos efectos), como queda de manifiesto en múltiples experimentos psicológicos; b) cada científico puede otorgar un grado de probabilidad distinto a las mismas teorías basándose en la misma evidencia empírica; y c) en la práctica, los científicos seleccionan teorías, seleccionan teorías, en vez de limitarse a otorgarles grados de probabilidad.
Giere propone utilizar, en lugar del bayesianismo, la teoría de la “racionalidad limitada” de Herbert Simon, según la cual los sujetos no toman sus decisiones
maximizando una función de utilidad, sino aplicando criterios de decisión parciales e imperfectos (en el sentido de que no garantizan obtener el resultado óptimo), si bien tienen la ventaja de no requerir una capacidad cognitiva extraordinaria; si con estos criterios no se logra obte ner ningún resultado satisfactorio, el sujeto disminuirá su “nivel
de aspiración”, y lo incrementará si se encuentran muchas decisiones satisfactorias
demasiado pronto. Con este modelo en mente, nuestro autor representa la decisión de adoptar una u otra te oría del siguiente modo: para un científico “de mente abierta” será satisfactorio adoptar una teoría correcta, e insatisfactorio adoptar una incorrecta; si los
científicos siguen la regla de “elegir aquella teoría que haga mejores predicciones”
(como de hecho lo hacen, según argumenta nuestro autor), entonces, si entre las teorías propuestas hay alguna alguna correcta, ésta ésta será la que los científicos científicos elijan normalmente, normalmente, y, y, por lo tanto, la regla es razonable en el sentido de que el hecho de seguirla garantiza que los científicos se encontrarán en una situación satisfactoria más a menudo que en una situación insatisfactoria. De este modo, la estrategia seguida por los científicos es racional , no en el sentido fuerte de que con ella se asegure la maximización de una cierta función de utilidad (que, podemos añadir, tampoco estaría claro cuál debería ser), sino en el sentido más débil de que se trata de una estrategia que, por lo general, conduce a los científicos a resultados razonablemente aceptables.
2.2. Prácticas, progreso y método en la teoría de Kitcher. Nuestro segundo autor comienza indicando indicando que, si queremos desarrollar desarrollar una descripción lo más teoría empírica de la ciencia, debemos comenzar ofreciendo una descripción detallada del estado de una disciplina; tal descripción debería especificar todos los estados mentales, acciones y capacidades de cada uno de sus miembros. Esto, por
supuesto, no es realizabe ni útil; Kitcher elige, pues, dos posibles “niveles de agregación” para simplificar la descripción del estado de una ciencia. El primero de ellos
es lo que denomina “práctica individual” , que contiene, respecto a un individuo y en un momento determinado: a) el lenguaje que lenguaje que usa en su trabajo profesional; b) las preguntas preguntas que identifica identifica como como problemas significativos significativos;; c) los enunciados (diagramas, etc.) que acepta como respuestas respuestas adecuadas a algunos de algunos de esos problemas; d) los patrones de razonamiento que acepta como esquemas explicativos válidos, válidos, y, finalmente, e) los criterios y ejemplos estándar de fuentes de información fiables fiables (métodos empíricos, informes de colegas y esquemas de razonamiento -no explicativos-). 63
A su vez, el otro nivel de agregación es la “práctica consensual” de una comunidad científica, que, en un momento determinado, contendrá: a) para cada elemento de la lista anterior, la intersección de intersección de los correspondientes a cada miembro de la comunidad; b) diversos factores sociales relativos relativos a la organización organización de la comunidad (por ejemplo, relaciones con otras comunidades, relaciones de autoridad o división en subcomunidades), y c) un consenso virtual derivado derivado de todo lo anterior, que indica aquel cuerpo de conocimientos en los que todos los miembros de la comunidad están de acuerdo implícitamente si implícitamente si utilizan debidamente los criterios referidos en el apartado e) de la lista
anterior, y que, por su inmenso volumen, no existe, ni puede existir, “en la cabeza” de
cada científico; éste es seguramente el elemento más importante, pues constituye la
verdadera descripción del “el estado de los conocimientos en un campo determinado”.
fines, que Además de todos estos elementos, cada científico tendrá ciertos fines, determinarán sus decisiones y afectarán a algunos elementos de sus prácticas individuales. Kitcher distingue fines epistémicos frente a no-epistémicos, y personales
frente a impersonales o “colectivos”.
Las prácticas individuales, y con ellas las colectivas, pueden cambiar a través de dos tipos de procesos diferentes, que Kitcher denomina “encuentros con la naturaleza” (observaciones y razonamientos “en solitario”) , y “conversaciones con los colegas”.
Esta distinción no presupone la existencia de algo así como “datos empíricos infalibles”, pues el resultado resultado de los “encuentros “encuentros con la naturaleza” naturaleza” está determinado determinado por el estado
cognitivo previo del científico, que a su vez depende parcialmente de sus interacciones sociales anteriores. Una vez hechas estas distinciones, el problema metodológico fundamental, para Kitcher, será el de cómo puede conducir la evolución de las prácticas consensuales a un progreso cognitivo. cognitivo. Para responder esta pregunta es necesario definir la noción de progreso y analizar analizar los métodos que métodos que permitirán realizarlo. Pues bien, según nuestro autor el progreso cognitivo consiste en obtener un conocimiento cada vez más preciso de las auténticas clases naturales, naturales, y de las auténticas relaciones de dependencia dependencia entre unos tipos de acontecimientos y otros. Podemos distinguir: a) Progreso conceptual : consiste en el cambio del lenguaje, abandonando términos que no se referían a ninguna clase natural, añadiendo términos que se refieren a clases no especificadas antes, o mejorando los modos de especificación de las clases ya identificadas. explicativo: se consigue eliminando algún esquema explicativo b) Progreso explicativo: incorrecto, añadiendo alguno correcto, o refinando o extendiendo correctamente algún esquema anterior. c) Progreso c) Progreso erotético: erotético: consiste en la mejora de nuestra capacidad de plantear (y responder correctamente) preguntas genuinamente significativas (es decir, aquellas que presuponen presuponen esquemas esquemas explicativos explicativos correctos). correctos). Kitcher distingue entre preguntas de aplicación (extensión aplicación (extensión de un esquema) y preguntas de presuposición (hechos presuposición (hechos que deben darse si el esquema es válido; p. ej., si las radiaciones electromagnéticas son vibraciones de un éter, ¿cuáles deben ser las propiedades de este éter?); también distingue entre preguntas significativas significativas primarias y derivadas (aquellas que es necesario necesario responder para poder responder responder luego otras; p. ej., para calcular el diámetro de la tierra, Eratóstenes Eratóstenes hubo de calcular primero el ángulo con que se proyectaban los rayos del sol en el cénit en dos lugares alejados). 64
c) Progreso instrumental : consiste en las modificaciones de las técnicas empíricas y de cálculo, o de la organización social de la ciencia, que facilitan alguno de los otros tipos de progreso. Como puede verse, todas estas definiciones presuponen la existencia de algunas categorías conceptuales adecuadas, esquemas explicativos correctos y enunciados verdaderos (o, al menos, de algunos elementos de este tipo más correctos que otros
alternativos). El principal argumento que presenta Kitcher para “rehabilitar” la noción de verdad va dirigido especialmente contra la llamada “inducción pesimista” (un argumento
desarrollado por Laudan, entre otros), que afirma que casi todas las teorías que en su día fueron exitosas (p. ej., la astronomía de Ptolomeo, la teoría del calórico, la teoría del éter electromagnético, etc.) han terminado siendo abandonadas, y mostrándose que sus términos centrales no poseían referencia real. A esta generalización histórica podemos oponerle, según Kitcher, una “inducción optimista”, según la cual las teorías del pasado parecen, en general, aproximaciones sucesivas a la descripción del mundo que ofrecen las teorías actuales (p. ej., la teoría de Newton ofrece una visión del universo más parecida a la que tenemos hoy en día que la de Copérnico, y ésta que la de Ptolomeo), mientras casi todas las entidades eliminadas de las teorías pasadas eran precisamente las menos funcionales (p. ej., lo importante de la teoría de Maxwell eran las ecuaciones del campo electromagnético, no la suposición de que las ondas se transmitían en un éter). Por último, con respecto a los procedimientos para llevar a cabo efectivamente un progreso cognitivo, Kitcher presenta especialmente éstos: a) Técnicas de observación: éstas nos permiten observar algo real cuando somos
capaces de mostrar, mediante ellas, un “virtuosismo” discriminatorio y predictivo sobre
observaciones realizadas independientemente; hay que destacar el hecho de que no es preciso, para ello, poseer una teoría que explique cómo funcionan esas técnicas. b) Inducción eliminativa: el “conocimiento de fondo” permite normalmente reducir a un pequeño número el conjunto de hipótesis alternativas razonables; con este pequeño conjunto puede mostrarse, en los casos favorables, que los datos empíricos son inconsistentes con todas aquellas hipótesis salvo con una, que será, por tanto, verdadera, si el “conocimiento de fondo” lo es. Este método tiene el problema de que al u tilizarlo se presupone que el conocimiento de fondo es correcto y que, por lo tanto, no hay teorías alternativas inexploradas. c) Árboles de escape: cuando un científico se ve llevado a aceptar dos enunciados contradictorios, va seleccionando cada uno de los enunciados de los que ha derivado alguno de los primeros, y va examinando las pérdidas explicativas que implicaría la eliminación o sustitución de cada uno de los segundos; por último, elige aquella opción cuyas pérdidas asociadas son menores. Si todas las opciones tienen un coste excesivo, se explora la posibilidad de modificar algún elemento más básico: el lenguaje, los esquemas explicativos, las técnicas de observación, etc. Este método tiene el problema, no obstante de que es difícil, si no imposible, saber si se han agotado realmente todas las posibilidades de modificación de aquellos elementos básicos. d) Diseño de la organización social de la ciencia: distintos tipos de organización pueden hacer que el grado de progreso cognitivo sea mayor o menor. Por ejemplo, si se permite que cada científico elija la teoría que más le interese, entonces una comunidad formada por científicos motivados por intereses personales puede ser, en ciertas circunstancias, más eficaz en la consecución de los fines epistémicos colectivos que otra forma por individuos motivados sólo por intereses epistémicos: estos últimos aceptarían siempre, según Kitcher, la teoría mejor confirmada, mientras que algunos de los movidos 65
por el reconocimiento pueden aceptar trabajar con teorías peor confirmadas (si la menor competencia que existe entre quienes trabajan con ellas compensa la menor probabilidad
de éxito); en este caso, el “egoísmo” favorece la exploración de muchas vías de
investigación, cuyo éxito futuro es poco probable pero no imposible. A este argumento
podríamos responder que, si la comunidad “altruista” sabe esto, siempre puede decidir imitar las decisiones de los “egoístas”, con lo que la primera comunidad no podría ser
nunca peor, epistémicamente, que la segunda. Todos estos métodos (salvo los del último tipo) son ilustrados por Kitcher con abundantes casos históricos que intentan mostrar que, lejos de tratarse de meros ejercicios de lógica, semántica o epistemología formal, aquellas estrategias metodológicas son plenamente factibles y, en muchos casos, exitosas. En resumen, Kitcher pretende convencer a sus lectores (y en esto coincide con Giere) de que, si se nos permite la expresión, bajando los fines tradicionales de la ciencia (el conocimiento objetivo de la realidad) a la altura de los científicos de carne y hueso, existen estrategias que permiten alcanzar esos fines de forma relativamente satisfactoria.
3. APUNTES PARA UNA COMPARACIÓN CRÍTICA. En esta última sección del capítulo no ofreceré una comparación punto por punto de las teorías de Giere y Kitcher, sino que plantearé tres perspectivas bajo las que dichas teorías muestran algunas de sus facetas más relevantes desde el punto de vista filosófico, aunque también pueden mostrarse, como comprobaremos, más bien como debilidades de aquellas teorías. Se trata de tres perspectivas fundamentales para un planteamiento naturalista del estudio de la ciencia: la primera de ellas (la evolución de la ciencia como un proceso darwiniano), porque el paradigma evolutivo es en el que se concretan de modo predilecto los enfoques naturalistas; la segunda ( el uso de modelos cognitivos), porque es especialmente empleada por nuestros dos autores como marca distintiva frente a otros naturalismos, y la tercera ( la racionalidad y el principio de simetría), porque permite contrastar los planteamientos de Giere y Kitcher con otros enfoques más radicales.
3.1. La evolución de la ciencia como un proceso darwiniano. Que el desarrollo del conocimiento científico es un proceso evolutivo ha sido supuesto por numerosos filósofos, entre los que podemos destacar a Popper y a Toulmin, pero han sido los naturalistas los que han intentado desarrollar de forma más explícita la idea de que dicho proceso evolutivo sigue una pauta darwiniana. Un modelo darwiniano de evolución se caracteriza por poseer tres mecanismos: uno de variación (que hace que los individuos de una misma población difieran entre sí y de sus progenitores), uno de selección (que hace que no todos los individuos tengan las mismas probabilidades de tener descendencia) y, finalmente, uno de transmisión (que explica la forma como los genes pasan de una generación a otra). Con respecto a la variación, tanto Giere como Kitcher, y en general los naturalistas, piensan que la existencia de variabilidad en la ciencia, tanto a nivel de hipótesis o teorías, como a nivel de las estrategias metodológicas usadas por cada investigador, no sólo es inevitable (por los distintos “recursos cognitivos” que posee cada científico, dependiendo sobre todo de sus azares biográficos), sino que también es beneficiosa, porque en la mente de un solo científico no “cabe” todo el conocimiento 66
generado en su disciplina (con lo que en la mente de cada uno debe haber contenidos parcialmente distintos), y también porque la variabilidad es la que hace posible la adaptación a situaciones nuevas. Es interesante comparar la actitud del naturalismo ante la variabilidad con la mostrada por otros enfoques; por ejemplo, para el empirismo lógico y sus descendientes inmediatos, la variación (el hecho de que dos científicos tengan ideas distintas) equivaldría, bien a un error (pues, si esas ideas son contradictorias, alguna debe ser falsa), bien a la ignorancia (cuando la diferencia se debe a que uno de los científicos no posee ninguna respuesta a un problema, y los otros sí). El falsacionismo, en cambio, bendecía la existencia de variación, pero la limitaba a la necesidad de inventar continuamente hipótesis nuevas, mientras que no aceptaba ninguna variabilidad en cuanto a la metodología que debe usarse en la investigación, a saber, el método de las conjeturas y los intentos de refutación. Finalmente, el anarquismo de Feyerabend admite y aplaude también la proliferación de teorías y de metodologías, pero, al contrario que los naturalistas, no señala ningún criterio por el que seleccionar las “mejores” teorías y métodos. Ahora bien, la persistencia de la variabilidad en una población (ya sea ésta biológica o científica) es siempre algo difícil de explicar desde una perspectiva seleccionista, como es la darwiniana, pues ¿no deberían dejar de darse las variedades
“menos eficientes” una vez que el mecanismo de selección ha operado? La teoría
sintética de la evolución consigue dar cuenta de esta posible anomalía acudiendo a las leyes de Mendel y a la existencia de mutaciones, pero no está muy claro qué explicación podría ofrecerse en el caso de la evolución de las ideas científicas. El problema, para
expresarlo brevemente, es éste: ¿cómo puede un científico poseer “recursos cognitivos”
distintos a los de sus colegas, si estos recursos son, al fin y al cabo, ideas o técnicas que han debido ser seleccionadas en algún momento anterior, es decir, si los recursos alternativos a aquéllos, y que eran menos eficientes, han debido ser ya eliminados? Aunque Giere y Kitcher no ofrecen ninguna respuesta explícitamente a esta cuestión, creo que es posible ofrecer algunos argumentos que ellos seguramente podrían aceptar. Por ejemplo, la diferencia entre los recursos cognitivos poseídos por cada científico podría deberse simplemente a que ningún individuo puede poseer él solo todos los recursos necesarios, y entonces cada uno tiene, por lo general, sólo un subconjunto de los recursos pertinentes para resolver un problema; esto apoyaría la necesidad de cooperación entre científicos con recursos complementarios. En segundo lugar, el mecanismo selectivo podría ir reduciendo, para cada problema, los tipos de soluciones aceptables, pero los científicos podrían desarrollar variedades diferentes de solución dentro de un mismo tipo. Una tercera respuesta podría ser que el mecanismo de selección no elimina necesariamente todas las variedades competidoras, exactamente igual que en el proceso de evolución biológica: recuérdese lo que dijimos al final del apartado anterior, sobre que algunos científicos pueden encontrar interesante defender teorías
“peor confirmadas”. Creo que las dos primeras respuestas serían más coherentes con la
concepción de Giere, mientras que la tercera la apoyaría Kitcher en mayor medida. Con respecto al mecanismo de selección, Giere y Kitcher están de acuerdo en que el más importante es la eliminación de alternativas por el peso acumulado de los argumentos empíricos, aunque, como veremos, existe una importante discrepancia en cuanto al modo más adecuado de llevar a cabo dicha eliminación. Si comparamos de nuevo esta idea con otros enfoques, podemos señalar que, para el constructivismo social, el peso de los factores empíricos no es el más determinante, y las teorías seleccionadas 67
socialmente no muestran ninguna tendencia a ser objetivamente más válidas que las competidoras; por su parte, para los empiristas, las teorías seleccionadas no tendrían por qué corresponderse con la realidad, al menos en sus aspectos inobservables. La principal diferencia entre Giere y Kitcher a propósito del mecanismo de selección radica en la importancia del criterio del éxito predictivo. Kitcher es quien, en particular, argumenta que dicho criterio, aunque útil, no es determinante. La razón que da es la siguiente: si usamo s la experiencia para “eliminar hipótesis alternativas”, no es sólo porque gracias a ella podamos refutar algunas hipótesis efectivamente propuestas, sino porque debe servirnos también para eliminar, en la medida de lo posible, todas las hipótesis concebibles (lo que Kitcher denomina “dudas residuales” sobre la corrección de la hipótesis mejor confirmada). Al eliminar estas dudas, hemos de considerar dos
escenarios; en el primero, nuestro “conocimiento de fondo” nos indica que el espacio de
hipótesis alternativas estudiadas es completo, y en ese caso basta con que todas menos una hayan sido refutadas por la experiencia para que la superviviente sea aceptada como verdadera, aunque ésta no haga predicciones “asombrosas”; en el segundo escenario, es razonable pensar que hay muchas hipótesis alternativas no consideradas, y entonces las
“dudas residuales” pueden reducirse de dos modos: con éxitos predictivos nuevos y sorprendentes (que eliminan “de un golpe” todas las hipótesis imaginables que sean
inconsistentes con la predicción), o bien con la acumulación de casos confirmatorios (pues si alguna hipótesis ignorada fuera correcta, probablemente algunos de esos casos tendrían que refutar la hipótesis que tenemos). La primera de estas dos últimas estrategias sería más habitual en las ciencias experimentales, mientras que la segunda lo sería en las ciencias más basadas en la observación. Una posible crítica al mecanismo de selección propuesto por Giere y Kitcher sería que, en el fondo, no es coherente con la idea de una “selección natural ”, puesto que
el criterio de elección de teorías es intencional, y no la operación de un “relojero ciego”.
Dicho de otro modo, la imagen que se nos ofrece de la evolución de la ciencia sería más lamarckiana que darwiniana. Esta crítica, empero, creo que estaría fuera de lugar, pues la
teoría de Darwin muestra precisamente que el “criterio” de selección en la naturaleza es
precisamente el mismo que en la selección artificial de variedades de seres vivos, a saber, la diferenciación en el éxito reproductivo. Los criadores de caballos de carreras no hacen correr mucho a los padres para que tengan hijos más veloces (lo que sería un criterio de selección lamarckiano), sino que se limitan a favorecer la reproducción de los especímenes más rápidos; es cierto que la finalidad de la cría es artificial, en el sentido de que es la que es porque es la deseada por los criadores, y no la determinada por el
“ecosistema natural” de los caballos (pero, ¿acaso no pertenecen los fines lúdicos y
económicos de los criadores al ecosistema natural de los caballos de carreras, si dichos fines son también un resultado de la selección natural?; igualmente, ¿no puede haber sido inscrito en nuestro cerebro, mediante la selección natural, el deseo de poseer “mapas cognitivos” fiables?). Ahora bien, de aquí no se sigue que no pueda existir un progreso bien definido hacia la consecución de esa finalidad. Del mismo modo, también es cierto que el objetivo que persiguen los científicos (la representación de la realidad, si hacemos
caso a Giere y Kitcher) es un objetivo “artificial”, pero nuestros autores argumentan
coherentemente que las estrategias metodológicas de los científicos permiten seleccionar aquellas teorías que suponen un progreso hacia aquel objetivo. Finalmente, Giere y Kitcher sólo mencionan muy de pasada los posibles mecanismos de transmisión de las ideas científicas, en especial, el aprendizaje, pero, a pesar de su silencio, aquí también se plantean problemas filosóficos interesantes. Por 68
ejemplo, ¿por qué a ceptan los científicos “perdedores” transmitir, es decir, enseñar , las
ideas de los “ganadores”, en lugar de transmitir las suyas propias?; ¿y por qué “aceptan”
los estudiantes las teorías que se les enseñan? Con respecto a esta última cuestión, parece que debería transmitirse también, junto con dichas ideas, algún “vestigio” del proceso de
selección que las convirtió en “ganadoras”, pero, como han mostrado los historiadores de la ciencia, este “vestigio” más bien suele falsear la verdadera evolución de dicho
proceso. Sería interesante estudiar cómo afectan a la evolución del conocimiento científico estos y otros problemas sobre susmecanismos de transmisión.
3.2. El uso de modelos cognitivos. Posiblemente, la crítica más severa que han recibido los enfoques de Giere y Kitcher es la de que, a pesar de intentar basarse en una descripción y una explicación empíricas del funcionamiento de las actividades cognitivas que entran en juego en el proceso de la ciencia, el lector de las obras de ambos autores encuentra en ellas bastante poca investigación psicológica genuina, y sí muchas discusiones tradicionales sobre la verdad, el realismo, el progreso y la racionalidad, revestidas meramente con un nuevo lenguaje psicologista. La ausencia de un estudio empírico mínimamente serio de los procesos cognitivos de los científicos es más notable en Kitcher, donde, como ha señalado Miriam Solomon (de forma tal vez exagerada), las nociones centrales de “práctica individual” y “práctica consensual” escasamente contienen elemen tos realmente “prácticos”. 67 Como hemos visto, Giere sí se molesta en formular una buena parte de su teoría en términos de la psicología cognitiva, pero creo que puede mostrarse que el uso que hace de esta disciplina es notablemente superficial, y, en algunos casos, incluso erróneo.
En particular, cuando Giere presenta su modelo de “matriz de decisión” del científico, las casillas de esta matriz están formadas por la combinación de un “estado del mundo” (p. ej., “la teoría A es correcta”) y de una estrategi a por parte del científico (p. ej., “aceptar A”). Posteriormente se establece una distinción entre las casillas “satisfactorias” para el científico y las “insatisfactorias”. Pero, en buenos térmicos psicológicos, sólo tiene sentido considerar “satisfactorio” o “insatisfactorio” algo que
pueda ser experimentado como tal por el sujeto, mientras que, por la propia construcción del argumento de Giere, los científicos ignoran cuál es el verdadero estado del mundo, y por lo tanto, no saben si se encuentran en una casilla o en otra. Por otro lado, el objeto sobre el que se mide el grado de satisfacción debe ser un acontecimiento que es en alguna medida causado por la decisión tomada por el sujeto. Así pues, para que el modelo tuviese una mayor validez empírica, ser ía necesario que los “estados del mundo” fueran substituídos por alternativas más fácilmente identificables por los científicos; por ejemplo, en lugar de “la teoría A es correcta”, una alternativa relevante podría ser “la teoría A ha seguido haciendo predi cciones correctas”, o bien “la teoría A ha sido aceptada
por una eleveda proporción de científicos”. Desgraciadamente para el proyecto de Giere, la primera opción convertiría en indistinguible su propio enfoque de uno instrumentalista (pues, ¿en qué se dis tinguiría un científico que busca “descripciones correctas de la
realidad” de uno que se limita a buscar “hipótesis cuyas predicciones se cumplen en la mayor medida posible”?), mientras que la segunda sería mucho menos cognitivista que
sociologista (pues lo que le interesaría al científico no sería tanto hallar una teoría correcta cuanto una teoría que sea finalmente aceptada por sus colegas). 67
Solomon (1995).
69
Con respecto a su discusión sobre la naturaleza de las teorías científicas, Giere las
presenta por un lado como “mapas cognitivos”, tal como hemos visto, pero por otro lado añade que dichas teorías vienen acompañadas por “hipótesis de aplicabilidad”. Cabe preguntarse por la naturaleza psicológica de esta “hipótesis”: ¿es ella misma un “mapa cognitivo”?, ¿o acaso las a firmaciones con contenido proposicional no son ellas mismas representaciones posibles de la realidad? Pero, si la hipótesis ( H ) de que “cierta porción de la realidad se asemeja a una cierta representación ( R)” es ella misma una
representación, y si todas las representaciones van acompañadas de hipótesis sobre su aplicabilidad, entonces, también debería haber una hipótesis ( H’ ) según la cual “ H se
asemeja más o menos a una parte de la realidad”, y así sucesivamente. Creo que este
problema debería ser aclarado por cualquier explicación naturalista del conocimiento en general, y del conocimiento científico en particular.
3.3. La racionalidad y el principio de simetría.
El llamado “principio de simetría” fue propuesto por los sociólogos encuadrados en el “Programa Fuerte”, y particularmente por David Bloor. Dicho principio afirma que las creencias “racionales” o “verdaderas” deben ser explicadas según el mismo tipo de procesos causales que las “irracionales” o “falsas” (véase más abajo, cap. VI). Si bien esta tesis tiene su origen en una escuela sociológica, creo que podemos llegar a considerarla incluso como una definición del propio naturalismo, si entendemos éste como el intento de ofrecer una explicación natural del conocimiento científico, una explicación bajo la cual deberían caer todas las teorías, no sólo las que ahora consideramos más aceptables. Ahora bien, algunos autores (sobre todo los de la corriente constructivista; v. cap. VI) han derivado de este principio la conclusión de que no hay ninguna diferencia epistémica intrínseca entre ambos tipos de creencia, sino que los
términos “verdadero” y “falso”, o “racional” e “irracional”, son meramente calificativos con los que mostramos nuestro acuerdo o desacuerdo con un enunciado. Esta conclusión, no obstante, hace difícil comprender el sentido de una frase como “estoy seguro de que
alguna de mis creencias es falsa”.
Según Giere y Kitcher, si las creencias son en el fondo estados cognitivos de
nuestro cerebro, y si existen ciertas interacciones causales “naturales” entre esos estados
y la naturaleza que nos rodea, entonces no hay razón alguna por la que no pueda existir entre ambas cosas (los estados mentales, por un lado, y la naturaleza, por otro) alguna relación de correspondencia (según Kitcher) o de semejanza (según Giere) a partir de la cual podamos definir la adecuación de nuestras creencias. Al fin y al cabo, los mapas cognitivos de los animales superiores pueden ser, en cuanto representaciones, más o menos adecuados, incrementando, cuando lo son, las posibilidades de supervivencia de esos animales; estos mapas se generan por un proceso completamente natural, que
también produce a veces mapas cognitivos “defectuosos”, conduciendo a la muerte al
animal que tiene la mala suerte de llevarlos en su cerebro. Una vez definida la adecuación de una creencia o mapa cognitivo, es fácil definir la racionalidad epistémica, como el uso de aquellos procedimientos de adquisición o cambio de creencias que suelen generar estados cognitivos “adecuados”. Esta estrategi a para definir la racionalidad es perfectamente coherente, me parece, con el principio de simetría, pues con ella las creencias racionales y las irracionales se explican con el mismo tipo de causas: la interacción causal entre nuestros estados cognitivos y la naturaleza, y el uso de algún procedimiento de modificación de estados cognitivos. La estrategia, por otro lado, puede servir como apoyo de la interpretación realista de las 70
teorías científicas, pues la explicación que el realismo ofrece del origen de nuestras creencias perceptivas y del éxito de nuestras teorías (básicamente, que nuestras creencias dependen de nuestra interacción con un entorno independiente de ellas, y que las teorías con un elevado éxito empírico lo tienen porque describen acertadamente algunos aspectos relevantes de ese entorno), esta explicación, decía, es coherente con nuestro conocimiento empírico del funcionamiento del psiquismo humano. Esto no lo consiguen, en cambio, ni el constructivismo social ni el empirismo instrumentalista. La primera teoría se enfrenta al siguiente problema: imaginemos dos grupos de investigación en química que son idénticos desde el punto de vista de sus características sociales, y a los que se les dieran a analizar sustancias distintas; ¿llegarían ambos grupos al mismo resultado? Tendría que ser así si las creencias sólo dependieran de las relaciones sociales entre los investigadores. Con respecto al empirismo, el criterio instrumentalista de selección de teorías explica por qué elegimos teorías con un elevado éxito empírico, pero deja como un dato sin explicación posible el hecho de que algunas teorías hayan alcanzado tanto éxito empírico. La conclusión de Giere y Kitcher es, por lo tanto, que una concepción naturalista de la ciencia no sólo no es incompatible con el realismo (como habían defendido otros autores, por ejemplo, Laudan), sino que es precisamente el
realismo la interpretación más razonable del éxito de ese proceso “natural” en el que la investigación científica consiste.
71
Segunda parte ¿SE PUEDE SABER A QUÉ ESTAMOS JUGANDO?
72
Capítulo IV CÓMO VERIFICAR TEORÍAS INVERIFICABLES
73
El siguiente texto68 es el fragmento más largo (y casi el único) que se conserva de una obra, al parecer notablemente extensa en su forma original, conocida a través de las citas como Summa logica de scientifica investigatione , que fue redactada al uso de las “sumas” escolásticas medievales. A falta de más datos biográficos, al autor se le
conoce como Carolus Raimundus Vindobonensis, oscuro monje benedictino del que poco se sabe, aparte de que su vida debió de transcurrir entre los reinos de Austria e Inglaterra durante el apogeo de la Era Etnológica.
SI LAS EMPÍRICAMENTE VERIFICABLES. QUAESTIO
XXI:
TEORÍAS
CIENTÍFICAS
SON
Problema: Parece que las teorías, leyes e hipótesis científicas no pueden ser verificadas empíricamente. En efecto, dos argumentos conducirían a esta conclusión. Primero: casi todas las teorías científicas se refieren a un dominio infinito o potencialmente ilimitado, en el espacio o en el tiempo, que no puede ser recorrido enteramente por la experiencia humana en un tiempo finito; cualquier verificación empírica sería siempre, por lo tanto, parcial, y además, al ser el dominio ilimitado, la probabilidad de que encontrásemos algún contraejemplo siempre es igual a uno, así que la probabilidad de que la teoría sea verdadera, bajo cualquier cantidad de casos verificadores, será siempre cero. Segundo: las teorías por sí solas no guardan una relación deductiva definida con ningún caso empírico singular, sino que la deducción de estos casos a partir de los axiomas de una teoría siempre está mediada por otras leyes, hipótesis y condiciones iniciales; de esta forma, incluso aunque todas las predicciones empíricas de la teoría se cumplieran, sería posible que los mecanismos reales por los que dichas predicciones se cumplen no sean precisamente aquellos que están supuestos por la teoría en cuestión. Es decir, una teoría podría ser falsa en sus afirmaciones sobre entidades inobservables aunque todas sus predicciones empíricas se verificaran. Pero contra ello está el hecho de que numerosos conocimientos científicos se
consideran completamente fuera de toda duda razonable (y, por lo tanto, “verificados”),
a pesar de que muchos de ellos hayan podido ser en su momento hipótesis muy contraintuitivas, como por ejemplo la (aproximada) esfericidad de la tierra, la composición celular de los seres vivos, la tabla periódica de los elementos y la composición de muchas sustancias químicas, la existencia de los átomos y sus componentes, numerosas leyes físicas experimentales, los valores aproximados de innumerables constantes naturales, etcétera, etcétera. Así, aunque la verificación empírica en sentido lógico sea (posiblemente) imposible, parece claro que en el curso de la investigación científica se lleva a cabo algún proceso que puede ser razonablemente
denominado “verificación”, al menos en sentido pragmático. Es necesario, pues, justificar cómo pueden haber sido “verificados” tales conocimientos. 68
Comunicación presentada al congreso “Ciencia, etica y metafísica. En el centenario de Karl Popper”,
Universidad Complutense, abril 2002. Otra versión ha sido publicada en Rivadulla (2004), pp. 319-326.
74
Respondo que debe decirse que la verificación (pragmática) de las teorías científicas es posible mediante cinco vías. Primera vía: El dominio semántico que poseemos de cualquier concepto empleado en el lenguaje cotidiano (p. ej., el concepto de “norte”), sólo podem os adquirirlo a través de la captación de una serie de regularidades en nuestra experiencia (en el ejemplo mencionado, serían las regularidades acerca de la estabilidad de ciertos accidentes geográficos y fenómenos astronómicos). Si dichas regularidades no nos resultaran accesibles de ninguna manera y en ningún grado, y si no pudiéramos observar todos los hablantes de una lengua aproximadamente las mismas regularidades relevantes, entonces nunca podríamos llegar a entender el significado de esos conceptos, ni a usarlos para comunicarnos de manera fluida con los demás, ni para razonar sobre nuestro comportamiento. Así pues, nuestro domino del lenguaje natural, o, dicho de otra forma, el hecho de que nuestras oraciones tengan en general un sentido lo suficientemente claro para los hablantes de nuestro lenguaje, presupone la capacidad de verificar a través de nuestra experiencia numerosos enunciados universales. Segunda vía: La investigación experimental proporciona directamente conocimientos que, desde el punto de vista de su forma lógica, son universales, y no sólo singulares. El resultado de un experimento es la existencia de una cierta conexión funcional entre varias variables. Aunque esto se lleva a cabo mediante un número finito de observaciones, el objetivo mismo del experimento es concluir que la existencia cierta regularidad no puede ser descartada, mientras que sí lo son todas las demás regularidades alternativas que podrían suceder en el caso que estamos examinando mediante ese experimento. En particular, intentamos extraer este tipo de conclusiones con el objeto de orientar nuestras acciones futuras, ya que si cualquier regularidad concebible fuese igualmente probable, nunca tendríamos una razón para preferir actuar de una manera en vez de otra. No haríamos experimentos ni observaciones sistemáticas si no esperásemos descubrir con ello algunas regularidades en nuestra experiencia. Al
hacer un experimento preguntamos a la naturaleza: “dadas estas circunstancias, ¿cómo ocurren las cosas siempre (o por lo general )?”. La naturaleza puede respondernos “así no”, “así tampoco”, o bien “unas veces ocurre de una manera, y otras veces de otra, aunque no te diré con qué frecuencia pasa cada cosa”, pero también puede respondernos “generalmente ocurre así” o “no des cartes que ocurra casi siempre así (y descarta cualquier otra respuesta)”.
De hecho, si la naturaleza no nos ofreciera precisamente este tipo de información lo suficientemente a menudo, entonces sería absurdo realizar experimentos y contrastar teorías mediante ellos, ni siquiera para intentar refutarlas. Supongamos que el resultado de un experimento o de una serie de observaciones (p. ej., la medición del punto de fusión de una determinada sustancia química) sólo pudiera tomarse como una afirmación acerca de casos concretos, y no como una “verificación” de un resultado general (por seguir el ejemplo, de la “ley” según la cual esa sustancia se funde siempre a esa temperatura -dadas ciertas circunstancias controlables-, y no sólo en los casos en los que lo hemos comprobado). Si esto fuera así, no podríamos tomar el resultado de que “el punto de fusión de la sustancia A es X” (dentro del margen de error ) como un posible enunciado refutador de una teoría de la que se dedujera que dicha temperatura debería ser Y ( X ), pues, en principio, cualquier número finito de casos en los que 75
observamos que la sustancia A se ha fundido a la temperatura X siempre podría ser objetado como una base empírica insuficiente para afirmar que efectivamente el punto de fusión es X. Dicho de otra manera, cuando refutamos una teoría lo hacemos mostrando que está en contradicción con algunos hechos generales, ¡no con algunas observaciones! Si no pudiéramos traducir nuestras observaciones y resultados experimentales a hechos generales, la contrastación de las teorías no podría siquiera tener lugar. Tercera vía: En la medida en que los científicos no están interesados simplemente en obtener conocimientos sobre la realidad, sino sobre todo el reconocimiento público de sus colegas por haber obtenido esos conocimientos, estos mismos investigadores pueden ponerse de acuerdo acerca de cuándo un experimento ha sido repetido un número de veces suficiente para dar por cierta, a efectos prácticos, la regularidad verificada por uno de ellos, regularidad que a su vez se podrá usar posteriormente para intentar verificar o refutar las hipótesis propuestas por otros científicos que compiten entre sí por el reconocimiento de haber logrado otros descubrimientos. Si aquella regularidad no pudiera ser verificada nunca, en este sentido
de “ser tomada como verificada”, ningún científico podría ganar en una competición, pues no habría ningún “hecho” que diera o quitara la razón a ninguno de los
competidores. O dicho de otra forma, si los científicos no investigaran de tal manera que, en ciertas circunstancias, un resultado debe darse por “verificado”, entonces ninguno estaría dispuesto a esforzarse por investigar, si su objetivo es alcanzar el reconocimiento de sus colegas, ya que sabría de antemano que éstos no iban a reconocer
nunca sus “descubrimientos” (siempre podrían decirle: aún no tenemos pruebas
suficientes de que tienes razón).
Ahora bien, ¿cuántas pruebas son “suficientes”? Si la regularidad pudiera darse
por verificada con sólo unas pocas observaciones a su favor, entonces un mismo experimento podría dar resultados distintos (ya que la variación de los resultados, cuando hay una verdadera regularidad subyacente, disminuye cuando aumenta el número de casos observados, y si no hay realmente ninguna regularidad que pueda ser descubierta en ese experimento, entonces habrá siempre una gran variedad de resultados); ese experimento ayudaría entonces a “confirmar” muchas teorías mutuamente contradictorias, con lo que ningún científico ganaría a sus competidores. Tampoco desearán los científicos que se establezca un número mínimo de observaciones confirmatorias demasiado alto para que la regularidad se pueda dar por aceptable, pues en ese caso sería muy difícil que se pudiera confirmar ninguna hipótesis sobre esa regularidad, y de nuevo tendríamos que ningún científico podría ser tomado como el vencedor en la competición. Así pues, el carácter competitivo de la investigación científica hace que los propios investigadores deseen formular algún estándar de verificabilidad para los resultados observacionales, que sirva como árbitro en la competición, y que no será ni demasiado débil, ni demasiado severo. Cuarta vía: De manera semejante, cuando lo que se trata de verificar o refutar no es una hipótesis sobre una regularidad específica, sino más bien una teoría general , aplicable a muchos fenómenos diferentes, los científicos también pueden ponerse de acuerdo en limitar el número de tipos de sistemas a los que puede aplicarse una teoría científica más abstracta, de tal modo que resulte posible examinarlos todos ellos para llegar a la conclusión de que la teoría se cumple en todos, o no. En defecto de esta 76
posibilidad (si la teoría por su propia naturaleza tiene un ámbito de aplicación indefinidamente amplio), los científicos pueden ponerse de acuerdo en establecer un conjunto limitado de fenómenos tal que, si la teoría es verificada en todos ellos,
entonces habrá que tomarla como “válida” (tal vez añadiendo: “salvo si alguien acierta a proponer una teoría que sea aún mejor”). A su vez, en cada uno de estos ámbitos de aplicación la teoría puede ser contrastada, generalmente, mediante la derivación de varias regularidades empíricas, no solamente de una, y los científicos pueden ponerse de acuerdo en fijar un número de regularidades tal que, si la teoría las predice al menos ese número correctamente (y ninguna incorrectamente), entonces deberá ser tomada
como “verificada” en ese ámbito de aplicación.
Dicho sea de paso: también pueden ponerse de acuerdo en que una teoría se tome obligatoriamente como “válida” aunque se sepa que algunas de sus predicciones han sido refutadas por la experiencia. A veces no podrían ni siquiera seguir abordando otras competiciones por conseguir nuevos descubrimientos si no lo hicieran así, pues las teorías que es obligatorio aceptar al hacer un trabajo de investigación son las que los científicos utilizan para juzgar si ese trabajo es aceptable o no. Esto quiere decir que, para que el juego de la ciencia sea posible, es mejor tener algunas reglas que fallen algunas veces, que no tener ninguna regla mediante la que juzgar colectivamente el mérito de cada uno, y esas reglas deben tomarse por verificadas. Quinta vía: Por último, tal vez una teoría científica (o una cierta creencia o actitud de un sujeto hacia ciertos hechos - p. ej., “¿es una daga eso que veo ante mí?” -)
no se corresponda con una proposición en un supuesto “mundo transcendente de los contenidos semánticos puros”, sino más bien con una cierta configuración de conexiones neuronales, posiblemente muy distintas en cada sujeto, e incluso en un
mismo sujeto en momentos distintos del tiempo. La “verdad” de esa configuración de
conexiones vendrá dada por su relación con otra configuración de conexiones neuronales, procedentes esta vez de forma más directa de los órganos sensoriales (-p. ej., las asociadas a mi percepción de una daga encima de mi mesa- ). La “verdad” constituiría, entonces, una cierta relación física entre dos configuraciones de intensidades sinápticas en dos zonas distintas del cerebro, y bastaría con constatar que
esa relación física se da, para “verificar” las teorías entendidas de esta manera. Dicho de otra manera: si en el fondo no existe algo así como los “contenidos proposicionales puros”, y nuestras creencias son sim plemente unos ciertos estados físico-químicos de
las neuronas de nuestros cerebros, entonces empieza a desdibujársenos la noción de “verdad” como una especie de correspondencia lógico -transcendental entre el pensamiento y la realidad. Ahora bien, sea esto como sea, es insensato poner en duda que algunas de nuestras creencias son verdaderas (por ejemplo, mi creencia de que estoy en Viena mientras escribo esto, mi creencia de que hay un libro abierto sobre la mesa que hay delante de mi, mi creencia de que ahora es de noche y de que está lloviendo, etcétera). A falta de una correspondencia lógica entre mi cerebro (o algunos estados de él) y el resto de la realidad (o una parte de ella), debe ser algún otro tipo de relación entre ambas cosas el que sea el responsable de que aquellas creencias sean verdaderas. Constatar la verdad de una afirmación será equivalente, pues, a constatar la existencia de ciertas relaciones entre nosotros y las demás cosas (es decir, la verdad de una hipótesis es un hecho físico), y por lo tanto no habrá más dificultades en establecer la verdad de una hipótesis que en establecer que se dá cualquier otro hecho físico. 77
Soluciones. A lo primero: Aunque nuestras observaciones son siempre limitadas en número, nuestras propias prácticas lingüísticas (y las no meramente lingüísticas) son imposibles sin la existencia de regularidades constatables empíricamente. Por supuesto, podemos estar equivocados al asumir algunas de estas regularidades, pero será sólo el descubrimiento de otras regularidades lo que pueda mostrarnos ese error. Ni siquiera podemos pensar que ciertas regularidades dejen de cumplirse (por ejemplo, ¿cómo podríamos llegar a darnos cuenta de que todo lo que hasta ahora hemos denominado “redondo” era en realidad cuadrado? Por otra parte, si repentinamente dejaran de cumplirse todas las regularidades, también nosotros dejaríamos de existir, sin que nos diera tiempo siquiera a darnos cuenta). Nuestro psiquismo funciona, por tanto, gracias a su capacidad para captar regularidades, y aunque algunas veces fracasemos al intentar identificarlas, no podemos fracasar sistemáticamente, al menos mientras sigamos siendo capaces de pensar. Pero esto sólo es posible si la identificación de una regularidad puede hacerse a partir de un número finito de observaciones. Así pues, la verificación práctica de una hipótesis universal no puede requerir un número infinito de casos observados. También es cierto que la distancia lógica entre las teorías abstractas y sus aplicaciones y predicciones empíricas es muy grande, pero decimos que las teorías (más
que las “leyes”, “efectos físicos” o “hechos generales”) son “verificadas” solamente en
un sentido subsidiario: son realmente esas aplicaciones las que se verifican. Por ejemplo, no es que “verifiquemos” la mecánica relativista, sino que decimos que todos los tipos de sistemas astronómicos que podemos concebir razonablemente, se comportan de acuerdo con las predicciones de aquella teoría. Ahora bien, las teorías abstractas pueden llegar a verificarse en sentido propio cuando pasan a ser aplicaciones empíricas de otras teorías más abstractas aún. Por ejemplo, la noción de sistema solar era parte de una teoría abstracta en siglo XVII, y en nuestros días es, en cambio, una mera aplicación empírica de la mecánica relativista. A lo segundo: También hay que reconocer que una teoría podría ser falsa aunque todas sus predicciones que han sido empíricamente contrastadas se cumplan, pues podrían cumplirse por un motivo distinto al que especifica la teoría. Pero, por un lado, la noción de verificación práctica que hemos empleado antes sirve ahora igual: lo que
queremos decir al afirmar que una teoría “ha sido verificada” no es que nuestras
observaciones demuestren indudablemente la verdad de esa teoría, sino que consideramos que tenemos suficientes argumentos como para aceptarla como verdadera. Estos argumentos pueden referirse tanto al número de casos favorables observados (y tal vez a su proporción con los casos desfavorables), como al número y la variedad de predicciones correctas que hemos hecho con la teoría. Por otro lado, la
diferencia entre lo “observable” y lo “inobservable” no es tajante, sino más bien gradual, y, como veíamos al final del párrafo anterior, lo que es “teórico” en un momento dado puede fácilmente c onvertirse en “observacional” más adelante, cuando
tenemos (de nuevo) suficientes argumentos empíricos para afirmar la verdad o la falsedad de diversas afirmaciones contingentes acerca de ello. Así, por ejemplo, afirmar que el contenido de cierto frasco es oxígeno en un 99,9 % puede ser muy bien el
resultado de una observación, pese a que el oxígeno como tal es “inobservable”, e
igualmente podemos verificar en sentido práctico que el agua está formada por dos volúmenes de hidrógeno y uno de oxígeno, aunque esta afirmación se refiere a una infinidad de casos que no hemos observado. 78
Capítulo V VEROSIMILITUD CON ROSTRO HUMANO
79
1. LOS INTERESES DE LOS CIENTÍFICOS Y LAS NORMAS METODOLÓGICAS. La moderna teoría de la verosimilitud, 69 iniciada por Karl Pop per en su artículo “La verdad, la racionalidad y el desarrollo del conocimiento científico”, 70 es una teoría sobre el objetivo de la ciencia: este objetivo consistiría en ir proponiendo teorías que cada vez estuvieran más “próximas” a la verdad completa sob re el asunto que nos interesara. En cambio, en un famoso artículo anterior en unos pocos años a la presentación de su teoría de la verosimilitud, titulado “El objetivo de la ciencia”, 71 Popper había indicado, medio de pasada, que la ciencia como tal no tení a “metas”, sino que, propiamente hablando, eran los científicos quienes las tenían, y que las metas de cada investigador no tenían por qué coincidir necesariamente con las de los demás. Pese a ello, Sir Karl defendía que, en la medida en que quisiéramos ha blar de “el objetivo de la ciencia”, éste consistiría en la resolución de problemas. Un lustro después este objetivo sería complementado, en el pensamiento de Popper, con el de la obtención de la máxima verosimilitud posible, como hemos visto. El desarrollo de la teoría de la verosimilitud por parte de otros autores, desde que a principios de los años setenta se comprobó que las definiciones de ese concepto ofrecidas por Popper eran defectuosas desde el punto de vista lógico, ha ignorado sistemáticamente el hecho, apuntado por el propio Sir Karl, e inmediatamente obviado por él, de que son los científicos individuales, y no “la ciencia”, quienes poseen metas. Así, la inmensa mayoría de las nuevas definiciones de verosimilitud ofrecidas en las últimas tres décadas han sido desarrolladas -y criticadas- desde la hipótesis de que estas definiciones podían reflejar una
meta “objetiva” de la investigación científica, sin plantearse en ningún momento la
cuestión de si a los propios investigadores de carne y hueso les interesaría personalmente perseguirla.72 En defensa de estos filósofos puede añadirse que exactamente el mismo problema encontramos en casi cualquier teoría alternativa acerca de la finalidad “cognitiva” de la ciencia, como el éxito explicativo, la unifi cación teórica, el grado de confirmación, etcétera. Mi intención en este capítulo es ofrecer y defender una hipótesis sobre la conexión
que puede existir entre la finalidad “cognitiva” de la ciencia (si es que algo así podemos
afirmar que existe) y los objetivos personales de los científicos, un supuesto que, en definitiva, me servirá para justificar la tesis de que una cierta noción de verosimilitud puede representar, mejor que otras ideas, los objetivos epistémicos de la investigación científica. Mi hipótesis comprende cuatro partes: 1) Supondré que los científicos poseen varias metas, tal vez rivales entre sí, en el sentido de que aquellas acciones que favorecen la consecución de una de esas metas pueden dificultar el conseguir las otras; estas metas implican un determinado esquema de preferencias, que podemos representar, en principio,
mediante lo que los economistas denominan una “función de utilidad”. 2) Entre estas 69
En este capítulo he utilizado fragmentos del artículo Zamora Bonilla (2002a). Algunas de las tesis las he defendido también en Zamora Bonilla (2002b). El título está obviamente inspirado en el de Putnam (1990). 70 Capítulo 10 de Popper (1962). 71 Publicado como capítulo 5 de Popper (1974). 72 Ver Zamora Bonilla (1996a).
80
metas habrá algunas que posean carácter epistémico (es decir, que consistirán en la obtención de teorías o proposiciones que sean lo mejor posible consideradas como conocimientos), aunque las de cada científico no sean idénticas necesariamente a las de sus colegas; los demás objetivos se referirán a lo que cada investigador pueda conseguir personalmente (reconocimiento, poder, dinero, etcétera). 3) El proceso de investigación científica sólo puede tener lugar si los investigadores se ponen de acuerdo previamente en ciertas normas -o “reglas metodológicas” - que permitan decidir públicamente, en un número suficiente de casos, cuáles son los científicos que han obtenido mejores resultados. Y finalmente, 4) al decidir si cada una de estas normas debe ser aceptada o no, los científicos en general ignoran cómo va a afectar la instauración de dicha norma a las teorías que cada uno de ellos vaya a formular en el futuro (es decir, las normas se elegirán
“tras el velo de la ignorancia”), y, por lo tanto, en el momento de tomar aquella decisión no
podrán hacer mucho por promover sus fines particulares, y sí, en cambio, por favorecer sus metas epistémicas. Tradicionalmente, las explicaciones filosóficas de la ciencia se han desarrollado bajo el supuesto tácito de que los científicos perseguían desinteresadamente valores puramente epistémicos, tales como la verdad, la certeza, la generalidad, etcétera. Es verdad que los sociólogos de la escuela de Merton habían destacado el hecho de que los científicos estaban primordialmente motivados por otros tipos de intereses, pero estos autores asumían que la ciencia estaba gobernada por ciertas normas no escritas que obligaban a los científicos a ignorar aquellas motivaciones personales o sociales, y a juzgar
“objetivamente” las teorías sólo por sus valores cognitivos, lo cual garantizaría que se
alcanzase una decisión unánime sobre la aceptabilidad de cada teoría, incluso por parte de aquellos científicos que habían propuesto las teorías que finalmente serían rechazadas. Esta visión utópica sobre los mecanismos del consenso científico fue desafiada a partir de los años setenta por los sociólogos del llamado “Programa Fuerte” y los de la escuela de la
“Etnometodología”, según los cuales, el papel de los intereses no epistémicos era
absolutamente determinante. Mediante una gran cantidad de estudios empíricos, estos autores pretendieron haber mostrado que el conocimiento científico “establecido” no reflejaba la estructura profunda de la realidad, sino sólamente las luchas y controversias entre los intereses de los científicos, y tal vez de otros grupos sociales. El consenso científico no sería, así, el resultado transparente de la contrastación entre las hipótesis teóricas y la evidencia empírica, sino el de una negociación política o económica por el control de los recursos en la ciencia y en la sociedad (más sobre esta cuestión en la tercera parte del libro).
Según la mayor parte de estos estudios empíricos, el “reconocimiento” o la “autoridad” serían los principales objetivos de los científicos, en el sentido de que, cuando
se enfrentan a una decisión entre opciones alternativas, si una de éstas conduce claramente a obtener un mayor grado de reconocimiento que las demás, entonces esa opción será la elegida. Mas parece difícil aceptar que ésta pueda ser la única motivación que conduce a una persona a dedicarse a la ciencia: después de todo, se puede obtener un mayor grado de
“reconocimiento” o “fama” con la política, el deporte o la música, por ejemplo, y, sobre
todo, con un menor esfuerzo intelectual. Propongo, pues, que asumamos que los científicos tienen también una cierta motivación por la obtención de conocimientos, lo cual implica dos cosas: en primer lugar , que han de ser capaces de juzgar cuándo un logro científico es mejor que otro desde el punto de vista epistémico, aunque no puedan hacerlo siempre con la misma facilidad, ni sea preciso que lo hagan siempre de manera unánime; en segundo lugar , que cuando las opciones a las que se enfrentan no pueden distinguirse apenas en 81
relación a sus ventajas para la obtención de reconocimiento, tenderán a elegir aquella alternativa que consideren que sea mejor desde el punto de vista epistémico. Después de todo, parece absurdo que, si los científicos son tan sagaces al valorar las probabilidades de obtener reconocimiento cuando compiten con sus colegas (como suponen los sociólogos radicales), vayan a ser necesariamente unos patosos ignorantes cuando se ponen a valorar las probabilidades de que una hipótesis sea correcta, o aproximadamente correcta, en función de ciertos datos empíricos. La cuestión, por lo tanto, es la de cuáles pueden ser esos valores epistémicos que sirven de base a los juicios cognitivos de los científicos. La sociología de la ciencia no nos sirve aquí de mucha ayuda, puesto que, o bien ha tendido a ignorar esta cuestión, o bien ha intentado mostrar que las preferencias epistémicas no juegan prácticamente ningún valor. Una posibilidad sería hacer una encuesta entre los científicos, pero sería difícil determinar qué preguntas se les haría exactamente, si antes no hemos formulado siquiera alguna hipótesis sobre aquellos valores epistémicos. Además, estos valores pueden ser más bien tácitos, en el sentido de que los propios investigadores tengan dificultades para expresarlos coherentemente, pese a que tengan pocas dudas al aplicarlos en la práctica. Por otro lado, también deberíamos evitar la postura arrogante de algunos filósofos de la ciencia, según la cual los científicos no son una fuente fiable de información acerca de cuestiones epistemológicas; al fin y al cabo, en nuestra sociedad los científicos son los principales expertos en la producción de conocimientos, y es difícil rechazar la hipótesis de que sus prácticas investigadoras constituyen la mejor manifestación de los criterios acerca de qué es lo que debe ser considerado como “conocimiento” . Así pues, es a la práctica científica a donde debemos dirigir nuestra mirada si queremos averiguar cuáles son los intereses cognitivos de los científicos de carne y hueso; pero, ¿a qué aspecto de dicha práctica, exactamente? Mi sugerencia es que nos fijemos en los criterios habituales de elección o comparación de hipótesis, y una vez determinados cuáles son tales criterios (o “reglas
metodológicas”), nos formulemos la pregunta siguiente: ¿qué preferencias epistémicas
pueden haber llevado a los científicos a decidirse precisamente por esas reglas, suponiendo
que la elección de estos criterios se haya llevado a cabo tras un “velo de ignorancia” lo
suficientemente tupido? Antes de responder esta cuestión, lo que haremos en los próximos apartados, detengámonos un instante en e sta idea del “velo de la ignorancia”. La metáfora la tomo prestada de la teoría de John Rawls sobre la justicia, quien argumenta que un sistema de normas es justo si corresponde al que establecerían los sujetos sometidos a él, si éstos tuvieran que elegir el sistema habiendo olvidado previamente la situación personal de cada sujeto. En el ámbito de la ciencia, mi hipótesis es, entonces, que, cuando un científico argumenta a favor o en contra de una proposición utilizando una regla determinada, se compromete implícitamente a aceptar esa misma regla en todos los casos futuros en los que dicha regla pueda resultar aplicable, o al menos, sus colegas pueden tomar la aceptación de esa regla en un caso por parte del primer científico como sinómina del compromiso de aceptarla también en todos los casos futuros . Por otro lado, el “juego de la
ciencia” sólo tendrá lugar si todos los miembros de una disciplina o subdisciplina aceptan
más o menos las mismas normas metodológicas. Si todo esto es así, entonces, antes de apelar a una cierta norma en un caso, el investigador debe sopesar no sólo si le interesa
hacerlo en aquel caso en particular, sino también si “a largo plazo” preferirá que en su
propia comunidad científica se acepte esa norma en vez de otras posibles reglas alternativas. Como indiqué al principio, es difícil que un investigador individual pueda predecir si, a largo plazo, una regla beneficiará o no a sus propias hipótesis, si es correcta 82
mi hipótesis de que, en general, el científico debe comprometerse con aquella regla antes de saber qué problemas intentará resolver en el futuro, y, a fortiori, qué hipótesis serán las que proponga para resolverlos. En este caso, la decisión acerca de qué reglas metodológicas adoptar dependerá, más bien, de sus preferencias epistémicas. Además, el hecho de que no todos los investigadores tengan las mismas preferencias epistémicas no impide que se pongan de acuerdo en establecer unas determinadas reglas metodológicas, pues, por un lado, una misma regla puede ser coherente con preferencias distintas, y por otro lado, cada científico puede estar dispuesto a aceptar una regla que no es realmente la más adecuada desde su propio punto de vista, a cambio de conseguir un acuerdo más unánime sobre las reglas entre los miembros de su disciplina. Otro requisito que, en mi opinión, debe cumplir cualquier respuesta a la pregunta que formulábamos un par de párrafos más arriba, es que las preferencias epistémicas que supongamos en los científicos no deben ser representadas mediante una noción excesivamente compleja desde el punto de vista formal. Esto quiere decir que esa noción
de “preferencias cognitivas” debe ser lo suficientemente simple como para permitir a los científicos hacer razonamientos intuitivos acerca de las ventajas epistémicas de unas hipótesis o teorías frente a otras. En este sentido, muchas de las definiciones de verosimilitud que se han propuesto hasta ahora, así como muchas otras medidas de valor epistémico, son demasiado poco realistas, pues es inverosímil suponer que las intuiciones de los científicos respondan a un esquema tan complicado. Es en este otro sentido en el
que las definiciones de verosimilitud que propondré más abajo tienen, también, un “rostro humano”. 2. ALGUNAS REGLAS METODOLÓGICAS COMUNES.
Nuestra estrategia para averiguar cuáles pueden ser las preferencias epistémicas de los científicos empieza, pues, con la formulación de las reglas metodológicas que éstos siguen en su práctica investigadora. Una posible forma de encontrar esas reglas sería rastreándolas directamente a través de estudios empíricos de casos, pero un trabajo de esas características queda muy lejos de lo que puedo llevar a cabo aquí, y además, tampoco soy lo suficientemente experto en historia y sociología de la ciencia como para realizar la tarea yo mismo con garantías de éxito. En vez de eso, seguiré un método indirecto, aunque pienso que no menos fiable. A menudo se dice que los filósofos, como los políticos, suelen tener razón cuando critican las afirmaciones de sus rivales, aunque no suelen tenerla cuando hacen afirmaciones propias. Seguramente los filósofos de la ciencia no escapan a este sino, de modo que sus tesis pueden ser más o menos criticables cuando ofrecen una explicación acerca de por qué los científicos actúan de una u otra manera, pero en cambio sus argumentos son notablemente certeros cuando su objetivo es mostrar los puntos flacos de las teorías de otros filósofos. En particular, muchos autores han criticado otras teorías filosóficas sobre el método científico ofreciendo abundantes ejemplos históricos de decisiones y prácticas metodológicas que estaban en contradicción con aquellas teorías. De esta manera, podemos obtener una visión más adecuada de las prácticas metodológicas realmente seguidas en la ciencia si, en lugar de ofrecer una lista de las principales teorías filosóficas sobre el método científico, ofrecemos una lista de las regularidades históricas que esos mismos filósofos han presentado como argumentos en contra de otras teorías. Estas regularidades están aparentemente en conflicto mutuo, pues cada una de ellas suele verse como una defensa de una cierta teoría sobre el método científico, y estas teorías 83
son, a su vez, contradictorias entre sí. En cambio, lo que propongo es que veamos las tesis que voy a exponer a continuación simplemente como hechos, naturalmente muy simplificados, pero suficientemente contrastados con la historia de la ciencia a través de los argumentos históricos ofrecidos por sus propios defensores. Un conjunto de hechos, todos ellos empíricamente confirmados, no pueden estar en conflicto entre sí; sólo sus interpretaciones pueden estarlo. Así que nuestra tarea consistirá en buscar un sistema de preferencias epistémicas que justifique la conclusión de que todos y cada uno de esos hechos son razonables si los científicos quieren satisfacer precisamente aquellas preferencias. Los “hechos” de la lista siguiente los denominaré con un nombre que permitirá su rápida identificación a las personas familiarizadas con la literatura de filosofía de la ciencia, aunque debe quedar claro que ninguno de esos “hechos” consiste en un “resumen” de ninguna teoría filosófica, sino en la descripción de una práctica realmente seguida por los científicos. 1. “Falsacionismo mínimo”: Los científicos afirman normalmente que el valor de una teoría es tanto mayor cuantos más hechos consigue explicar, y tanto menor cuanto más frecuentemente es refutada por otros hechos. 2. “Tesis de Kuhn”: En ocasiones, los científicos prefieren una teoría a sus rivales, a pesar de que la primera explique menos hechos y tenga más anomalías que las otras. 3. “Aversión a las teorías ad hoc”: Los científicos prefieren aquellas teorías que predicen los resultados empíricos antes de que éstos se conozcan, a aquellas que los explican después de ser conocidos. 4. “Primera tesis de Lakatos”: En las primeras etapas del desarrollo de una teoría o programa de investigación no se suelen tener en cuenta los resultados empíricos contrarios a la teoría. 5. “Segunda tesis de Lakatos” : Las teorías son comparadas muchas veces por su capacidad predictiva, antes incluso de comprobar si sus predicciones se cumplen o no. 6. “Tesis de Moulines”: Las teorías científicas (o “paradigmas”, o “programas de investigación”) suelen articularse en forma de red arbórea (est e concepto se explica más abajo). 7. “Tesis de Nagel”: Cuando una teoría previamente aceptada es sustituida por otra, a menudo la primera es reducible a la segunda (al menos parcialmente), si bien la relación de reducción puede ser muy diferente de unos casos a otros desde el punto de vista formal. 8. “Tesis de Feyerabend”: Enfrentados a la misma evidencia empírica, muchas veces varios científicos defienden proposiciones distintas, contradictorias entre sí. Podemos agrupar estos hechos en cuatro grandes grupos. El primer grupo contendría únicamente la tesis del falsacionismo mínimo, que, salvo excepciones, es lo que prácticamente todo el mundo considera más decisivo como mérito de una teoría científica (me refiero, naturalmente, al caso de las ciencias empíricas). El segundo grupo estaría formado por las tesis 2, 3, 4 y 5, las cuales aparentemente están en conflicto con la primera (y en muchos casos entre sí), puesto que pueden conducir a preferir teorías que no sean las que de hecho expliquen más fenómenos y sean refutadas por menos. El tercer grupo serían las tesis 6 y 7, que se refieren a la estructura formal habitual, tanto de las propias teorías, como de las relaciones que suelen darse entre ellas cuando son sustituidas unas por otras; estas propiedades estructurales de las teorías y de sus mutuas relaciones tampoco tienen un fundamento epistemológico claro, en el sentido de que no parece que haya nada en 84
aquellas preferencias cognitivas que pueden conducir a la aceptación de las primeras cinco reglas, que permita explicar a su vez la existencia de una estructura formal determinada en cada teoría y en las relaciones de sucesión entre teorías. Finalmente, la tesis octava indica que, sean cuales sean las preferencias cognitivas de los científicos, no parecen poder garantizar que las decisiones sobre qué hipótesis o teorías aceptar sean siempre unánimes. En los próximos apartados voy a justificar, precisamente, que una cierta noción de “verosimilitud” permite explicar todas y cada una de estas tesis cuando supon emos que esa
noción representa las preferencias cognitivas (o la “función de utilidad epistémica”) de los científicos.
3. LA VEROSIMILITUD EMPÍRICA COMO “FUNCIÓN DE UTILIDAD EPISTÉMICA”.
No entenderé en este trabajo el concepto de “verosimilitud” en e l sentido que hizo popular Karl Popper, esto es, como “grado de distancia a la verdad total (sobre cierta cuestión)”, sino que más bien le daré un significado semejante al que tiene en el lenguaje
ordinario (al menos en castellano): una historia es una historia verosímil cuando, aunque tal vez ya se haya demostrado que era falsa, podría haber sido verdadera, o parece serlo. Por ejemplo, un acusado de un crimen, cuya culpa está probada fuera de toda duda por ciertas pruebas, puede haber dispuesto de todas formas de una coartada que, si no hubiera sido por aquellas otras pruebas, habría parecido muy convincente; esta coartada podemos
decir que es “verosímil”, aunque sepamos que sea falsa. La verosimilitud de una teoría
será, por tanto, el grado en el que una teoría parece aproximarse a la verdad, lo cual, evidentemente, sólo puede juzgarse por su relación con lo que sabemos (o, cuando menos, presuponemos) a propósito de la verdad. Más en concreto, definiré la verosimilitud de una teoría como la semejanza entre la imagen del mundo ofrecida por la teoría y la imagen que se deriva de la parte que conocemos de la verdad (esto es, los “datos”) , ponderada por la magnitud de esa parte de la verdad . Es decir, una teoría científica será tanto más verosímil cuanto más semejante sea la descripción que ofrece del mundo a lo que de hecho sabemos sobre la realidad, y, a medida que vamos conociendo más y más hechos, la teoría se irá haciendo más verosímil si consigue al menos mantener el mismo grado de semejanza con ese conjunto creciente de hechos. Mi hipótesis es que los científicos tienden a preferir las teorías que son más verosímiles, en este sentido del término. Permítaseme justificar esta hipótesis mediante una analogía entre la investigación científica y el conocido jue go “de las diez preguntas”. En este juego, un jugador piensa en
un personaje, y los demás pueden hacer preguntas sobre él (“¿es una mujer?”, “¿es un deportista?”, “¿es un político?”), que el primer jugador sólo puede responder con un sí o un
no. Imaginemos que el juego se juega de tal forma que nunca puede revelarse directamente el nombre del personaje, por muchas preguntas que se hayan formulado, y que los jugadores deben determinar de todos modos una regla para elegir al ganador, incluso cuando cada una de sus conjeturas haya sido contradicha por alguna respuesta (y se sepa, por tanto, que todas las respuestas ofrecidas son falsas). Parece razonable que la mejor conjetura será aquella que identifique a una persona lo más parecida posible a la descripción resultante de todas las respuestas efectivamente ofrecidas. Además, si a medida que aumenta el número de respuestas diponibles un jugador consigue que al menos no vaya disminuyendo el grado de semejanza entre la persona conjeturada por él y la descripción derivada de aquellas respuestas, entonces su conjetura irá ganando valor. Hay 85
que tener en cuenta también que no todas las respuestas proporcionan la misma
información; por ejemplo, “es un varón” es una respuesta menos informativa que “ganó una medalla de oro en los Juegos Olímpicos”, de tal manera que si una conjetura mantiene su grado de semejanza con la descripción dada por las respuestas previas cuando se les
añade aquélla (“es un hombre”), y también lo hace cuando se les añade ésta (“ganó una medalla de oro”), entonces el valor de su conjetura aumentará más en el segundo caso que en el primero.
Obviamente, en nuestra analogía las “teorías científicas” corresponden a las
conjeturas de cada jugador acerca de la identidad del personaje secreto, mientras que los
“hechos empíricos” corresponden a las respuestas que el primer jugador da a las preguntas
formuladas por los demás. Estos dos conceptos tienen un sentido más bien relativo, pues lo que es una “teoría” o “hipótesis” en el marco de cierta investigación puede muy bien ser un
“hecho” que, en otro momento, se utiliza para juzgar la aceptabilidad de teorías formuladas
con la intención de resolver un problema distinto. En el capítulo siguiente, de todas formas, ofrezco algunos argumentos más explícitos sobre cuál puede ser la naturaleza de las
“regularidades empíricas”, y sobre su función en el proceso de contrastación de las teorías, y además, intento defender la tesis de que estas regularidades empíricas -¡y muchas “hipótesis teóricas” gracias a ellas! - son verificables en cierto sentido. Una posible reconstrucción formal de las ideas intuitivamente explicadas en los últimos párrafos es la siguiente. En principio, podemos considerar cada enunciado del
juego de la ciencia (sea una “hipótesis teórica” o un “dato empírico”) como equivalente al conjunto de todas aquellas situaciones posibles en las que dicho enunciado sería verdadero
(cada una de estas situaciones posibles es, en sentido técnico, un “modelo” de aquel
enunciado). Podemos representar mediante un rectángulo, tal como hemos hecho en la figura 4, el conjunto de todas las situaciones posibles (o al menos, el de todas las situaciones que pueden ser descritas utilizando el lenguaje de la teoría), a cada una de las cuales podremos asignarle un cierto grado subjetivo de probabilidad, es decir, la probabilidad que exactamente esa situación concebible pensamos que tiene de ser la situación real ; a dicha probabilidad la denominamos “subjetiva” porque admitimos que cada científico puede asignar a cada situación un grado de probabilidad diferente al que le asignan sus colegas. El círculo interior de la figura 4 representa el conjunto de situaciones posibles que, en caso de que fuesen reales, harían que la teoría T fuese verdadera. Si a cada situación posible le hemos dado una superficie proporcional a su grado de probabilidad, entonces la superficie del círculo T equivaldrá al grado de probabilidad de que la teoría T sea verdadera, es decir, la de que la situación efectivamente real sea una en la que la hipótesis se cumple. Un “hecho empírico” E puede representarse también mediante un círculo que contenga todas las situaciones posibles en las que tal hecho se cumpliría, y también tendrá asociada una cierta probabilidad (con la diferencia, que no es relevante para mi argumento posterior, de que, una vez que el hecho ha sido aceptado, la probabilidad de todas las situaciones incompatibles con él pasa a ser nula, y la probabilidad de las otras situaciones ha de recalcularse para que la suma de todas pase a ser igual a uno).
Figura 4 Pues bien, la semejanza entre dos enunciados A y B podemos definirla, entonces, como el grado de solapamiento de los conjuntos de modelos de ambos enunciados, es 86
decir, la proporción que existe entre su intersección ( A B) y su unión ( A B), lo que a su vez es equivalente a p(A&B)/p(AvB), es decir, la probabilidad de que los dos enunciados sean verdaderos supuesto que alguno de los dos lo es. A su vez, la cantidad de información proporcionada por un enunciado, por ejemplo, A, varía inversamente con su probabilidad, de tal manera que podemos definirla como 1/p(A). De este modo, si T es una teoría científica, y E un conjunto de regularidades empíricas relativas a la porción de la realidad que la teoría intenta describir o explicar, entonces mi definición formal más sencilla de verosimilitud de T a la luz de E será el producto de su grado de semejanza y la información transmitida por E , es decir: Vs1(T,E) = [p(T&E)/P(TvE)][1/p(E)] = p(T,E)/p(TvE). Esta definición, aparte de ciertas consecuencias metodológicas interesantes, tiene el problema de que, si la teoría ha sido refutada por alguna de las regularidades empíricas contenidas en E , entonces su grado de verosimilitud será nulo, lo cual queríamos evitar (las pruebas formales que no ofrezco aquí pueden verse en mi libro Mentiras a medias). Una alternativa para resolver esta dificultad consiste en analizar cada uno de los subconjuntos de regularidades empíricas contenidas en E , y definir la verosimilitud de la teoría T a la luz de E como la verosimilitud (en el sentido de la primera definición) que T posee a la luz del subconjunto F de regularidades empíricas conocidas más favorable a T . Se puede demostrar que, si se cumple que: 1) cada ley empírica es estadísticamente independiente de las demás, y 2) si la relación entre cada ley empírica y T es una de las tres siguientes: T implica E , T contradice E , o T y E son estadísticamente independientes, entonces el subconjunto F será el de aquellas leyes que no contradicen la teoría. Es decir: Vs2(T,E) = Vs1(T,EC T ) donde EC T representa la conjunción de todas las leyes empíricas contenidas en E que son consistentes con la teoría T . De acuerdo con la analogía presentada anteriormente, esto significa que, aunque una conjetura en el juego de las diez preguntas haya sido ya refutada, puede seguir teniendo un valor relativamente alto si es coherente, de todos modos, con la mayoría de las respuestas conocidas, y especialmente si estas respuestas se deducen de aquella conjetura.
4. EL CIENTÍFICO COMO REALISTA. De acuerdo con la definición anterior, la verosimilitud de una teoría dependerá de tres cosas: 1) de la probabilidad a priori de dicha teoría (es decir, su probabilidad cuando se tienen en cuenta sólo las “presuposiciones básicas” de cada cie ntífico, y no los
resultados empíricamente conocidos; llamaré a esto la “plausibilidad” de la teoría); 2) del
rigor de las regularidades empíricas que la teoría explica, y 3) del rigor de aquellas regularidades que ni explica ni contradice, si bien este último factor cuenta comparativamente menos que el segundo. De aquí se sigue que, si T explica al menos todas las regularidades empíricas conocidas explicadas por T’ , T’ es refutada al menos por las regularidades que refutan a T , y T’ es menos probable a priori que T , entonces T será más verosímil que T’ . 87
Este resultado nos permite explicar simultáneamente el falsacionismo mínimo, la tesis de Kuhn y la tesis de Feyerabend. Predecir con éxito una regularidad empírica hace aumentar la verosimilitud de la teoría que lo logra, más que no ser refutada por ella, y a su vez esto es mejor, en términos de verosimilitud, que ser refutada. Pero esto no significa por sí solo que el éxito relativo en las predicciones sea el único criterio para comparar unas teorías con otras: además de este éxito empírico, una teoría debe tener un grado relativamente alto de probabilidad a priori. Una teoría que consiga explicar muchas cosas, pero que sea poco coherente con los presupuestos fundamentales de un grupo de científicos, posiblemente no sea tan verosímil para ellos como otra teoría que, aunque tenga menos éxito, esté basada en unas leyes más plausibles a priori. Por otro lado, aunque las preferencias epistémicas de todos los científicos puedan ser representadas mediante una función de verosimilitud empírica (lo que es nuestra hipótesis), de ahí no se sigue que todos ellos tengan las mismas preferencias epistémicas, pues éstas dependerán de la función de probabilidad en la que se basa la función de verosimilitud, y aquélla puede ser diferente para cada investigador. De todas formas, no hay que llevar demasiado lejos esta última conclusión, pues, aunque las preferencias de los científicos no coincidan exactamente con las de sus colegas, el hecho de que todas ellas cumplan la definición de verosimilitud empírica garantiza que todos estarán de acuerdo al menos en aquellas comparaciones de verosimilitud que se deriven necesariamente de dicha definición. También podemos establecer una distinción entre el concepto de verosimilitud que estoy proponiendo y el concepto de ‘éxito empírico’, pues esta última noción se reduciría al cumplimiento de las dos primeras condiciones mencionadas en el resultado citado al principio de esta sección (recordemos: que T explique todo lo que explica T’ , y que T’ sea refutada al menos por todos los hechos que refutan a T ). En cambio, estas dos condiciones solas no son suficientes para que T sea más verosímil que T’ , pues una teoría que tenga un gran éxito empírico, pero que sea extremadamente improbable a priori en comparación con otras, puede parecer de todas formas muy inverosímil. Esto hace que aquellos científicos que comparen las teorías basándose en una función de valor epistémico como nuestra noción de verosimilitud sean más “realistas” que “instrumentalistas”, en el sentido de que no sólo valorarán el éxito predictivo, sino también la plausibilidad de los supuestos de cada teoría, es decir, su coherencia con los requisitos ontológicos contenidos en las presuposiciones básicas de aquellos científicos, las cuales son, al fin y al cabo, las que determinan principalmente el grado de probabilidad que cada científico asigna a priori a cada situación concebible. Es importante señalar que estoy usando los términos “realismo” e “instrumentalismo” entrecomillados pa ra indicar que con ellos me refiero a la actitud de los científicos hacia sus teorías, más bien que a sendas tesis filosóficas. Un razonable supuesto adicional nos ayudará a derivar el tercero de nuestros “hechos metodológicos”. Se trata de la idea de que los científicos, cuando van desarrollando una teoría, comienzan incluyendo en ella hipótesis de elevada plausibilidad, y que, a medida que los resultados de estas hipótesis conducen a refutaciones empíricas, van cambiándolas por hipótesis menos plausibles (es decir, con un menor grado de probabilidad a priori). Esto es una estrategia razonable cuando, como hemos visto en el párrafo anterior, lo que perseguimos es un alto nivel de verosimilitud y no sólo un elevado éxito empírico. Si esto es así, entonces resulta comprensible que sea mejor para los científicos predecir con éxito un resultado empírico desconocido que explicar a posteriori ese mismo resultado cambiando alguna hipótesis de sus teorías. La razón no es otra que el hecho de que, si dicho resultado obliga a sustituir una hipótesis por otra, la teoría resultante será menos plausible que la precedente, y podrá alcanzar un nivel menor de verosimilitud. 88
Las hipótesis ad hoc, por lo tanto, reducen, por así decir, el techo de aproximación aparente a la verdad que puede conseguirse con las teorías que las incorporan.
5. EL CIENTÍFICO COMO INSTRUMENTALISTA. Hasta ahora he supuesto que los científicos intentan maximizar directamente el grado de verosimilitud de sus teorías, es decir, que, cuando deben elegir entre varias teorías rivales, eligen la que les parece más verosímil. En realidad, la situación a la que se enfrentan los científicos puede ser más compleja, por lo menos en el sentido de que el grado de verosimilitud que una teoría reciba de los datos empíricos disponibles es evidentemente provisional , y los investigadores pueden desear tomar sus decisiones basándose en sus expectativas sobre la evolución futura del valor de cada teoría. Así, lo que les interesará directamente no será tanto el valor actual de la verosimilitud empírica de
cada teoría, sino más bien lo que en estadística se denomina su “valor esperado”. Puede mostrarse que el valor esperado de la función Vs viene dado por la fórmula siguiente:73 EVs1(T,E) = p(E&T)/[p(E)p(T)] = p(E,T)/p(E) = p(T,E)/p(T),
En cambio, el valor esperado de nuestra segunda definición de verosimilitud sólo puede ser calculado en circunstancias especiales, y además, nada garantiza que las distintas formas de calcularlo, cuando son posibles, conduzcan al mismo resultado, lo que se debe al hecho de que, para cada conjunto de regularidades empíricas puede haber otro conjunto que sea lógicamente equivalente al primero, pero tal que ninguna conjunción de una parte de las primeras leyes sea equivalente a alguna conjunción de una parte de las segundas. Una posible alternativa, entonces, es definir, como hicimos entonces, la verosimilitud esperada de una teoría como la que verosimilitud esperada (en el sentido de la fórmula que acabamos de ver) que la teoría obtiene de aquel subconjunto de hechos empíricos conocidos que le son más favorables. Se demuestra fácilmente que, en este caso, dicho subconjunto no es el mismo que en el caso de Vs2 (es decir, el de los hechos compatibles con la teoría), sino que es el de aquellas regularidades empíricas que pueden ser deducidas a partir de T (es decir, los hehcos que la teoría consigue explicar ); es decir: EVs2(T,E) = Vs2(T,E T ), donde E T es el conjunto de regularidades empíricas contenidas en E que son deducibles a partir de T (es decir, las que son “explicadas” por T ). A partir de esta nueva definición, es posible probar que si T explica al menos todas las regularidades empíricas conocidas explicadas por T’ , entonces la primera tendrá por lo 73
La prueba es la siguiente: EVs1(T,E) = ( x├─ E ) p(x,E)Vs1(T,x) = = ( x├─ E&¬T ) p(x/E)Vs1(T,x) + ( x├─ E&T ) p(x,E)Vs1(T,x) = 0 + ( x├─ E&T ) p(x,E)p(T,x)/p(T x) = ( x├─ E&T )[p(x)/(p(E)][1/p(T)] = [ ( x├─ E&T ) p(x)][(p(E)p(T)] = p(E&T)/[p(E)p(T)] = p(E,T)/p(E) = p(T,E)/p(T).
89
menos tanta verosimilitud esperada como la segunda, independientemente del grado de probabilidad que ambas teorías tengan a priori. Este teorema nos permite dar cuenta de la primera tesis de Lakatos: cuando se espera que muchos nuevos resultados empíricos, aún desconocidos y tal vez ni siquiera predichos, vayan a ser descubiertos en un plazo de tiempo relativamente breve (lo que podemos suponer razonablemente que sucede en las primeras etapas de desarrollo de una teoría o programa de investigación), en este caso, decía, los científicos preferirán aquellas teorías que hayan explicado hasta el momento más hechos, independientemente de cuál sea el grado de plausibilidad que tengan a priori dichas teorías, e independientemente también de qué resultados empíricos hayan refutado a cada una de ellas. Esto quiere decir que los científicos, que se comportan como “realistas” cuando disponen de una teoría “firmemente establecida”, para la que no esperan que se
produzcan nuevos resultados empíricos relevantes, en cambio se comportarán como “instrumentalistas” cuando estén desarrollando nuevas teorías o hipótesis. Expresado con
una metáfora económica: cuando los científicos han hecho una gran inversión “a largo plazo” en una teoría, tienen en cuenta, al valorar tanto dicha teoría como sus posibles rivales, el grado de “realismo” de todas estas teorías, y son, por tanto, relativamente conservadores, de tal forma que cambiar de teoría resultará más improbable. En cambio,
cuando están haciendo pequeñas inversiones “a corto plazo”, al inventar hipótesis que
fácilmente puedan desechar si es necesario, son más arriesgados y pueden preferir teorías menos verosímiles (en el sentido de las primeras definiciones de verosimilitud, no en el de verosimilitud esperada), siempre que les permitan explicar muchos resultados empíricos. Una de las situaciones en las que el grado de verosimilitud esperada se puede calcular efectivamente es cuando los científicos han hecho algunas predicciones a partir de las teorías que intentan comparar, pero aún no las han contrastado empíricamente. En este
caso podemos definir la “verosimilitud hipotética” de una teoría como el valor esperado de
su verosimilitud empírica teniendo en cuenta la probabilidad de cada una de esas “extensiones”, y puede mostrarse que a partir de dicha definición se d eriva el siguiente teorema: si ocurre que T y T’ tienen las mismas relaciones lógicas con cada una de las regularidades empíricas conocidas, pero que, simultáneamente, T hace todas las predicciones que hace T’ y alguna predicción más, entonces T tendrá por lo menos un grado de verosimilitud hipotética tan alto como T’ . Este resultado explica la segunda tesis de Lakatos: aunque los resultados empíricos conocidos sean idénticos para dos teorías, los científicos preferirán aquella que haga más predicciones, antes de comprobar siquiera si estas predicciones se cumplen o no. Evidentemente, estas preferencias podrán variar una vez que las predicciones se contrasten y puedan compararse los grados de verosimilitud (no hipotética) de ambas teorías.
6. ¿POR QUÉ EXISTEN REDES TEÓRICAS? Los dos hechos que nos faltan por explicar se refieren a propiedades estructurales de las teorías científicas. La primera de estas propiedades consiste en que las teorías se presentan habitualmente como redes arbóreas de enunciados, y no simplemente como conjunciones inestructuradas. De acuerdo con la concepción estructuralista, una red teórica se compone de dos tipos de elementos: un conjunto I de “aplicaciones empíricas” (conjuntos de sistemas reales a los que la red teórica se quiere aplicar), y un conjunto K de
estructuras matemáticas definidas formalmente (“núcleos teóricos”). La red teórica es la unión de todas las afirmaciones del tipo “el conjunto de aplicaciones I i pertenece al núcleo
90
K i”. Debe cumplirse que si un conjunto de aplicaciones está comprendido dentro de otro, el
núcleo correspondiente al primero incluirá las “leyes” del núcleo correspondiente al
conjunto de aplicaciones más amplio (es decir, la teoría proporciona una descripción cada vez más y más detallada sobre conjuntos de aplicaciones cada vez más y más restringidos, análogamente a como la clasificación de un conjunto de seres vivos empieza dando unas pocas características compartidas por muchos individuos -los “órdenes” o “clases” - y termina especificando muchas características que comparten pocos individuos -los “géneros” o “especies” -). Esto es lo que produce la forma de árbol, aunque generalmente se representa como un árbol invertido, en el que tanto el conjunto de aplicaciones más general como la afirmación m ás débil (la “ley fundamental”, que a menudo carece de contenido empírico, en el sentido de que es compatible con cualquier resultado observable mientras no se añaden leyes particulares) se encuentran situados en la cúspide. Al enunciado “I i K i” se le denomina “aserción de la red teórica sobre las aplicaciones I i”. Cada aserción de la red teórica es una hipótesis, que debe ser evaluada en función de sus relaciones con otras aserciones cuya validez se deberá determinar independientemente de la propia red teórica. Es decir, los científicos deben ser capaces de establecer la validez empírica de ciertos datos empíricos, es decir, enunciados del tipo “I i E i”, donde E i es una proposición que puede establecerse por medios empíricos (en términos estructuralistas, esto quiere decir, entre otras cosas, que E i no incluye conceptos propios de la red teórica, si es que ésta los posee), y cuya relación lógica o estadística con las aserciones de la red pueda ser establecida en principio. Nuestra cuestión es, entonces, por qué las teorías suelen tener una estructura como la que acabamos de describir, por qué se va subdividiendo el conjunto de aplicaciones de cada teoría, de tal forma que cada subdivisión sea explicada en parte por leyes o hipótesis que sólo se aplican a ella, y en parte por leyes que se aplican a otras subdivisiones. Expresado de otra manera: ¿por qué los científicos intentan buscar y proponer leyes que tengan validez para conjuntos muy amplios de sistemas empíricos, en lugar de buscar leyes totalmente distintas para cada tipo distinto de aplicaciones? O sea, ¿por qué las ramas de cada red arbórea se juntan, en vez de permanecer separadas? Una explicación habitual de este hecho consiste en afirmar que los seres humanos
“necesitamos” explicaciones lo más simples y lo más generales posible, “necesitamos”
buscar la unidad detrás de la multiplicidad, la identidad detrás de la diferencia. Sólo
sentimos que algo ha sido explicado cuando ha sido “reducido a primeros principios”, es
decir, cuando lo hemos conseguido deducir a partir de principios que consideramos válidos también para otros casos. Admito que esto puede ser así, aunque es una materia filosófica delicada la cuestión de si debe ser así, o si se trata nada más que de una forma occidental burguesa-machista de pensar. Pero en realidad esto no hace más que llevar un paso más allá la pregunta, pues podríamos intentar averiguar por qué nuestro pensamiento funciona así. Con el enfoque que estoy defendiendo aquí podemos dejar aparcadas, empero, todas estas cuestiones “metafísicas”, y plantearnos si la estructura arbórea habitual de las teorías científicas no será acaso un subproducto (no necesariamente buscado por sí mismo) de las estrategias metodológicas que siguen los científicos al desarrollar las teorías, en lugar de deberse a unos supuestos mecanismos cognitivos “profundos”. Una respuesta que considero plausible es la siguiente: imaginemos un científico que está intentando explicar los hechos empíricos conocidos sobre un cierto tipo de sistemas (o descubrir su estructura subyacente), que a su vez forman un subconjunto de otro tipo más general de sistemas para los que ya existe una ley que explica algunas de sus propiedades. Este científico tiene ante él dos opciones: puede intentar añadir, a la ley 91
general ya conocida, una ley específica que sea válida para los sistemas de los que él se ocupa, o bien puede intentar encontrar otras leyes, incompatibles con la ley general conocida, que tengan el valor epistémico suficiente, pero que se apliquen sólo a los sistemas que él intenta explicar. Es decir, o bien acepta la teoría más general y la amplía para explicar un tipo de situaciones más específico, o bien inventa una teoría alternativa pero referida sólo a ese conjunto de situaciones. Parece razonable pensar que, cuanto más firmemente establecidas estén las leyes generales de una red arbórea (es decir, cuanto mayor sea su grado de verosimilitud), mayores serán los beneficios esperables por seguir la primera estrategia, y menores los relativos a la segunda, tanto por el hecho de que exista una elevada probabilidad de encontrar una ley especial para el conjunto de aplicaciones más restringido, como por el hecho de que los demás investigadores aceptarán más fácilmente una teoría que les resulte más “familiar”. Además, es muy probable que el coste de la segunda estrategia sea en general mayor que el de la primera, pues encontrar una teoría exitosa totalmente nueva puede ser bastante difícil. Así pues, es esperable que, cuando en una disciplina se alcanza un grado de verosimilitud (u otro valor epistémico pertinente) bastante alto para algunas leyes aplicables a un dominio de aplicaciones muy amplio, la evolución de ese campo tome la forma de red arbórea. En otras disciplinas, en cambio, será posiblemente más difícil encontrar teorías con forma de red, en la medida en
la que sea difícil encontrar “leyes” relativamente fuertes (es decir, no meras
generalizaciones triviales) que sean aplicables a muchos sistemas distintos. Nótese que un argumento no supone que lo que pretendan maximizar los científicos sea específicamente la verosimilitud de las teorías, en el sentido en que hemos definido aquí este concepto. Lo importante es más bien el hecho de que el desarrollo de una red teórica se concibe como un conjunto de decisiones sobre los beneficios y los costes esperados de cada estrategia metodológica posible.
7. ¡REDUCE, QUE ALGO QUEDA!.
Finalmente, nos queda por explicar el séptimo de los “hechos metodológicos”
enumerados arriba: la elevada frecuencia con la que, en los casos de sustitución de una teoría por otra, dicha sustitución se lleva a cabo mediante la reducción de la primera teoría a la segunda. De hecho, los neopositivistas (especialmente Ernest Nagel) sostuvieron que esta era la única forma en la que la ciencia progresaba a lo largo del tiempo. Aquí, como en
el caso de la “unificación” del conocimiento que hemos visto en el apartado anterior, la
respuesta tradicional de los filósofos ha sido la de suponer que existe en nuestra forma humana de pensar una tendencia hacia el “reduccionismo”, de tal manera que consideramos que un aspecto de la realidad ha sido explicado, no sólo cuando podemos aplicar a esa porción del mundo una serie de principios válidos para una porción lo más amplia posible, dentro de la cual se encuentre comprendida aquélla: también exigimos que esos principios se refieran a entidades más fundamentales, constituyentes de aquellas que
queremos explicar. Por otro lado, muchos casos históricos de “reducción” de unas teorías a otras no parecen tener mucho que ver con esa tendencia al “reduccionismo”, en el sentido de intentar explicar las cosas a través del comportamiento de sus componentes; estoy
pensando, por ejemplo, en la “reducción” de las leyes de Kepler a la teoría de la gravitación universal, o en la “reducción aproximada” de la mecánica clásica a la mecánica relativista. Aún más: a través de todos los posibles ejemplos de “reducción” en la historia 92
de la ciencia no parece haber un único patrón formal común, de tal manera que la reducción es más una familia de nociones que un concepto unívoco. Ante este panorama, creo que es posible dar una respuesta sencilla a la prevalencia de las relaciones de reducción en los casos de sustitución de teorías, del mismo tipo que la ofrecida en el apartado anterior. La idea fundamental es, de nuevo, que la razón por la cual este tipo de relaciones es tan habitual en los cambios de teoría, no hay que buscarla en las virtudes epistemológicas profundas del reduccionismo (que muy probablemente las habrá), sino en las decisiones de los científicos acerca de los costes y beneficios relativos de sus posibles estrategias. Si una teoría T es reducible a otra, T’ (al menos en algunos conjuntos de aplicaciones), esto significa que todas las predicciones hechas por la primera teoría sobre dichas aplicaciones serán también hechas por la segunda; por lo tanto, para comparar el grado de verosimilitud de ambas, si se ha demostrado formalmente que existe entre ellas una cierta relación de reducción, sólo será necesario examinar aquellos conjuntos de aplicaciones sobre los que ambas teorías hagan predicciones diferentes (aunque, como hemos visto, también habrá que considerar la probabilidad a priori de cada teoría, según la función de verosimilitud que estemos considerando). Por ejemplo, al
mostrar que la mecánica clásica es reducible “en el límite” a la mecánica relativista, se
elimina la necesidad de comparar las predicciones que ambas teorías hacen sobre sistemas de tamaño medio y velocidad baja, pues se demuestra matemáticamente que las diferencias entre ambas predicciones estarán por debajo de los márgenes de error de nuestros
instrumentos de medición; la cuestión de si una teoría se puede “derivar” de otra, o bajo qué condiciones, o en qué medida se “conservan los significados” en esa derivación, todo
ello es absolutamente irrelevante para lo que el científico persigue en la práctica con la relación de reducción, por mucho que puedan interesarse por estas cuestiones los filósofos y algunos físicos metidos a metafísicos. Demostrar que existe una relación de reducción (aunque sea parcial o aproximada) entre una teoría y otra, con la cual un científico pretende sustituir a la primera, es, por lo tanto, una forma de reducir los costes involucrados en la comparación entre los grados de verosimilitud de ambas teorías. No es de extrañar, por lo tanto, que no exista un único concepto de reducción que cubra de forma clara todos los casos posibles (reducción concepto a concepto, estructura a estructura, fórmula a fórmula, estricta, aproximativa, etcétera), pues lo importante para el investigador son las ventajas pragmáticas de la reducción (el trabajo que le ahorra), más que sus virtudes epistemológicas. Insisto en que no pretendo negar que los distintos tipos y casos de reducción pueden sugerir interesantes y profundas cuestiones filosóficas, sin duda alguna muy relevantes para la interpretación de las teorías científicas, pero mi hipótesis implica sólo que los investigadores no estarán tan preocupados por estas cuestiones como por el hecho de que la reducción de una teoría a otra facilita la comparación de su grado de éxito empírico. También podemos esperar, en este caso, que, cuanto mejor establecida esté una teoría en ciertos ámbitos de aplicación (esto es, cuanto mayor sea su grado de verosimilitud), mayores serán los beneficios que pueden esperarse al encontrar una relación de reducción entre dicha teoría y una que intente sustituirla, pues los éxitos de la primera pasarán a ser, así, éxitos también de la segunda (visto al revés: proponer una teoría a la cual se pueda reducir otra teoría anterior, la cual haya sido ya descartada por su bajo nivel de verosimilitud, es una estrategia que ofrece muy pocos beneficios). Esto explica que el cambio de teoría a través de la reducción interteórica será más frecuente en aquellas disciplinas en las cuales las teorías sustituidas tenían un alto grado de éxito (digamos, la física y la química), que en las disciplinas en las que las teorías sólo consiguen predecir 93
unos pocos hechos y con gran dificultad (digamos, la psicología o la sociología). De todas formas, tampoco en este caso, como en el del principio de las redes arbóreas, es esencial la utilización del concepto de verosimilitud. Lo más importante de nuestra estrategia, en estos dos casos, es mostrar que las estructuras formales existentes en las teorías científicas, o en las relaciones entre teorías, se deben sobre todo al hecho de que los científicos intentan satisfacer algunas preferencias epistémicas con el menor coste posible, y es secundario cuáles sean esas preferencias.
8. LA NATURALEZA DEL PROGRESO CIENTÍFICO. La principal conclusión que podemos extraer de los apartados precedentes es que muchas de las pautas metodológicas más habituales en la práctica científica pueden ser explicadas suponiendo que los científicos persiguen maximizar una cierta función de
utilidad epistémica, en particular, una que valora sobre todo el “grado de realismo” de las
teorías científicas (en el sentido indicado más arriba). Si esto es así, entonces podemos razonablemente esperar que, en la medida en la que los científicos tomen sus decisiones metodológicas de acuerdo con tales patrones, y en la medida en la que los datos empíricos efectivamente encontrados sean razonablemente benévolos con las teorías efectivamente propuestas, entonces el grado de verosimilitud de las teorías científicas tenderá a aumentar. Expresado en términos un poco más precisos, podemos decir que el conocimiento científico progresa en el sentido de que: 1) cada vez existen teorías con un mayor grado de verosimilitud sobre ciertos conjuntos de aplicaciones empíricas, y 2) cada vez existen más aplicaciones empíricas sobre las cuales se conocen más datos (es decir, cuya descripción es cada vez más rigurosa, y, por lo tanto, ella misma es
más verosímil); estas nuevas “aplicaciones empíricas” son, sencillamente, “hipótesis teóricas de más bajo nivel” que han llegado a tener un nivel suficientemente alto de
verosimilitud. Teniendo en cuenta cómo hemos definido aquí la idea de verosimilitud, se sigue que no debemos considerar que el progreso científico sea necesariamente acumulativo, en
el sentido de que los “conocimientos” alcanzados en una época se “conserven” tal cual en
el futuro. Únicamente es necesario, para considerar que ha habido progreso en cierto campo, que las teorías existentes en un momento dado hayan alcanzado un nivel de verosimilitud mayor que el que tenían en el pasado, o bien que hayan sido sustituidas por teorías aún más verosímiles (para lo cual es posible, aunque no necesario, que las primeras sean reducibles a las segundas). También es posible que, en ocasiones, teorías que gozaban de un alto grado de verosimilitud con los datos empíricos disponibles en cierto momento, pasen a ser menos aceptables a la luz de los datos más nuevos, y que no se consiga idear
una nueva teoría satisfactoria para explicarlos; en este caso, el “progreso” del
conocimiento consistirá más bien en el reconocimiento de nuestros errores pasados. Esta interpretación del progreso científico es realista en el sentido de que afirma que la ciencia nos descubre cada vez más tipos de estructuras reales, y nos proporciona una información
cada vez mayor sobre ellas. La cuestión importante no es si existe una “verdad absoluta”
por descubrir, que sirva como límite ideal de la investigación científica, sino si el conocimiento alcanzado en una época cubre un ámbito de la realidad relativamente mayor que el conocimiento poseído en la época precedente, y si lo hace con más rigor. 94
Por otra parte, naturalmente no podemos asumir que los científicos individuales persigan una función de utilidad puramente epistémica (ni tampoco que nuestra noción de verosimilitud sea el único argumento epistémico de dicha función); otros factores “sociales” se incluirán en sus prefer encias, y afectarán notablemente a sus decisiones. Pero creo que podemos suponer razonablemente que las instituciones científicas están diseñadas
(conscientemente o de forma evolutiva) de tal manera que esos factores “perturbadores”
tengan la menor incidencia posible (lo que no significa una incidencia nula). Así, los
“hechos estilizados” que he intentado explicar podrían también tomarse, además de como
generalizaciones fácticas sobre la conducta de los científicos, como normas sociales acerca de qué decisiones son adecuadas para el progreso del conocimiento. Como siempre que encontramos una cierta norma en la sociedad, podemos sacar dos conclusiones a partir de ahí: la primera es que la norma será habitualmente seguida, en la medida en que la sociedad (en este caso, la comunidad científica) haya conseguido internalizar dicha norma en sus miembros, o aplicar sanciones suficientemente disuasorias contra su desobediencia; y la segunda conclusión es que existe en los individuos alguna tendencia a desobedecer la norma, pues, si dicha tendencia no existiera, ¿quién iba a molestarse en expresar la propia norma? Al fin y al cabo, “sin la ley el pecado estaba muerto” ( Romanos, 7, 8).
95
Capítulo VI SOCIOLOGÍA DE LA CIENCIA Y ECONOMÍA DE LA CIENCIA: OTRA EXTRAÑA PAREJA
96
1. INTRODUCCIÓN. Hasta hace no muchos años, el estudio de la ciencia como una realidad social ha
estado tradicionalmente desligado de su estudio como una actividad “puramente”
epistémica. Esto se correspondía bien con la idea de que la ciencia era el único ámbito de actividad humana en el que la objetividad prevalecía sobre los intereses particulares y los prejuicios culturales, y los propios sociólogos, deslumbrados tal vez por la prístina racionalidad del conocimiento científico (racionalidad que pretendían asimilar en su propio trabajo), apartaron en un principio a la ciencia de su esfuerzo investigador, mientras que sí consideraban como objetos apropiados de estudio aquellas creencias que, como la religión y la ideología, podían considera rse más “irracionales”. La obra de Émile Durkheim y de Karl Mannheim sobre la determinación social de las creencias es paradigmática de este rechazo a considerar la ciencia contemporánea como digno objeto de análisis sociológico. Incluso más adelante, cuando la escuela de Robert Merton comenzó a interesarse por las características plenamente sociales e institucionales de la ciencia, el propio ámbito de la metodología de la investigación científica se consideró que estaba al margen de posibles explicaciones sociológicas, y que sólo podía ser estudiado desde el punto de vista de la epistemología, cuyos principios filosóficos (en aquel entonces, la síntesis positivista-falsacionista defendida por autores como Carnap y Hempel, que había llegado a ser el modelo metodológico casi unánimemente aceptado por la cultura científica) debían ser aceptados como tales por cualquier investigación sociológica, tanto como explicación sustantiva de los criterios utilizados por los científicos al validar o rechazar las teorías y experimentos, como en cuanto norma metodológica estándar que los mismos sociólogos debían seguir si querían dar a sus investigaciones el suficiente grado de validez científica. Fue en los años sesenta y setenta cuando los sociólogos empezaron a perder el
respeto a este viejo “tabú”, en parte por la propia evolución interna de la disciplina, con
las respuestas al paradigma mertoniano, y en parte por la propia crisis de la concepción clásica de la metodología de la ciencia, crisis representada sobre todo por las obras de Kuhn y Feyerabend. Lo primero propició una proliferación de estudios empíricos sobre episodios concretos de la historia de la ciencia, en los que cada vez se iba ahondando más profundamen te en las imbricaciones “sociales” de los esquemas considera dos antes como simplemente epistemológicos. Lo segundo sirvió, como vimos en el primer capítulo, para indicar a los filósofos que el camino para comprender la producción del conocimiento científico pasaba por un estudio más detallado de su historia, incluyendo todos sus aspectos sociales, psicológicos, culturales, económicos, institucionales, etcétera. Así, desde hace unas tres décadas la sociología de la ciencia (y, más en concreto, la sociología del conocimiento científico, como gustan denominar a la especialidad algunos de sus practicantes) se ha convertido en una fecunda disciplina académica, habitada por numerosos programas de investigación que, si bien tienen todos ellos en común el rechazo al viejo “tabú” que prohibí a estudiar los condicionantes sociales de la
97
producción de conocimientos objetivos, por otro lado ofrecen varias perspectivas que a veces entran en conflicto entre sí, como en toda disciplina científica viva. 74 Un intento reciente de sintetizar los principales planteamientos y resultados de la especialidad es el que ofrece el libro de Cristóbal Torres Albero, Sociología política de la ciencia. ciencia. Su punto de partida es la idea de que, siendo la ciencia una institución institu ción social, puede ser estudiada convenienemente con la ayuda de las herramientas conceptuales de la sociología política. Según esto, las cuestiones principales a las que se debería dar respuesta son tres: 1) ¿cuáles son las características fundamentales del “orden científico”, es decir, los rasgos que distinguen la institución científica de las demás instituciones sociales (como el estado, la familia, el sistema económico, etcétera)?; 2) ¿cuáles son los factores que contribuyen al mantenimiento de mantenimiento de dicho orden?; y 3) ¿cómo puede cambiar dicho dicho orden, y debido a qué causas? En este capítulo examinaré las propuestas que, desde mi punto de vista, son más interesantes del citado libro en relación a estas tres cuestiones, e intentaré mostrar que dichas propuestas son en general bastante consistentes con lo que podría ser un estudio económico económico de las instituciones científicas. Con esto no me refiero simplemente al estudio de la financiación financiación de la ciencia, sino al intento de aplicar a la ciencia las herramientas analíticas de la moderna “economía de las institucio nes”. 75 Posteriormente me ocuparé de analizar algunos aspectos genéricos de dos de los programas de tantes, el “Programa Fuerte” de Barnes y Bloor, y el investigación más impor tantes, “constructivismo” de La tour, Woolgar y Knorr-Cetina, comentando los puntos de acuerdo y de conflicto que ambos enfoques po drían tener con la “econo mía institucional
de la ciencia”.
2. EL ORDEN CIENTÍFICO COMO UN ORDEN SOCIAL. 2.1. El carácter institucional de la ciencia. Todas las sociedades se han enfrentado de una u otra manera al problema del conocimiento: una cierta visión general del mundo y de la relación del ser humano con el cosmos, y un conjunto de conocimientos técnicos mediante los cuales enfrentarse de forma razonablemente exitosa a la naturaleza y al resto de los seres humanos, son dos de los requisitos más básicos que a toda sociedad le exigen sus miembros. Así, en todas las culturas ha habido instituciones encargadas de preservar y transmitir a las nuevas generaciones los conocimientos obtenidos por las antiguas, instituciones generalmente bien adaptadas al al tipo y la importancia de los conocimientos conocimientos que debían ser ser transmitidos por ellas (desde la relación familiar en la que la madre enseña a la hija cómo cuidar de los niños, hasta la iglesia que se encarga de controlar férreamente la observancia de la ortodoxia moral). En cambio, sólo desde hace unas pocas centurias existen instituciones institu ciones cuya primordial función sea la de generar conocimientos nuevos, nuevos, y no meramente transmitirlos (como en tantas otras cosas, la Grecia Antigua, con sus diversas
“Academias” y “Escuelas”, es una de las poquísimas excepciones, aunque con sus
particulares matices). Estas instituciones son las relacionadas con lo que normalmente llamamos “ciencia” y “tecnología”. No quiere esto decir que en las otras socieda des no 74
Una buena introducción a la sociología del conocimiento y de la ciencia es Lamo de Espinosa et al . (1994). Véase también González García et al . (1996) y (1997). Para la sociología mertoniana, ver Merton (1977). 75 V., p. ej., los trabajos recogidos en Hodgson (1993).
98
se produjeran conoci mientos “nuevos”; cada fragmento de conoci miento tiene su historia, claro está. Pero sí es cierto que en las sociedades antiguas no estaba institucionalizada institucionalizada dicha p roducción: los “descubrimientos” o “inventos” nuevos eran más bien el resultado secundario secundario de las prácticas cotidianas, hallazgos relativamente
aleatorios cuyo origen era rápidamente ignorado o trasladado al nebuloso “tiempo originario” de las leyenda s, del que supuestamente procedían todos los conocimientos
importantes poseídos por la sociedad. Básicamente, el que una actividad se haya institucionalizado, significa que se ha autónoma, al margen de los constituido como una entidad social con existencia autónoma,
individuos concretos que podrían figurar como sus “fundadores”, e incluso como algo
que es relativamente independiente de sus miembros actuales. Esto implica, en primer lugar, que los conocimientos producidos por la ciencia y la tecnología modernas no deben considerarse tanto el fruto de genios aislados, cuanto el resultado de la cooperación reglada reglada de muchos individuos, frecuentemente desconocidos unos para otros. En segundo lugar, y relacionado con lo anterior, la ciencia funciona de acuerdo con unas normas de normas de general aceptación entre sus miembros. Por último, en tercer lugar, el carácter autónomo de la institución hace que las relaciones entre la ciencia y el resto de la sociedad se se establezcan a través de mecanismos y procesos distintos a como serían si el conocimiento tuviera que ser obtenido por individuos y grupos aislados. Mi
discusión del “orden científico” se ocupará en primer lugar de estos tres puntos: el
carácter cooperativo de la ciencia, sus normas específicas y el carácter caráct er de sus relaciones con el resto de la sociedad. Posteriormente, en una segunda parte, expondré las líneas generales de una conceptualización económica económica de estos hechos, y, basándome en ella, me ocuparé de las tesis de Torres Albero sobre el cambio en cambio en las instituciones científicas,
así como, en la tercera parte, de las afirmaciones más importantes del “Programa Fuerte” y del “constructivismo”, dos de los enfoques más importantes de la moderna sociología “radical” de la ciencia. 2.2. La ciencia como empresa cooperativa. Se ha repetido en muchas ocasiones, con razón, que uno de los principales
defectos de la metodología “clásica” de la ciencia, y, en general, de la epistemología
tradicional, es el haber ignorado el carácter social del conocimiento científico. Podemos entender esta crítica viendo que los filósofos de la ciencia, desde Aristóteles y Descartes hasta Carnap y Popper, han pretendido establecer unas reglas metodológicas cuya pretensión básica era que, quien las l as si guiera, obtendría “conocimientos válidos” (en el sentido que cada teoría le dé a esta expresión), incluso aunque se tratara de un individuo aislado. aislado. Las reglas del método científico, como las de la aritmética o las de la lógica, no garantizaban una mayor validez por el hecho de s er aplicadas “por la
multitud”, aunque se tratara de una multitud de científicos. Pero, de hecho, el
conocimiento científico, tal y como lo conocemos, no puede ser producido por el individuo solitario, solitario, principalmente por dos motivos: principalmente, la limitación de recursos recursos del individuo, y secundariamente, el sesgo subjetivo subjetivo que éste tiende a manifestar en su trabajo. Con respecto a lo primero, cualquier proceso de investigación mínimamente serio va mucho más allá de lo que el individuo aislado podría emprender. En primer lugar , la investigación parte siempre de un corpus corpus de conocimientos heredado (no solamente compuesto por “teorías”, sino también por habilida des prácticas: el “conocimiento tácito” del que hablaba Po lany), y es precisamente porque existe ese 99
corpus por corpus por lo que el investigador puede plantearse resolver plantearse resolver un problema determinado. corpus posee el mismo grado de autoridad y Por supuesto, no todo el contenido de este corpus posee credibilidad; de hecho, en principio todo él podría ser criticado (aunque no simultáneamente), si bien, en la práctica, la mayor parte se considera como fuera de duda. En segundo lugar , el proceso de investigación requiere habilidades muy diferentes (a menudo, requiere incluso especialistas de disciplinas considerablemente dispares), que un individuo solitario no podría reunir debido al elevadísmo coste de alcanzar la necesaria competencia profesional ya en una sola de dichas habilidades; científico. Pero, aun cuando no sea llamémosle a esto la división horizontal del trabajo científico. necesaria la participación de especialistas de áreas distintas, el proceso fuertemente competitivo de la investigación exige establecer establecer al menos una clara división vertical del trabajo, entre los “investiga dores”, por una parte, y los “técnicos” o “ayudantes”, por
otra; un investigador sin ayudantes, sin “equipo”, no puede aspirar a obtener
conocimientos muy relevantes cuando sus competidores cuentan con recursos mucho más poderosos. En tercer ter cer lugar , los recursos precisos para casi cualquier investigación científica relevante están muy por encima de las capacidades financieras de un individuo aislado (y quienes poseerían esa riqueza, normalmente carecen de las habilidades científicas necesarias); esto significa que los científicos deben esforzarse
por “vender su producto” de alguna manera, sea a instituciones académicas o a
organizaciones industriales, industriales, con lo que el tipo de tipo de conocimiento que acaben produciendo, y la forma de cooperar y competir unos con otros, serán seguramente distintos de como serían si no debieran preocuparse por la financiación de sus investigaciones. Con respecto a lo segundo (el sesgo subjetivo del individuo), frente a la concepción tradicional de la objetividad como algo identificable con la certeza cartesiana, que e l individuo puede alcanzar obedeciendo nada más que a su “luz natural”, la psicología y la episte mología modernas han puesto de manifiesto que no existe más objetividad que la intersubjetividad . Esto se debe, fundamentalmente, al hecho de que el individuo construye su visión del mundo, su imagen interna de la realidad, sobre la base de su interacción con los demás individuos. El concepto de
“conocimiento objetivo” no significaría, pues, “la imagen del mundo que es determinable por la razón y la experiencia desnu da”, sino más bien “aquella representación del mundo que está sancionada en un cierto marco social”. Si yo creo ver
un fantasma y los que me rodean no lo ven, más que aceptar que poseo extrañas facultades de percepción extrasensorial, lo que tenderé a pensar es que estoy perdiendo los tornillos o que debo dejar de beber. Si una prueba matemática me parece totalmente convincente, pero los matemáticos profesionales se ríen de mí cuando se la presento, no pensaré que soy el incomprendido incomprendido descubridor de la contraaritmética, contraaritmética, sino más bien que me debería plantear el dedicarme a otra cosa. Todo esto significa que, al menos en
nuestra sociedad, no consideramos “conocimiento válido” a lo que procede de la
experiencia o el razonamiento de un individuo aislado, aisl ado, sino a lo que ha pasado una serie de controles sociales de calidad , sobre todo el de la contrastación intersubjetiva e independiente llevada a cabo por parte de varios sujetos, y no unos sujetos cualesquiera, sino sólo aquellos que han sido socialmente “homologados” para llevar a cabo dicha contrastación: los “científicos especialistas”. En resumen, las principales implicaciones del carácter social de de la ciencia son: 1) la aceptación, por parte del científico individual, de un corpus corpus de conocimientos socialmente certificado (esta aceptación puede tener grados de intensidad), 2) la necesidad de la división del trabajo científico, 3) la necesidad de captar recursos, y 4) la 100
exigencia social del “consenso de los espe cialistas” para que algo sea ac eptado como “conocimiento científico”. Todo esto hace que el científico deba confiar continuamente
en la palabra y el trabajo de otros (aunque no deba hacerlo siempre). Las características fundamentales de la institución científica serán, pues, aquellas que garantizan un suficiente grado de confianza por parte de los científicos hacia sus colegas (y hacia aquellos de quienes depende el flujo de recursos económicos hacia la ciencia, aspecto del que me ocuparé en el apartado 4). Precisamente los dos elementos que Torres Albero ( op. cit., pp. 35 y ss.) señala como rasgos básicos del orden científico, a saber, la existencia de un sistema público de comunicaciones (sobre todo, las revistas especializadas y los congresos) y de un conjunto de mecanismos de control de calidad (el sistema académico de acceso a la profesión, la institución de los referees, etcétera), irían precisamente en esta dirección.
Los motivos que hacen que todos estos “sistemas de generación de confianza”
funcionen, y que han sido discutidos abundamentemente por los sociólogos de la ciencia, son expuestos también en la obra citada (pp. 40-84). Básicamente se trata de dos posibilidades. Primero, un científico puede confiar en las afirmaciones y actuaciones de otros investigadores porque piensa que éstos comparten sus mismos “valores científicos”; de este modo, si todos los miembros de la comu nidad científica76 están movidos altruistamente en su investigación por los mismos valores (por ejemplo, la lista ofrecida por Merton; v. Torres Albero, op. cit., pp. 41 y ss.), se podrá confiar en
que han actuado con “honradez”. Pero también, en segundo lugar, la confianza puede
proceder del hecho de que cada investigador sabe que los otros tienen un interés personal en seguir ciertas pautas comúnmente aceptadas. Son, en resumen, las teorías
“consensualista” y “del intercambio” que analiza Torres Albero.
Haciendo una analogía económica, podemos plantearnos la cuestión de por qué confiamos que la lata de conservas que adquirimos en el supermercado va a tener una calidad que corresponde a su precio. Las dos posibles respuestas son que, o bien creemos en la honradez del fabricante, o bien creemos que la mejor estrategia que puede seguir éste para maximizar sus beneficios es ofrecer una relación calidad-precio igual o mejor que la que ofrecen sus competidores. En el primer caso, confiamos en la moral de los otros (su “ethos”); en el segun do, confiamos en el sistema de mercado de libre competencia (y en la eficacia de las leyes que castigan el fraude). En el campo de la economía, parece haber cierto consenso en que es el segundo mecanismo el que genera la confianza de los consumidores (y de los empresarios, que también deben confiar en la calidad de los productos que adquieren su empresas), aunque en las economías precapitalistas es posible que prevaleciera el primer mecanismo. En el caso de la ciencia, empero, no está tan claro cuál de los dos sistemas de generación de confianza es el predominante. Por un lado, los estudios empíricos más recientes han puesto de manifiesto la importancia de los intereses (o, en términos
económicos, los “incentivos”) en la conducta de los científicos; pero, por otro lado, hay
que tener en cuenta que, en nuestra sociedad, quien se dedica a los negocios lo hace básicamente por el afán de riqueza, mientras que quienes deciden dedicarse a la investigación científica lo hacen más bien porque en ellos domina el afán del conocimiento. Es cierto que, cuando este afán se traslada al campo de batalla del laboratorio, de los congresos y de las publicaciones, la intensa competencia entre 76
Respeto el uso tradicional de esta expresión, aun aceptando las críticas aducidas contra el término en por Torres Albero en op. cit. pp. 92 y ss.
101
investigadores hace que el interés por “(con)vencer” a los demás se manifies te como el motivo primordial; pero no es menos cierto que sólo llegan a participar en esa competencia individuos para quienes el conocimiento científico es algo valioso en sí mismo (¿quién soportaría, si no, la disciplina de una carrera y un doctorado?), y que, aunque el principal incentivo que ofrece el sistema científico a los individuos es el “reco nocimiento”, los investigadores desean ser reconocidos por sus descubrimientos científicos, y no por otras cosas (al fin y al cabo, alguien que aspira al
“reconocimiento”, pero que no valora “la ciencia por la ciencia”, haría mejor en dedicarse al deporte, a la política o al rock 'n' roll , con lo que sería “reconocido” por
millones de personas, y no por los cuatro gatos que admiran a quien descubrió la composición química de la clorofila). En resumen, ambos factores, valores e intereses, son sin duda alguna relevantes en la explicación de la conducta de los científicos, y será necesario estudiar su interrelación.
2.3. Las normas de la ciencia. Una vez que está claro que la confianza es el principal rasgo de la institución científica, debemos estudiar cuáles son las normas que garantizan esa confianza. Si admitimos que compartir ciertos valores es lo que permite que los científicos confíen los unos en los otros, hemos de aclarar cuáles son tales valores y en qué tipo de normas sociales se manifiestan. Si, por otro lado, aceptamos que es el sistema de incentivos el que ofrece las garantías de confianza, hemos de decir también cuáles son los rasgos que definen dicho sistema. En ambos casos, la actividad científica, como cualquier otra institución, se basará en un conjunto determinado de normas sociales. Un comentario crítico que podría hacerse a mis afirmaciones del apartado anterior es que los científicos no confían realmente en las afirmaciones de sus colegas tanto como he dicho, sino que más bien desconfían, lo que se comprueba al contemplar la ciencia en proceso de elaboración, que es la verdadera actividad científica, y no la ciencia ya elaborada (para usar la terminología de Bruno Latour). En este escenario dinámico y fuertemente competitivo, cada científico intenta rebatir las afirmaciones de los demás. Ahora bien, un simple vistazo a cualquier caso concreto de polémica científica muestra que, por cada afirmación que un investigador intenta refutar, debe basarse en la aceptación, expresa o tácita, de cientos de otras afirmaciones. Podríamos preguntarnos, entonces: si los científicos no se creen algunas afirmaciones de sus colegas, ¿por qué no desconfían de todas las demás? La respuesta, idealmente, es que los científicos se fían de una afirmación sólo si
piensan que en el pasado otros científicos desconfiaron de ella y la afirmación “resistió” los intentos de ser refutada. Es decir, los científicos admiten un enunciado sólo si ha sido sometido a crítica, y tanto más lo admiten cuanto más severa haya sido dicha
crítica (y menos éxito haya tenido, por supuesto). Esto es el conocido “escepticismo organizado” al que se refería Merton, o el viejo falsacionismo popperiano. Esta norma,
la de aceptar un enunciado sólo cuando ha resistido la crítica más severa posible , es válida tanto si presuponemos que la confianza se basa en los valores, como si admitimos la teoría de los incentivos. En el primer caso, el principal valor que justifica la norma es el del rechazo de la autoridad como fuente de conocimiento, o, dicho de otra manera, el valor de la autonomía epistémica. La ciencia se basa en que las únicas fuentes últimas
“fiables” de conocimiento son la razón y la experiencia, no la revelación, la tradición,
los intereses de clase o algo parecido. Y, puesto que el individuo aislado no puede 102
producir por sí mismo una cantidad mínimamente significativa de conocimientos de ese tipo, exige que “la razón y la experiencia” hayan sido aplica das por otros con el mayor rigor posible. Aquí encontramos la base de lo que podríamos llamar la “constitución” o el “contrato social” de la ciencia .
En el hipotético “contrato social” de la sociedad civil,
cada individuo renuncia a utilizar la violencia contra los demás a cambio de que éstos también renuncien a utilizarla; es decir, cada individuo acepta obedecer ciertas leyes y no actuar arbitrariamente, a condición deque los demás realicen el mismo compromiso. Este es el fundamento (normativo, ya que no histórico) del orden social, según la vieja tradición del contractualismo. El fundamento del orden científico consistiría en algo muy semejante: cada investigador trabaja intentando averiguar si algunas afirmaciones son fiables o no (pues no puede ocuparese de todos los enunciados de la ciencia), y acepta el compromiso de no presentarlas como fiables más que si han resistido una discusión pública77 lo más severa posi ble (“pública” no significa aquí necesariamente que una multiplicidad de individuos haya participado de hecho en la contrastación del enunciado; más bien se trata de que el investigador haya tenido en cuenta el mayor número posible de las objeciones que sus colegas podrían hacer). Es decir, el científico acepta el compromiso de no hacer afirmaciones arbitrariamente, sino sólo teniendo en cuenta la mayor cantidad de evidencia racional y empírica que él y sus colegas puedan aportar; y, de igual forma que en el orden social, este compromiso se produce a cambio de que el resto de los científicos lo acepten también. Así pues, los investigado res “actuales” cooperan y compi ten entre sí intentando presentar afirmaciones que resistan todas las críticas que sean capaces de imaginar y de llevar a la práctica, alcanzando en ciertos casos un consenso sobre ciertas afirmaciones que pueden considerars e “fiables”. Y, por otro lado, aceptan muchos otros enuncia dos acríticamente porque dan por supuesto que, si los investigadores “pasados” acordaron que tales enunciados eran fiables, lo hicieron obedeciendo la propia norma de la crítica. Visto de otra forma, el principal problema del orden científico es el de por qué los investigadores aceptan acríticamente gran parte de lo que han afirmado sus predecesores, cuando parece que lo que distingue a la ciencia de otras instituciones, especialmente de la r eligión, es el rechazo a los “argu mentos de autori dad”. La respuesta contractualista a este problema es que cada científico confía (aunque no necesariamente de forma ciega) en que sus antecesores ya han examinado lo más críticamente posible aquellas afirmaciones que presentan como conocimiento fiable. Ahora bien, puesto que la fiabilidad de un hecho, ley o teoría se decide por consenso, también se admite que dicho consenso puede ser roto en cualquier momento, de forma parecida a como el compromiso constitucional de ajustarse a la ley no impide llevar a cabo acciones legítimas para cambiar la ley. Una segunda norma de la ciencia sería, pues, que cualquier enunciado previamente aceptado es revisable si se presentan argumentos que la comunidad científica de cada momento considere relevantes. Estas dos primeras normas, la aceptación de los enuncia dos “antiguos” a cambio
de someter a la más severa crítica los enunciados “nuevos”, y la revisabilidad de todos los enunciados, no son normas exclusivamente metodológicas, sino auténticas normas sociales, en el sentido de que implican una orientación fundamental de la conducta de 77
“Pública” no significa aquí necesariamente que una multiplicidad de individuos haya participado de
hecho en la contrastación del enunciado; más bien se trata de que el investigador haya tenido en cuenta el mayor número posible de las objeciones que sus colegas podrían hacer.
103
los científicos: dicen lo que cada miembro de la comunidad científica espera que los otros hagan, es decir, establecen lo que los individuos deben hacer . Pero ambas normas afirman esto en un sentido muy genérico, sin especificar exactamente de qué forma se puede someter a crítica cada tipo de enunciado: son, en realidad, normas metametodológicas. Esto significa que cada comunidad científica deberá establecer además un conjunto de reglas metodológicas propiamente dichas, que concreten las formas en las que puede obtenerse la evidencia empírica, los argumentos que se considerarán válidos o relevantes, etcétera. Dichas reglas pueden tomarse a su vez como afirmaciones revisables, sujetas a posteriores críticas, y no como criterios eternos e inmutables; también es de esperar que sean distintas en los diferentes campos de investigación y en las diversas disciplinas científicas, en parte debido a la naturaleza del objeto de estudio de cada una, y en parte a causa de las negociaciones que hayan existido acerca de tales normas. En cuarto lugar, encontramos aquellas normas que regulan el proceso que conduce a lo que he denominado muy genéricamen te “consenso”. Estas normas serían,
al nivel “constitucional” del que me estoy ocupando, el análogo a las “reglas de votación” o “reglas de decisión colectiva” en los diversos siste mas legislativos. Los términos “consenso” y “acuerdo” s on hasta cierto punto confundentes, porque parecen
indicar la necesidad de una decisión unánime por parte de los científicos a la hora de determinar el grado de fiabilidad que debe conferirse socialmente a un enunciado. Esto, naturalmente, no tiene por qué ser así (cf. Torres Albero, op. cit., p.123 y ss.): la opinión expresada por unos científicos puede y suele contar mucho más que las opiniones de otros a la hora de tomar esas decisiones. La manera en la que las opiniones de los distintos miembros de la comunidad científica se “agregan” para consti tuir la decisión social será también una norma importante del orden científico. Este problema es, desde otro punto de vista, el de determinar el grado de autoridad cognitiva, o grado de credibilidad , que cada miembro de la comunidad científica posee, y de qué forma y por qué factores se determina dicho grado. Cada comunidad científica tendrá, posiblemente,
unas “reglas de decisión social” peculiares, fruto de la historia de cada comunidad y de
los distintos procesos de negociación que tengan lugar dentro de las mismas. En quinto lugar, el trabajo científico requiere el uso de diversos recursos económicos (laboratorios, revistas, ordenadores, “capital humano”, dinero, etcétera), todos los cuales, por supuesto, pueden utilizarse de formas muy diversas y para fines muy diferentes. Las comunidades científicas deberán poseer, por lo tanto, un conjunto de normas que determinen qué uso debe dársele a cada recurso cuando existe un conflicto entre varios usos alternativos: por ejemplo, qué tipo de problemas estudiará cada investigador, qué artículos se publicarán en cada revista, que proyectos de investigación van a ser financiados, qué estudiantes admitir como becarios, qué experimentos u observaciones realizar, etcétera. Estas normas sobre el empleo y la distribución de los recursos funcionarán realmente como asignaciones de poder científico, un concepto que podemos distinguir así del de autoridad cognitiva, analizado en el párrafo precedente; ambos conceptos corresponderían a los que discute Torres Albero como autoridad en los contextos micro- y macro- social (“poder”), y micro - y macro-cognitivo (“autoridad) ( op. cit., pp. 101 y ss.). La diferencia entre autoridad cognitiva y poder científico puede verse con claridad si se tiene en cuenta que un científico fallecido puede poseer lo primero, pero, evidentemente, no lo segundo; es decir, sus opiniones pueden tener fuerte influencia en las de sus colegas vivos, pero no puede decidir lo que éstos van a hacer con sus recursos. 104
Los sistemas concretos de normas relativas a la autoridad cognitiva y al poder sobre los recursos pueden variar considerablemente de unas comunidades científicas a otras; en cada caso, serán factores históricos los que hayan conducido a un conjunto de normas en particular, aunque sería interesante establecer algunas regularidades significativas y buscar alguna explicación satisfactoria de las mismas, un trabajo que excede lo que puedo realizar aquí. Por ejemplo, ¿existe una correlación perfecta entre la autoridad y el poder?, es decir, ¿controlan más recursos quienes poseen más credibilidad, o puede no ocurrir así? ¿Existe en todas las comunidades científicas una élite que monopolice la autoridad y el poder, o varía el grado de estratificación de unas comunidades a otras? ¿Depende este grado de estratificación de la magnitud de los recursos manejados por la comunidad, del tipo de problemas cognitivos estudiados en
cada disciplina, de “accidentes históricos”, o de factores de otro tipo? ¿Qué
consecuencias pueden tener sobre la evolución del conocimiento las diferentes estructuras de autoridad y de poder?
2.4. Las relaciones de la ciencia con el resto de la sociedad. Como indicaba al principio, la institucionalización de la ciencia implica que sus relaciones con el resto de la sociedad serán muy diferentes a como serían en el caso de que la producción del conocimiento estuviera en manos de individuos aislados. Una primera consecuencia (muy buscada originariamente por los científicos) de dicha institucionalización fue el aumento de la credibilidad de las afirmaciones de la ciencia ante el resto de los individuos. Precisamente la creación de las primeras instituciones científicas propiamente dichas (como la Royal Society en el siglo XVII y las facultades de ciencias en las universidades alemanas del XIX) no sólo tenía la misión de facilitar el trabajo investigador y hacer más fluida la comunicación entre los científicos, sino también de presentar la ciencia ante la sociedad como una voz digna de crédito, por lo menos al mismo nivel que las voces que hasta el momento gozaban de la autoridad cognitiva. Era, por así decir, una estrategia propagandística. El éxito de la ciencia en este terreno ha sido tan alto que hoy en día la consideramos como el principal (y en casi todos los terrenos, prácticamente el único) depositario de la autoridad cognitiva. Nada puede ser tan cierto para nosotros como lo
que está “científicamente demostrado”. Tanto es así que hasta en muchos campos donde
la ciencia no ha llegado a producir realmente un conocimiento amplio y preciso, nuestra sociedad mantiene la ilusión de que los “especialistas” en esos campos están mucho más
autorizados a opinar que la “gente corriente”, más incluso que quienes poseen un
conocimiento cotidiano, pragmático y ateórico sobre los problemas de dichos ámbitos. En general, ocurre así en las ciencias sociales, pero también en muchas aplicaciones concretas de las ciencias “duras”. Por otro lado, hemos de preguntarnos por qué confían los científicos en que la sociedad va a seguir aportando fondos con los que financiar sus investigaciones y sus empleos. Igual que en el caso de la confianza entre científicos, de nuevo son dos las explicaciones posibles: o bien creen que la mayoría de los ciudadanos (o de los gobernantes y legisladores) valoran el conocimiento por el conocimiento y aceptarán por ello que una parte de sus impuestos se destine a financiar la ciencia, o bien admiten que la sociedad sólo está dispuesta a mantener a los científicos en su cómoda torre de marfil si éstos consiguen, con sus descubrimientos, proporcionar otras cosas valiosas, aunque sea a largo plazo. En ambos casos, los científicos deberán esforzarse por hacer que el conocimiento que producen sea valorado en la sociedad. Una sociedad que no 105
obtenga en general ningún beneficio a partir de la ciencia, difícilmente la tolerará, excepto, si acaso, como el divertimento de unos pocos ricos estrafalarios, que puedan financiar por sí mismos sus investigaciones. Esto im plica que el “orden científico” deberá estar relativamente adaptado al tipo de necesidades que la sociedad espera satisfacer gracias a la ciencia. También es de suponer que las disciplinas más capaces de producir conocimientos socialmente valiosos gozarán de una mayor financiación, y, posiblemente, de un mayor prestigio e influencia, tanto sobre la sociedad como sobre el resto de las especialidades. Naturalmente, aunque en todo este apartado haya estado hablando en singular de “la sociedad”, no debemos olvidar que ésta está formada por grupos, instituciones e individuos con intereses y opiniones no sólo diferentes, sino muy a menudo
contrapuestos. Los “expertos”, por ejemplo, pueden manifestar opiniones “científicas”
divergentes sobre ciertas cuestiones si están sostenidos por grupos de presión con intereses políticos o económicos distintos, que quieren todos ellos presentar sus puntos de vista con el status de “conocimiento certificado”. Debido a esta tendencia general a intentar apropiarse de la credibilidad que proporciona la ciencia, las instituciones científicas deben desarrollar unas normas especiales que protejan por lo menos algunas afirmaciones (y, a ser posible, el mayor número de ellas) de la constante sombra de duda que proyectaría sobre el conocimiento la posibilidad de que dichas afirmaciones estén basadas en intereses particulares, y no en criterios epistémicos de validez institucionalmente aceptados. Con respecto a las posibles fuentes de financiación de la investigación científica, también deben tenerse en cuenta los diferentes intereses presentes en la sociedad. Por ejemplo, aquellos conoci mientos cuyo “valor social” puede traducirse rápidamente en un beneficio económico (en general, la tecnología), serán demandados por empresas, que intentarán forzar la evolución de ese conocimiento hacia aquellos desarrollos que tengan mayor interés para ellas, sin que necesariamente tengan que coincidir con los que un mayor número de personas desea rían. La “ciencia básica”, en cambio, cuyos
productos tienen las cualidades de los llamados “bienes públicos”, y cuyos beneficios
prácticos son más dudosos a corto, y a veces incluso a largo plazo, es más difícil que sea financiada por empresas privadas, y los científicos intentarán convencer a las instituciones públicas para que proporcionen la mayor financiación posible. Esta financiación dependerá más bien, por tanto, del valor político que se le dé a la ciencia en general y a los diversos proyectos de investigación en general. Idealmente, deberían ser las preferencias de los ciudadanos las que determinaran el grado de financiación que debería otorgarse a cada uno de estos proyectos (en algo así consistiría la “democratización de la ciencia”), pero teniendo en cuenta la canti dad de información necesaria para la toma de este tipo de decisiones, es más de esperar que éstas se produzcan mediante mecanismos muy burocratizados, y que incluso las diferencias entre las políticas científicas propuestas por los diversos partidos no sean muy diferentes. Al fin y al cabo, los ciudadanos deciden el partido al que votarán más en función de sus propuestas sobre otros problemas más cotidianos (el paro, las pensiones, los impuestos, la seguridad, etcétera). Además, los políticos sólo pueden recibir información fiable sobre el valor de cada proyecto de investigación a partir de los propios científicos; los políticos, pues, tenderán a delegar en los científicos la toma de decisiones sobre el reparto por disciplinas y por proyectos de investigación de la financiación global a la “ciencia básica”, y serán las propias luchas internas entre los diversos grupos de científicos las que determinen cuántos recursos obtendrá cada uno. 106
Esto significa que, a la estructura de poder dentro de cada disciplina, disciplina, de la que hablamos en el apartado anterior, hay que sumarle una estructura de poder entre disciplinas diferentes, diferentes, si bien la explicación de cada una de ellas será sin duda muy distinta: la primera puede deberse al diferente grado de credibilidad de cada científico o grupo de investigación, mientras que la segunda puede depender en mayor medida de factores “externos”, como serían la valoración social de cada disciplina, su anti güedad en el contexto académico establecido, la habilidad política de ciertos científicos, etcétera.
3. EL ORDEN CIENTÍFICO COMO UN EQUILIBRIO ECONÓMICO. 3.1. Una explicación “económica” de la investigación cien tífica. En los apartados anteriores he presentado una descripción, naturalmente en líneas muy generales, de las principales características que presenta la ciencia cuando se la contempla desde la perspectiva de una institución social. Resumiéndolo lo más brevemente posible, el conocimiento científico es el resultado de la interacción de muchos individuos, y esa interacción se produce en el marco de unas normas sociales, que son las que definen la ciencia como institución. En este apartado voy a plantear, en cambio, la posibilidad de una explicación económica de estas características sociales de
la ciencia. Por “explicación económica” entiendo aquella que se basa en la idea de que los individuos son agentes racionales, racionales, maximizadores (o, al menos, “satisfacedores”) “satisfacedores”) de
una función de utilidad que refleja sus preferencias individuales, y cuya interacción produce un estado social de equilibrio (o, al menos, una tendencia clara hacia ese estado), que es el que puede observarse empíricamente. La explicación económica de la investigación científica contendría, así, dos elementos básicos: 1) la descripción de las funciones de utilidad que deben asignarse a los agentes; a gentes; 2) la especificación del proceso que conduce las conductas de los agentes hacia un estado de equilibrio. Para entender mejor lo que se pretende con este tipo de explicación, conviene hacer una analogía ent re el “sistema de libre mercado”, tal como lo concibe la teoría económica están dar, y el “sistema científico”. En el caso del mercado, lo que deseamos explicar son los precios relativos de los distintos bienes, las cantidades producidas de cada uno, y la distribución final de éstos entre los diversos agentes. Partiendo de unas dotaciones iniciales de bienes y factores de producción, la interacción entre las preferencias de los agentes, por un un lado, y la tecnología tecnología disponible, por otro, hace que se alcancen unos niveles de producción de cada bien y unos precios relativos de éstos tales que sea imposible cambiar dichos niveles de producción y dichos precios sin perjudicar a alguien, esto es, sin disminuir su utilidad, y, lo que es más importante, sin generar los incentivos que llevarían a los agentes a volver nuevamente a aquellas cantidades y
precios de equilibrio (esto es lo que los economistas llaman una situación “eficiente”).
Finalmente, los precios resultantes de los factores productivos (trabajo, tecnología y recursos naturales) determinarán la renta de cada agente, es decir, la parte de la producción global global que cada uno uno podrá apropiarse. apropiarse. Los principales aspectos que me interesa señalar de este modelo, para establecer la analogía con el sistema científico, son los siguientes:
107
a) el valor económico de económico de cada bien, que se identifica con su precio, depende de subjetivos (las distintas prefe rencias o “valora la interacción de una serie de factores subjetivos (las ciones” de cada individuo, tanto sobre el valor que para él tengan t engan los diferentes bienes, como sobre el valor del trabajo, del ocio, del consumo presente y del consumo futuro) y una serie de factores objetivos (las objetivos (las posibilidades técnicas al alcance de la sociedad); b) el proceso que conduce al equilibrio se equilibrio se basa en que, cuando la situación no es de equilibrio, algunos agentes perciben posibles acciones que les harían estar mejor (por ejemplo, cambiar las cantidades consumidas de ciertos bienes, cambiar la tasa de ahorro, producir diferentes cantidades de bienes, etcétera); de hecho, el equilibrio se define como aquella situación en la cual nadie tiene ningún incentivo para modificar su conducta, teniendo en cuenta cuál es la conducta de los demás (“equilibrio de Nash”); c) la distribución de la renta y de la riqueza a la cual se llega como resultado del
proceso económico no tiene por qué ser “igualitaria”, pero dependerá de dos factores
cuya crítica o justificación es bien diferente: la riqueza de todo tipo de la que parte cada individuo (que los difere ncia ya en la “línea de sa lida”) y las preferencias de todos los agentes (que pueden tender a dar más valor económico a unos tipos de riqueza o de
talento que a otros; por ejemplo, probablemente no sea necesario un mayor “talento”
para encestar triples en el baloncesto que para matar moscas escupiéndoles, escupiéndoles, pero las preferencias de millones de individuos hacen que quien tiene el primer tipo de talento pueda hacerse rico en el mercado gracias a él, mientras que quien posee el segundo lo tiene mucho más difícil); d) todo el proceso de producción, intercambio y distribución en la economía de mercado se basa en el respeto a una serie de normas (por normas (por ejemplo, la aceptación del valor del dinero como medio de pago, la no discriminación entre compradores, la libertad de entrada y salida del mercado, la evitación del fraude, etcétera); estas normas institución que antecede a los son en parte heredadas por la sociedad (es decir, son una institución que individuos), en parte cambiantes como resultado de acciones descoordinadas, cuyo fin voluntario no es el de cambiar esas normas (es decir, son el resultado de una evolución constante), y en parte susceptibles de modificación por la acción voluntaria y coordinada de los miembros de cada “generación” (es decir, pueden ser transform adas a través de una reforma constitucional o o simplemente legislativa).
Los correspondientes aspectos del “sistema científico” serían, a su vez, los
siguientes: a) el valor científico de científico de cada enunciado para una comunidad de investigadores dependerá de factores objetivos (los resultados de los experimentos, observaciones y pruebas lógicas, que no pueden ser modificados de forma arbitraria) y de factores subjetivos (la interpretación que cada investigador dé a estos resultados, y la importancia que tengan para ellos y para los demás agentes sociales). Todos estos factores no se “suman”, simple mente, sino que se combinan a través de un complejo proceso de interacción, en el que lo más importante es la percepción que cada científico tiene sobre las opiniones de sus colegas; es decir, no todos todos los miembros de la comunidad darán probablemente la misma valoración a cada enunciado, sino que por distribución de valoraciones que “valoración social” debemos entender, más bien, la distribución dan los diferentes individuos a cada enunciado; b) la valoración epistémica de un conjunto de enunciados científicos llegará a una situación de equilibrio cuando ningún investigador tenga un incentivo en llevar a cabo alguna acción (p. ej., nuevos experimentos, nuevos argumentos, etc.) que podría dar como resultado un cambio en aquellas valoraciones; 108
c) la autoridad cognitiva de cada científico será el resultado del valor que los
enunciados “producidos” por él tengan en la valoración epistémica de equilibrio
alcanzada por la comunidad científica, y que hemos mencionado en el punto b; a su vez, el control que cada investigador posea sobre los recursos científicos dependerá de su autoridad cognitiva; ahora bien, la relación entre el poder, la autoridad y la productividad de cada investigador no tiene por qué ser una relación sencilla, digamos
“lineal” (eso dependerá de la forma en la que institucionalmente interactúen los
científicos entre sí y con el resto de la sociedad), y además, dicha relación también puede depender de otros factores (por ejemplo, la autoridad puede “heredarse” en parte de la institución donde uno trabaja o de los científicos con los que uno se ha formado; v. Torres Albero, op. cit., cit., pp. 113 y ss.); d) las normas que definen las diversas instituciones científicas también pueden evolucionar, en parte como resultado de pequeños cambios cuyos efectos sobre las instituciones (involuntarios) sólo son perceptibles al cabo de mucho tiempo, y en parte como resultado de la discusión explícita en ciertos momentos de la historia de cada disciplina. Teniendo en cuenta esta cuádruple analogía, debemos volver a las cuestiones que planteábamos unos párrafos más arriba. Con respecto a la función de utilidad de los científicos, es necesario regresar a la discusión que ya comentamos en el apartado segundo entre quienes defendían los valores valores como principal factor explicativo de la intereses. Creo no conducta de los científicos, y quienes hacian lo propio con los intereses. distorsionar mucho la historia de la disciplina si sugiero que la sociología sociolo gía mertoniana de la ciencia ofrecía una visión del investigador científico como un agente cuya función de utilidad poseía como argumentos principales el valor epis témico “objetivo” de los enunciados científicos en general y el reconocimiento que recibía de sus colegas, el cual, a su vez dependía del valor epistémico “objetivo” de las aportacio nes de aquél; por su parte, la “nueva” sociología de la cien cia consideraría que los únicos argumentos reales de esa función de utilidad son la “rentabilidad” que el investigador obtiene como fruto de sus decisiones, y, si acaso, el beneficio que un cierto resultado científico puede aportar a los grupos sociales con los que el investigador se sienta de algún modo “identificado”. La sociología “clásica” de la cienc ia partiría, pues, de las hipótesis de
que los científicos son generalmente capaces de reconocer el “verdadero” valor
epistémico de los enunciados de su disciplina (basándose en los principios autónomos de la metodología de la ciencia) y de que el mecanism o social del “reconocimiento del mérito” identifica de forma aproblemática las contribuciones “realmente” valio sas. La
“nueva” sociología de la ciencia, al negar la existencia de algo así como un “valor epistémico verdadero”, únicamente puede explicar la conducta de los científicos en función de “factores sociales”, que nada tienen que ver con la objeti vidad del
conocimiento, tal como se entendía este concepto en la filosofía tradicional de la ciencia. Como ya indiqué en el apartado segundo (y como tendré ocasión de reiterar al comentar la corriente constructivista), creo que una visión más realista de la investigación científica tiene que admitir la importancia de ambos tipos de factores, los epistémicos y los sociales. Así, incluiré en la función de utilidad de los científicos tres variables principales (que luego pueden ser analizadas en componentes más básicos): el valor epistémico epistémico de cada enunciado científico desde el punto de vista vista de cada investigador (evitando así la introducción de un “valo r epistémico verdadero”), el prestigio que prestigio que cada uno pueda alcanzar (tanto individualmente, como por pertenecer p ertenecer a un 109
grupo social determinado, y asumiendo que este prestigio conduce también al disfrute de otros bienes y recursos), y, por último, la opinión de los colegas sobre cada cuestión relevante (y, en algunos casos, también la de los demás miembros de la sociedad). Con respecto al proceso que conduce a la comunidad científica a un equilibrio determinado, hemos de plantear primero cuáles son los diferentes tipos de decisiones que cada investigador debe tomar en el marco de su trabajo. Estas decisiones (que no son tomadas necesariamente en el orden en el que las menciono; más bien todas ellas tienen lugar de forma continua) podemos clasificarlas en cuatro grandes categorías: a) qué valoración dar a cada enunciado científico presentado por sus colegas; b) qué experimentos, observaciones, argumentos teóricos, etcétera, intentar llevar a cabo; c) qué interpretación ofrecer de sus resultados; d) cómo comunicarse con sus colegas y con el resto de la sociedad. Las decisiones del primer tipo se refieren a si un cierto enunciado es susceptible de crítica o no, cuál es su grado de probabilidad o verosimilitud, si debe ser tenido en cuenta o ignorado, etcétera. Las decisiones del segundo tipo incluyen, desde las acciones más rutinarias de la investigación (cuántas veces repetir un test, qué nivel de significación considerar aceptable en cierto estadístico, etcétera), hasta decisiones más trascendentales para el científico, como qué proyectos de investigación elegir, en qué instituciones trabajar, qué becarios admitir, o con qué equipos colaborar, en la medida en la que todo esto conduce, directa o indirectamente, a llevar a cabo un cierto trabajo empírico o teórico en lugar de otro. Las decisiones del tercer tipo suponen que, como consecuencia de las acciones que el investigador ha llevado a cabo (individualmente, o con más frecuencia, en equipo), se han alcanzado unos ciertos resultados empíricos o formales, pero estos resultados no conllevan su propia interpretación como una etiqueta adherida, sino que, al comunicarlos al resto de los colegas, el investigador debe elegir la forma en la que cree que deben ser interpretados. A veces sólo percibirá una interpretación posible, pero en muchas ocasiones existirán varias, y es concebible que, aunque él sólo vea unas pocas posibilidades, otros científicos vean luego más. Por otro lado, proponer una teoría científica no es más que un caso particular de este tipo de decisiones, pues una teoría es hasta cierto punto una interpretación de un conjunto muy amplio de fenómenos. Por último, las decisiones del cuarto tipo se refieren a cosas tales como qué revistas, libros y artículos leer, dónde enviar los propios trabajos, a qué congresos acudir, con qué colegas entrar en contacto, a qué agencias o instituciones solicitar fondos, etcétera. Todas estas decisiones no sólo están mutuamente relacionadas entre sí en el caso del científico individual, sino que las decisiones que toma cada uno dependen de las que hayan tomado los demás, e incluso de las que cada uno crea que los otros van a tomar en el futuro. Esta interrelación mutua de las decisiones individuales es lo que lleva a la comunidad científica a un estado de equilibrio determinado, a través de un proceso en el que podemos distinguir un período más inme diato (“corto plazo”) y otro más extenso
(“largo plazo”).
A corto plazo (es decir, cuando se tienen en cuenta los resultados obtenidos hasta el momento, pero aún no se han llevado a cabo experimentos o desarrollos teóricos nuevos) se obtendrá un equilibrio basado únicamente en decisiones de los tipos a, c y d : cada investigador propone unos enunciados, intenta comunicarlos y escuchar lo que 110
otros comunican, y decide qué valoración dar a cada uno de esos enunciados. Puesto que cada uno toma esa decisión basándose en parte en las valoraciones que piensa que los otros harán (recuérdese el tercer argumento de la función de utilidad), el equilibrio se obtiene cuando las decisiones individuales basadas en la creencia de que los otros decidirán de tal o cual manera, conduce exactamente a esa distribución de las decisiones
(en términos más técnicos: cuando “las expectativas son autosatisfechas”). La fluidez en
la comunicación, dependiente del diseño institucional de cada disciplina, es lo que hará que este equilibrio a corto plazo se alcance de forma relativamente rápida, o, por el contrario, sea difícil llegar a él. Este equilibrio a corto plazo es dinámico en el sentido de que cada decisión acerca de realizar algún trabajo empírico o teórico relacionado con una cierta afirmación dependerá de la valoración de ésta en el equilibrio de corto plazo correspondiente al momento en el que se toma la decisión. Es decir, un investigador puede considerar
“rentable” llevar a cabo cierto experimento, pongamos, supuesta una valoración social
determinada del enunciado en cuestión, pero no considerar que merece la pena si la valoración social de equilibrio es otra diferente. En particular, si el enunciado es objeto de fuerte discusión en la disciplina, los experimentos relacionados con él podrán
proporcionar “beneficios” a quienes los realicen, pero si sólo hay un pequeño grupo “marginal” que todavía no acepta el enunciado, el resto de los miembros de la comunidad seguramente no considerarán “rentable” dedicarse a convencer los mediante
nuevas pruebas empíricas, pues habrá otros problemas que serán más interesantes. Este hecho nos obliga a tener en cuenta otro factor importante, como es el de los recursos con los que cuenta cada investigador. Estos recursos serán siempre limitados, lo que quiere decir que no todas las acciones concebibles pueden ser llevadas a cabo (de ahí que sean necesarias las decisiones de tipo b). A largo plazo, los investigadores pueden añadir nuevos argumentos empíricos y teóricos que sean relevantes para la valoración de cada enunciado; esto es, se llevan a cabo acciones nuevas del tipo b y c. Los resultados de estas acciones, al ser públicamente conocidos, afectarán al valor epistémico que subjetivamente asigne cada investigador a las afirmaciones correspondientes (recuérdese el primer argumento de la función de utilidad que supusimos unos párrafos más arriba), y, debido a la interrelación entre unos enunciados y otros, también podrá modificarse el “prestigio” que cada ciéntifico espera obtener. Todo esto hará que los equilibrios a corto plazo que se hubieran obtenido con anterioridad para cada enunciado vayan desplazándose en dos posibles sentidos: o bien hacia la aceptación unánime de la validez de un enunciado
(con lo cual pasará a ser un “hecho socialmente aceptado”), o bien hacia su
consideración como una simple hipótesis no establecida definitivamente, o incluso refutada (a largo plazo, ambas posibilidades tienen el mismo efecto práctico: simplemente la no aceptación del enunciado como un “hecho sólido”). Por supues to, ningún equilibrio de largo plazo es definitivo por necesidad: la evolución del conocimiento puede hacer que algunos investi gadores consideren “rentable” poner en
cuestión los enunciados que se consideraban “hechos sólidos” o “principios firmes”, o
rescatar algunos que eran tomados como simples hipótesis. En cuanto a la distribución de la autoridad cognitiva y el poder científico entre los miembros de la comunidad, como dije más arriba, ella dependerá de dos factores: de la distribución de autoridad y poder previa a cada proceso de investigación, y del resultado de dicho proceso, es decir, del éxito que haya tenido cada investigador o cada
equipo en proponer enunciados que han sido aceptados como “hechos sólidos” por la
111
comunidad. La autoridad cognitiva es hasta cierto punto algo subjetivo, pues podemos identificarla con la importancia que tiene la opinión de un científico en las valoraciones
que hagan sus colegas; pero también podemos dar una definición más “objetiva”,
diciendo que la autoridad de un científico sobre cierto enunciado es igual a la magnitud en la que se modificaría la valoración social de dicho enunciado si cambiara la opinión manifestada sobre él por aquel científico. El poder sobre los recursos, en cambio, siempre es una propiedad objetiva, aunque, como dijimos en el apartado anterior, puede no identificarse directamente con la autoridad, ya que los procesos de asignación de autoridad y de distribución de recursos no son idénticos, ni siguen necesariamente los mismos mecanismos (los primeros son una cuestión interna de la comunidad científica; los segundos son una cuestión política). Finalmente, nuest ro modelo “económico” de la investiga ción científica puede extenderse a la explicación de las normas que mencionamos en la primera parte. Por supuesto, no es posible dar una explicación completa de las normas sociales o éticas en términos de la elección racional de los individuos, pues esta elección se basa siempre en algunas normas que el individuo toma como dadas. 78 Pero sí es posible hacer una crítica normativa de dichas normas usando la pers pectiva de la llamada “economía política constitucional”;79 esto es, podemos plantearnos si los miembros de una comunidad, si se vieran a obligados a elegir por unanimidad un conjunto de normas por las cuales regirse en el futuro, elegirían las normas vigentes u otras alternativas. Este mecanismo es análogo al ideado por John Rawls en su Teoría de la justicia, pues, como las normas van a elegirse para un período muy largo, los individuos no tendrán certidumbre sobre cuál va a ser su posición durante todo ese período, y no podrán tomar su decisión basándose en sus intereses concretos, sino sólo en lo que le interesaría al “miembro medio” de la comuni dad (es decir, aquel en el que tienen más posibilidades de llegar a convertirse). Aplicado al caso de las instituciones científicas, podemos suponer que, en una hipotética “elección constitucional” de las nor mas, la decisión de cada individuo se tendría que basar principalmente en el primer argumento de su función de utilidad (esto es, sus valores epistemológicos), ya que ignoraría lo que sucederá con los otros dos argumentos (no sabe qué teorías va a defender en el futuro, ni qué opiniones van a tener sus colegas). Esto no significa que todos los científicos compartan los mismos valores epistemológicos, ni que estén de acuerdo, de hecho, sobre las mismas normas de la ciencia; pero sí implica la posibilidad de que, desde un punto de vista normativo, los individuos sean capaces de abstraerse de su posición concreta y juzgar esas normas sólo sobre la base de valores racionales abstractos. Las normas de la ciencia, en especial las normas metodológicas establecidas en cada disciplina, pueden muy bien haberse
generado, a lo largo de la historia, a través de una especie de “discusión constitucional permanente”, en la que la tendencia a favorecer las propias posiciones s e ve contrapesada por una tendencia a criticar las normas establecidas mediante criterios imparciales.
3.2. El cambio en el orden científico. El modelo económico cuyas líneas principales he presentado en el apartado anterior es, evidentemente, no sólo un modelo del “orden científico”, sino que, al hacer hincapié en las decisiones y acciones de los individuos, y en el proceso dinámico al cual 78
V. Hodgson (1993). V., p. ej., Buchanan y Tullock (1980) y Vanberg (1999).
79
112
éstas conducen, intenta ser una explicación del proceso de cambio en ese orden. En este apartado voy a comparar este proceso de cambio, tal como se contempla desde nuestro modelo, con los comentarios de Torres Albero sobre el mismo proceso. Un primer aspecto digno de señalar en la exposición de Torres Albero es que ésta se basa en una analogía entre los procesos de cambio científico y los procesos de cambio en el sistema político. Así, distingue cinco tipos de cambio ( op. cit., p. 214): 1) la acumulación de conocimientos en el marco de los regímenes autocráticos (esto es, la “ciencia normal” de Kuhn), 2) las revoluc iones que conducen de un régimen autocrático a otro (los “cambios de paradigma” de Kuhn), 3) la compe tición dinámica entre programas de investigación rivales que luchan entre sí más o menos en pie de igualdad (lo que correspondería a la metodología de Lakatos), 4) la colonización de nuevos
territorios (“áreas de problemas”) sin explorar y 5) la conquista de territorios ocupados
previamente por otras disciplinas (los dos últimos procesos se derivan de la obra de Mulkay sobre las “migraciones científicas” ). Esta quíntuple división puede reducirse a un único hilo conductor, que es el de la estructura de poder vigente en cada disciplina.
Si esta estructura es “autocrática”, sólo serán posibles los dos primeros tipos de cambio (respectivamente, si se mantien e el mismo “dictador” en el poder, o si es derrocado y
substituido por otro); si no hay un grupo que monopoliza el poder, sino varios “partidos” o “grupos de presión” con inte reses contrapuestos y con capacidad para actuar legítimamente, tendremos un régimen de cambio científico más parecido al lakatosiano; y si, en cualquiera de los dos casos, existe la posibilidad de que algún grupo poco poderoso dentro de la comunidad original se instale fuera de sus límites primitivos, entonces tendremos alguno de los dos últimos casos. La descripción de la autoridad cognitiva que hemos visto en el apartado anterior es perfectamente compatible con las dos primeras posibilidades: 80 cuando la autoridad está muy concentrada (sea porque unos pocos miembros poseen casi toda la autoridad, o porque, aunque hay muchos individuos con autoridad, todos ellos comparten las mismas valoraciones sobre los principios básicos de la disciplina), entonces será muy improbable que un científico “aislado” considere rentable proponer afirma ciones que
vayan en contra del “paradigma”, o si lo hace, será poco rentable para los demás el
aceptarlas. Por otro lado, si la autoridad está más extendida, aumentará la probabilidad de que surjan ideas alternativas, de que sean discutidas por la comunidad, y de que den lugar a planteamientos teóricos y empíricos nuevos. Otra cuestión acertadamente planteada por Torres Albero (p. ej., p. 193) es la de
la ambigüedad y vaguedad con la que Kuhn usa los términos “paradigma” y “revolución”. Al intentar expl icar casi cualquier cambio científico con ayuda de estos
dos conceptos, Kuhn los vacía realmente de todo contenido empírico, y se hace necesario, por tanto, utilizar unos esquemas conceptuales más precisos. Una consecuencia negativa de aquella vaguedad se observa en la polémica sobre si la historia de la ciencia puede contemplarse como una sucesión de paradigmas dominantes (tal como parece afirmar Kuhn) o como la lucha continua de diversos programas de investigación coexistentes (tal como se desprende de la obra de Lakatos). Desde mi punto de vista, esta polémica se resuelve considerando que no existe, en realidad, una dicotomía entre el concepto de paradigma y el de programa de investigación, sino que más bien ambos conceptos se refieren a aspectos diferentes del 80
El caso de las “migraciones” requeriría una cierta extensión conceptual de nuestro modelo económico, que no voy a plantear ahora, pero que considero también bastante plausible.
113
trabajo científico. Hasta ahora he hablado de las “afirma ciones” o “enunciados” de la
ciencia como si se tratara de proposiciones aisladas unas de otras, aunque con ciertas relaciones entre sí; pero, en realidad, los enunciados científicos presentan una estructura jerarquizada, en el sentido de que unos son más generales que otros, es decir, se aplican a un conjunto de casos más amplio, aunque su contenido empírico es menor. Esto es, las teorías científicas presentan una estructura arbóre a (o “de red”, como afirman los estructuralistas; cf. capítulo anterior), basada en uno o unos pocos “principios generales”, que se supone que son válidos en todas las posibles aplicacio nes de la teoría, y a los que se van añadiendo otras “leyes” más esp ecíficas, que dan contenido concreto a los principios básicos en el marco de aplicaciones empíricas cada vez más restringidas. Normalmente, los principios básicos de una disciplina son aceptados sin crítica por todos sus miembros, casi como si fueran las “reglas del juego”, de las cuales tiene poco sentido decir si son verdaderas o falsas: más bien se trata de lo que define la
especialidad a la que uno se dedica. Esto se correspondería con la idea de “paradigma”. Por el contrario, las partes más alejadas del “tronco” de la teoría son las que están realmente “vivas”, en el sentido de que los investigadores en activo se dedican a desarrollarlas, y, casi por definición, aún no se ha llegado a encontrar un cojunto de “leyes específicas” que la comunidad de i nvestigadores acepte consensualmente como
la “correcta”; mientras esta solución consensuada no llega, evidentemente es posible
que compitan muchas posibles soluciones alternativas, que es lo que se correspondería a la idea de los “programas de inves tigación”. Que la distinción entre paradigma y programa de investigación es relativa y no absoluta se aprecia claramente cuando se
tiene en cuenta que todas las partes “establecidas” del árbol teórico fueron en su día “ramas vivas”, con varias alternativas comp itiendo entre sí para intentar ser finalmente
aceptadas. Por otro lado, cuando la competencia entre programas de investigación parece estar llevando a un callejón sin salida, porque ninguna de las soluciones propuestas alcanza la aceptación unánime porque se enfrenta con problemas que no puede resolver, comienza a ser considerada la posibilidad de descender hacia las partes más establecidas del árbol teórico para intentar buscar alternativas diferentes a los principios “establecidos”, que permitan desarrol lar programas de investigación más exitosos desde otro paradigma. Desde la perspectiva del modelo económico presentado en el apartado anterior, podemos afirmar que el coste que tiene para el científico individual someter a crítica los enunciados que en su correspondiente equilibrio a largo plazo han sido aceptados como
“principios firmemente establecidos”, es un coste demasiado alto la mayor parte de las
veces (tanto en términos de su posible pérdida de prestigio si los pone a prueba, como en términos del valor epistémico que él mismo confiere a dichos enunciados). En cambio, los enunciados que todavía no han alcanzado ese equilibrio a largo plazo, porque aún son debatidos por los miembros de la comunidad, formarán parte sin duda de algún programa de investigación activo, y aceptarlos o rechazarlos serán alternativas igualmente factibles para los miembros de la comunidad. El aspecto que me parece más problemático de la exposición de Torres Albero sobre el problema del cambio científico es el hecho de que, aparentemente, el que la dinámica de este cambio siga un proceso kuhniano o lakatosiano depende, para el citado autor, simplemente del grado de concentración de poder que exista dentro de cada disciplina. El tipo de dinámica dependerá, por tanto, de factores sociales más bien que de factores cognitivos. Esto parece querer decir que, si en una disciplina la autoridad está concentrada en unos pocos individuos, será más probable que su evolución siga el 114
ciclo kuhniano de ciencia normal-crisis-revolución-ciencia normal, mientras que si la autoridad está más diseminada, será más fácil encontrar diversos programas de investigación coexistentes. La cuestión es si, a su vez, aquella estructura de poder depende de la evolución teórica de la disciplina, o depende de otro tipo de factores extra-cognitivos. Si sucede esto último, parece que habríamos encontrado un argumento
poderoso en favor de las visiones más “sociologistas” de la ciencia, pues la evolución de
las disciplinas científicas, y de su contenido cognitivo, se explicaría fundamentalmente
por la estructura de poder subyacente, y ésta a su vez por otros factores “sociales”. Pero,
en mi opinión, es más acertada una visión como la presentada en los párrafos anteriores, según la cual la asignación de autoridad en las disciplinas científicas depende fundamentalmente de los logros de cada investigador, tal como son percibidos por el resto de sus colegas (y, por lo tanto, depende de cuál sea la percepción social de los resultados cognitivos alcanzados), y además, el hecho de que un enunciado sea susceptible o no de crítica depende, no de cuán jerarquizada se encuentre la
especialidad, sino de que sus miembros lo acepten consensualmente como un “principio firmemente estable cido” o como una “hipótesis digna de ser desarrollada”. Dicho de
otra manera, incluso en una disciplina científica plenamente “democrática”, en el sentido de que todos sus miembros gozasen exactamente del mismo grado de autoridad cognitiva y de control sobre los recursos, sería posible la existencia de ciertos enunciados que todo el mundo considerase demasiado costoso criticar (esto es, podría existir un “paradigma”); y de igual forma, en una disciplina fuertemente “jerarquizada”, en la que sólo una pequeña élite tuviera toda la autoridad y todo el poder, sería posible que los miembros de esta élite (e, idealmente, incluso un único líder) propusieran al resto de los miembros un conjunto de programas de investigación alternativos. No hay que olvidar tampoco una de las tesis centrales de Kuhn, que me parece perfectamente válida: la de que sólo cabe decir que una cierta disciplina se ha
convertido en una “ciencia” cuando sus miembros se han logrado poner de acuerdo en una serie de principios básicos, normas metodológicas y ejemplos concretos de “buenas aplicaciones” de ambas cosas. Hasta que no encontremos esto, nos hallaremos, como mucho, ante la “prehistoria” de una ciencia. Pero el acuerdo sobre estos principios básicos, normas y “ejemplares” no genera automáti camente un acuerdo sobre todos los demás problemas de la disciplina (algo en lo que Kuhn no parece insistir), sino que sólo proporciona el marco en el que puede haber simultáneamente rivalidad y posibilidad de acuerdo en las investigaciones posteriores. Por tanto, la existencia de un “paradigma”
no es simplemente una forma alternativa de organización “social” de la ciencia, frente a
otras alternativas posibles, sino más bien la propia definición de algo que merezca ser llamado “ciencia”, es decir, de una institución encargada de pro ducir conocimiento certificado mediante métodos racionales. Y de la misma forma, la existencia de programas de investigación rivales (que en último término tienen, a veces, incluso la posibilidad de desbancar al paradigma hegemónico) es la única forma posible que puede tener una institución que sólo valora el conocimiento generado a través de la crítica racional y la evidencia empírica, es decir, que rechaza los meros argumentos de autoridad. Un último aspecto que quiero destacar de la crítica de Torres Albero a la teoría de Kuhn es la (en mi opinión, acertada) sustitu ción de los factores “irracionales” del cambio científico (aquellos a los que se refiere el autor norteamericano al hablar de “conversión”, “inconmensurabilidad” o “psi cología de masas”) por factores racionales 115
basados en los intereses de los científicos (op. cit., p. 196), si bien se trataría de racionalidad instrumental más bien que de racionalidad cognitiva. Es decir, los científicos no tomarían sus decisiones (o algunas de ellas) basándose tanto en el valor epistémico de cada enuncia do o en la pura “lógica de la investigación”, cuanto en la maximización de sus intereses particulares o de grupo. Esto no deja de ser coherente con nuestro modelo económico, en el que ambos tipos de factores eran incluidos en la función de utilidad de los científicos. Desde mi punto de vista, la idea de que las decisiones de los científicos se basan “solamente” en la racionalidad ins trumental, y no en la racionalidad epistémica, es, o bien inconsistente, o bien injusta con los propios científicos. La razón de esto es que un agente sólo puede ser racional en el sentido instrumental del término si es además mínimamente racional en el sentido cognitivo: alguien que intenta maximizar su utilidad lo hace tomando aquella decisión que es más beneficiosa de acuerdo con la información que posee; por lo tanto, un sujeto instrumentalmente racional tiene un obvio incentivo en obtener la mejor información posible, esto es, la más fiable. Si no existieran mecanismos que permitieran distinguir la información objetiva de las meras creencias subjetivas, no tendría ningún sentido intentar tomar “decisiones racionales”. Ahora bien, puesto
que
la
“información
objetiva
y
fiable”
es
útil
para
los
agentes
instrumentalmente racionales (los que supuestamente pueblan las instituciones propias de la edad contemporánea, desde la ciencia hasta el capitalismo, pasando por el estado de derecho), existirá un incentivo para la creación de mecanismos institucionales dedicados específicamente a la producción de ese tipo de información (y que podrán tener más o menos éxito). Es decir, si el tipo de ser humano que predomina en las sociedades modernas es el que se caracteriza por la racionalidad instrumental, entonces es de esperar que la ciencia tienda a producir conocimientos objetivos. Aquí radica la, desde mi punto de vista, inconsistencia de los programas de sociología de la ciencia que quieren subvertir la objetividad del conocimiento científico basándose en la idea de que los científicos persiguen sus propios intereses. Por otro lado, puesto que este los agentes racionales son por definición capaces de evaluar el valor cognitivo de la información (aunque dicha capacidad no es ni mucho menos ilimitada), entonces, si los científicos son individuos de ese tipo, tendrán alguna capacidad de juzgar los enunciados científicos en términos de su valor cognitivo. Ahora bien, el valor cognitivo que cada investigador asigne a dichos enunciados no tiene por qué coincidir con la valoración que es más acorde con sus intereses. Por tanto, si suponemos que el científico toma su decisión de acuerdo sólo con sus intereses, esto querría decir que el científico es fundamentalmente un cínico, que hace afirmaciones contrarias a sus auténticas creencias siempre que ello le beneficia.
¿Cómo podemos resolver esta aparente “paradoja de la racionalidad instrumental”, que pre senta la ciencia como una institución encargada de producir
conocimiento fiable, y a sus miembros como dispuestos a afirmar cualquier cosa con independencia de lo fiable que crean que es? En mi opinión, la única solución posible es la estrategia “constitucional” que mencio né al final del apartado anterior: los científicos son conscientes de que sus intereses pueden, en ocasiones, apartarles de la objetividad, y por ese motivo intentan fomentar el uso de criterios metodológicos que permitan coordinar sus distintas valoraciones e intereses subjetivos de tal forma que las afirmaciones consensuadas mediante el uso de tales criterios tengan la mayor probabilidad de poseer un elevado valor epistémico para todos los individuos. Las
normas de la ciencia serían, pues, un mecanismo institucional semejante a la “mano
116
invisible” que (supuestamente) transforma en el libre mercado los intereses particulares de cada uno en beneficios para todos. En este sentido, la visión económica de la ciencia debería incluir un estudio de la eficiencia de las instituciones científicas en la
producción de conocimiento fiable. A la metodología “epistémica” tradicional, que se
planteaba únicamente la cuestión de qué métodos nos podían conducir de forma más efectiva al progreso del conocimiento, deberíamos añadir una “metodolo gía social de la ciencia”, que nos dijera qué ordenamientos sociales de la investigación científica son más eficaces en la producción de conocimiento fiable.81 Retomando el asunto de la racionalidad o irracionalidad del cambio científico, creo que es posible aplicar aquí el concepto de racionalidad limitada para iluminar, desde una perspectiva simultáneamente psicológica y económica, los aspectos señalados por Kuhn en un lenguaje tal vez demasiado metafórico. Me refiero sobre todo a la
cuestión de la “inconmensurabilidad”, término con el que Kuhn quiere indicar
básicamente el hecho de que los miembros de paradigmas diferentes tienen dificultades para entenderse mutuamente. Con el concepto de racionalidad limitada, propuesto por Herbert Simon, los economistas intentan a su vez apresar la idea de que el ser humano tiene una capacidad finita de procesar y asimilar información, de tal manera que
nuestras decisiones no pueden nunca ser “óptimas” en sentido absoluto, pues siempre
habrá alguna información relevante que no hayamos tenido en cuenta. Esta limitación inherente a las capacidades cognitivas del ser humano hace que normalmente no
sigamos la llamada “racionalidad sustantiva” (es decir, el intento de maximizar nuestra
utilidad estudiando minuciosamente nuestras decisiones caso por caso), sino lo que llama Simon “racionalidad procedimental”, esto es, la aceptación de ciertos procedimientos rutinarios más o menos fiables para la toma de decisiones, que, aunque
a veces nos conduzcan a auténticas “meteduras de pata”, por lo general funcionan
satisfactoriamente (aunque otros tal vez funcionarían aún mejor). Pues bien, llevado al terreno de la investigación científica, podemos considerar que, al ser limitadas las capacidades cognitivas del científico individual, éste debe basarse en la asimilación de procesos de pensamiento estandarizados, que, aunque no siempre le conduz can inevitablemente a “la verdad”, sean rela tivamente fiables en la generación de conocimientos que la comunidad científica pueda admitir como tales. La asimilación de estos procedimientos es un trabajo arduo, lento, y que por sí mismo requiere llevar casi hasta el límite las capacidades intelectuales del individuo. No es de extrañar, así, que una vez que alguien ha asimilado tales mecanismos, no sólo sea reacio a admitir la validez de otros mecanismos alternativos (que podrían reducir el valor social de los suyos), sino también que los considere hasta cierto punto ininteligibles,
pues la asimilación de sus propies esquemas intelectuales “bloquea” de alguna manera
la capacidad de comprender otros esquemas diferentes. Por otra parte, tampoco es necesario que los seguidores de paradigmas rivales realmen te “no se entiendan” para que tengan lugar los fenómenos de incomunicación a los que se refiere Kuhn. Más bien lo que sucede puede ser que el coste de asimilar los procedimientos intelectuales nuevos sea considerado más alto que los beneficios esperados, y por lo tanto, haya una lógica resistencia al cambio. Sólo cuando estos beneficios esperados llegan a ser muy altos, por la importancia que la comunidad científica da a la resolución de su estado de crisis, puede surgir un número significativo de investigadores dispuestos a arriesgarse su reputación ensayando nuevos esquemas conceptuales. 81
V., p. ej., P. Kitcher (2001), cap. 8.
117
4. SOBRE LA SOCIOLOGÍA “RADICAL” DEL CONOCIMIENTO CIENTÍFICO. 4.1. El Programa Fuerte y sus puntos débiles. La idea de que no sólo la organización institucional de la ciencia y sus relaciones con el resto de la sociedad, sino el propio contenido del conocimiento científico debía ser objeto del estudio sociológico, ha sido el principal caballo de batalla de una de las
más conocidas corrientes actuales del estudio social de la ciencia, el llamado “Programa Fuerte”, desarro llado principalmente por D. Bloor y B. Barnes, aunque las tesis del
primero son generalmente más radicales (al menos aparentemente) que las del segundo. En este apartado voy a comentar algunos de los puntos más significativos que Bloor
presenta en lo que se considera como el “acta fundacional” del citado programa, su libro Knowledge and Social Imaginery, una obra más metodológica y dedicada a estudios sustantivos. El punto de partida del Programa Fuerte ( op. cit., pp. 4 sociólogos deben mostrarse imparciales ante las afirmaciones realizadas por cuale squiera grupos sociales (“tesis de la
programática que y 5) es que los de conocimiento
imparcialidad”); “conocimiento” es, para el sociólogo, cualquier cosa que un determinado grupo social considera que es conocimiento, y, que, en esa medida, ha de “obligarse” a los miembros
del grupo a que lo acepten como tal. Tanto las creencias de los pueblos primitivos en la brujería, como las creencias religiosas institucionalizadas en diversas sociedades, como
las teorías científicas admitidas en nuestros días, son “conocimiento” en ese sentido “social”, y el soci ólogo no debe plantearse la validez de cada una de esos “universos simbólicos”: sólo debe intentar explicar por qué dichos grupos admiten esos “conocimientos” en lugar de otros (“tesis de la causalidad”). Significati vamente, Bloor estipula que el tipo de explicación debe ser el mismo en todos los casos, independientemente de si el conocimiento analizado nos parece verdadero o falso, racional o irracional: puesto que la aceptación de unas ideas determinadas es un hecho social, la explicación en todos los casos debe ser una explicación sociológica (“tesis de la
simetría”). Bloor añade una cuarta tesis (“reflexividad”), que afirma que el mismo tipo
de explicación debe ofrecerse para el conocimiento sociológico, incluyendo las mismas tesis del Programa Fuerte. Con las tres primeras tesis, Bloor se opone a la que considera que es la visión tradicional de la filosofía de la ciencia, según la cual habría ciertas afirmaciones que los científicos admiten (o deben admitir) simplemente por su propia evidencia racional o
empírica, de tal modo que, aparte del hecho psicológico de que nuestra mente “tiende” de forma “natural” a admitir esos enunciados, no habría nada más que expli car, sobre todo si la explicación se basa en factores “externos”. Las creencias c orrectas se explicarían únicamente en función de las capacidades racionales normales del ser
humano, y sería sólo el “error” lo que requeriría una explicación “social” o de otro tipo. Bloor se muestra especialmente crítico con dicha concepción en lo que se refiere a los enunciados de la lógica y de la matemática; con respecto a los enunciados que reflejan
la experiencia directa (“aquí hay una mesa”, “está lloviendo”, etcétera), admite que, en
buena parte, su aceptación está basada en nuestras capacidades psico-biológicas innatas, que son las que, en el fondo, nos permiten interactuar con el mundo material que nos 118
rodea, y, dentro de éste, con los demás miembros de nuestra sociedad ( op. cit., pp. 3334); la aceptación de aquellos enunciados, en cambio, no está basada únicamente en esas capacidades innatas, sino que también depende del marco social en el que nos encontremos. Al fin y al cabo, argumenta Bloor, los “hechos empíricos” están “cargados de teoría”, y, puesto que no poseemos la capacidad innata de aceptar unas teorías en vez de otras, es nuestra interacción con otros sujetos la que determina finalmente qué teoría vamos a aceptar como válida para interpretar los hechos empíricos. Evidentemente, si esto es así en el caso de los enunciados de experiencia directa, mucho más claramente ocurrirá en el caso de las teorías científicas abstractas. En este punto Bloor hace uso de la famosa tesis de Duhem, según la cual ningún conjunto de experiencias, por muy amplio que sea, puede demostrar la validez de una teoría universal (especialmente si se refiere a entidades inobservables), pues, en principio, habría infinitas teorías compatibles con los mismos datos. La tesis que plantean Bloor y otros sociólogos de la ciencia es la de que, si la lógica sola no basta para inferir una teoría a partir de un conjunto finito de datos empíricos, los factores que hacen que se acepte una única teoría de entre todas éstas deben ser factores sociales, lo cual lo “demuestran” a partir de un amplio conjun to de casos históricos. Aparte del hecho de que, según la propia tesis de Duhem, habría infinitas teorías (sociológicas o no) igualmente compa tibles con los “datos” históricos presentados por estos sociólogos e historiadores de la ciencia, el principal punto débil de la argumentación de Bloor sobre esta cuestión me parece la ambigüedad con la que usa la expresión
“los mismos tipos de causas”: las tesis de la imparcialidad y la simetría, tal como son
usadas en el Programa Fuerte, implican que la aceptación de una teoría científica determinada (como, por ejemplo, la teoría de la gravitación universal, la genética mendeliana, la teoría celular, la aritmética elemental, etcétera) se debe siempre al mismo tipo de factores que la creencia en los dioses y héroes de la mitología clásica, en los misterios de la religión católica o en las supersticiones populares; ahora bien, cuando los críticos de Bloor insisten en que evidentemente deben ser causas diferentes las que se hallan involucradas en ambos casos, Bloor se defiende diciendo que lo único que él afirma es que debe usarse el mismo tipo de causas, no las mismas causas. La cuestión entonces es, ¿a qué tipo de causas se refiere? Si se permite la introducción de factores psicológicos y de otro tipo junto con los f actores sociales, la afirmación de que “tanto la aceptación de que existen infinitos números primos como la de que los ajos espantan el mal de ojo se deben a alguna combinación de factores psicológicos, sociales, y tal vez de otro tipo”, es una afir mación completamente vacía y que todos los filósofos de la ciencia, excepto tal vez algunos platónicos radicales, estarían dispuestos a admitir. Si, por el contrario, para dar mayor contenido a la tesis del Programa Fuerte restringimos el tipo de explicaciones admisible, empiezan las dificultades. Supongamos que las “causas” a las que nos referimos son los intereses sociales: está entonces bastante claro que la creencia supersticiosa se basa en ciertos intereses (¿a quién no le interesa librarse del mal de ojo?), pero realmente a mí no me va ni me viene nada en que haya finitos o infinitos números primos; por otro lado, el que a mí me interese librarme del mal de ojo no implica necesariamente que tengan que ser los ajos los que realicen tan benéfica misión; ¿no podían ser las cebollas? Claro, que entonces puede ser que los intereses sociales involucrados sean los deseos de los productores de ajos por aumentar sus ganancias; pero, entonces, ¿por qué tengo que aceptar yo, que no tengo invertido mi capital en la producción de ajos, aquella tesis? ¿Y por qué no han triunfado los intereses de los productores de cebollas sobre los de los productores de ajos? Evidentemente, no 119
es a este tipo de intereses a los que se refieren los defensores del Programa Fuerte. En realidad, en todos los ejemplos que conozco, Bloor, Barnes y sus colegas se refieren a lo que podríamos llamar “intereses de grupo”: en esos ejemplos, una cierta teoría era admitida por parte de un grupo, porque favorecía los intereses de ese grupo; el individuo, en tal caso, se limitaría a identificarse con esos intereses. Buscar la explicación social de un cierto item de “conocimiento” se convertiría, entonces, en
buscar aquel grupo al que la aceptación de dicho conocimiento “beneficia”. El pr oblema aquí es la oscuridad del concepto de “interés de grupo” y su difícil
articulación con los deseos y preferencias de los individuos de carne y hueso, que son
los únicos que realmente tienen “intereses” en el sentido literal de la palabra. La tesis de Bloor parece ser que cada uno de nosotros “asimila” una cierta imagen de la sociedad, que es la más “favorable” para el grupo con el que uno se siente “identifi cado”, y que “transfigura” dicha imagen en todo aquello que acepta como conocimiento. Bloor
generaliza así a la ciencia moderna la tesis de Durkheim de que las cosmovisiones primitivas son un mero reflejo del orden social de cada cultu ra. Los “intereses” explicarían, de este modo, por qué aceptamos o rechazamos ciertas teorías, pero lo harían de manera muy indirecta, determinando solamente una especie de “vi sión general del mundo” en la que cabrían luego muchas posibilida des diferentes. Por ejemplo, podemos admitir hasta cierto punto que la concepción naturalista
de la realidad (no el “naturalismo científico” en epistemología, que vimos en el capítulo III) “favorecía” a las clases medias emergentes en el siglo XIX en su intento por
alcanzar la primacía social, frente a la visión teológica tradicional, más favorable a la aristocracia terrateniente. Pero esta preferencia genérica por las explicaciones naturalistas no favorecía en mayor medida a la teoría darwiniana de la selección natural frente al evolucionismo lamarckiano, ni a la interpretación que hacía Darwin del proceso de selección frente a la que hacía Wallace. Todas estas teorías evolucionistas eran igual de “naturalistas”, y, por lo tanto, favore cían por igual los intereses de las clases medias. Y, lo que es más grave, existirían muchísimas otras teorías con las mismas características. ¿Por qué los biólogos terminaron aceptando la teoría de Darwin, y por qué la modificaron posteriormente con nuevos principios y argumentos? Creo que
podemos concluir que, igual que el Programa Fuerte insiste en la “infradeterminación de las teorías por l a evidencia empirica”, hay también una paralela “infradeterminación de las teorías por los factores sociales”,
que hace que la aceptación de una teoría u otra tras una controversia científica deba ser explicada por algo más que por los meros
“intereses de grupo”, cuya capacidad explicativa en este caso creo que es francamente exigua.
En el terreno de la lógica y de la matemática, Bloor hace un uso más restringido de la teoría de los intereses (salvo en la referencia a Pearson y al origen de la estadística), e insiste más bien en la tesis de que las reglas lógico-matemá ticas “obligan” exactamente en el mismo sentido que las reglas sociales, y que por eso mismo deben
considerarse una “institución social”, tan contingente como las demás. Aparte de que la
epistemología de las ciencias formales en la que se basa Bloor (un inductivismo psicologista inspirado en John Stuart Mill) es relativamente endeble y poco capaz de explicar las propiedades más significativas de los sistemas formales 82, la propia identi82
Según el “empirismo” de Mill, la forma en la que averiguamos los principios matemáticos
fundamentales es el mismo proceso de inducción que se usa en las ciencias naturales. Por ejemplo, yo sé
que “el orden de los factores no altera el producto” porque, al multiplicar muchas veces dos números en
120
ficación de la “obligatoriedad” del razonamiento lógico y matemático con la
“obligatoriedad” de las normas sociales (y, a su vez, con la de las “leyes naturales”) me
parece singularmente fuera de lugar. Téngase en cuenta, simplemente, que las normas sociales puedo desobedecerlas, mientras que las leyes naturales y las reglas lógicomatemáticas no; además, tanto en el caso de las normas sociales como en el de las leyes naturales puedo concebir una situación en la que no se cumplan (por ejemplo, me puedo imaginar a mí mismo cometiendo un asesinato o suspendido en el aire sin ayuda), mientras que simplemente no soy capaz de pensar que dos y dos son cinco (aunque sea capaz de decirlo). Las reglas lógico- matemáticas “obligan”, pues, en realidad, de una forma mucho más fuerte que las normas sociales, y parece difícil admitir, por lo tanto,
que la “obligatoriedad” de aquéllas se derive de alguna forma de una obligatoriedad
mucho más débil. En conclusión, si en nuestra sociedad establecemos una diferencia radical entre
lo que merece ser llamado “ciencia” y lo que son meras “creencias”, “opiniones” o, peor aún, “ideología”, esa diferencia consiste justo en el hecho de que, mediante la ciencia,
intentamos alcanzar una imagen de la realidad que sea independiente de nuestros intereses particulares, de tal manera que si descubrimos que alguien admite una teoría “porque de alguna forma le beneficia que (la gente acepte que) las cosas sean así”, eso mismo lo consideraremos un indicio de que dicha teoría es sospechosa, es decir, de que lo más probable es que encontremos algún fallo en los argumentos con los que la defiende. Naturalmente, partimos de la convicción de que poseer creencias (aproximada o probablemente) verdaderas es más útil que poseer creencias rotundamente falsas; pero por eso mismo deseamos “librarnos” de nuestros intereses al determinar cuál es la “verdad”. Lo que deseamos es, más bien, que sea la realidad misma la que nos indique si tenemos razón o no al admitir ciertas afirmaciones, y todo el complejo desarrollo técnico e institucional de la ciencia moderna tiene principlamente esa función, la de dejar hablar a la realidad con una voz más fuerte que la nuestra . La razonable actitud de sospecha hacia las ciencias sociales se debe, en mi opinión, a que en este caso no
tenemos claro que los “intereses sociales” no sean los que en el fondo hacen a unos científicos preferir ciertas teorías en vez de otras.
Si considero preferible la explicación “económica” de la ciencia a la explicación
sociológica, tal como la plantea el Programa Fuerte, es precisamente porque creo que con la primera podemos intentar comprender los mecanismos gracias a los cuales la
ciencia puede alcanzar conocimientos cuyo “sesgo social” sea el más pequeño posible, a
pesar de que dicho sesgo está sin duda alguna presente en el proceso mismo de generación del conocimiento. Es decir, podemos intentar explicar de qué forma y en qué medida el sistema científico consigue eliminar (y no sólo “esconder”) del “conocimiento certificado” los inter eses de los individuos y grupos involucrados en su producción.
4.2. La Antropología Constructivista de la Ciencia: un cordero con piel de lobo. ambas direcciones, he obtenido el mismo resultado. Esto, evidentemente, no explica por qué estoy seguro de que ese enunciado se cumplirá para cualesquiera dos números (incluso algunos que nunca haya imaginado), mientras que no lo estoy tanto de que “el sol se guirá alcanzando el cénit cada veinticuatro
horas en los próximos veinte mil millones de años”, una frase para la que poseo una evidencia inductiva
favorable posiblemente más extensa que la que poseo para la otra, pero que estoy prácticamente convencido de que es falsa.
121
Esta corriente de la sociología-antropología de la ciencia se hizo particularmente famosa gracias a los prim eros “estudios de laboratorio”, llevados a cabo principalmente por Bruno Latour y Karen Knorr-Cetina a finales de los años setenta, los cuales fueron presentados como confirmación de la tesis de que el conocimiento científico es “construido socialmente”, y más que ser un reflejo objetivo de la realidad, lo que refleja son las tensiones, disputas y alianzas entre los diversos actores que intervienen en la investigación. Frente a la concepción “macrosociológica” del Programa Fuerte, que intentaba explicar el contenido del conocimiento en función de las características de la sociedad en que era producido, los constructivistas presentan una visión
“microsociológica”, que se centra en el análisis de la interacción “cara a cara” entre
científicos concretos. Una característica que sí comparten, en cambio, con el Programa
Fuerte, aunque posiblemente más acentuada, es la “imparcialidad” frente a los
contenidos del conocimiento; en este caso, se trata de considerar a los científicos como el antropólogo considera un a “tribu”, intentando comprender su mentalidad, sus creencias y su forma de vida, pero sin comprometerse con ellas. Los “an tropólogos de la ciencia” intentarán, así, explicar la conduc ta de los científicos a partir de lo que “realmente” puede obser varse de esa conducta: los artículos que escriben, sus conversaciones, los gráficos producidos por los aparatos del laboratorio, etcétera, pero “poniendo entre paréntesis” la existen cia de las entidades inobservables a las que los científicos creen poder referirse. 83 El programa del constructivismo ha sido resumido magistralmente por Latour en el apéndice a su obra Ciencia en acción (p. 263 de la ed. española), de tal modo que voy a limitarme a comentar las siete “reglas del método” propuestas por este au tor francés. Veremos que se trata en su mayoría de planteamientos muy sensatos, aunque es difícil estar de acuerdo con la interpretación radical que les dan estos autores. La primera “regla del método” es la de estudiar la cien cia en su proceso de elaboración, más que la ciencia elaborada. Esta es una tesis muy razonable, con la que estarían de acuerdo la mayor parte de los filósofos de la ciencia de las últimas décadas, aunque habría bastantes opiniones diferentes acerca de lo que realmente implica. A lo que se refiere Latour es a la diferencia entre el momento en el que algo se considera ya por la comunidad científica como conocimiento establecido (en los términos de Latour, una “caja negra”), y la historia anterior , protagonizada por las controversias entre diversos científicos acerca de cuál debe ser el contenido de dicho conocimiento. Latour nos insta simplemente a estudiar cómo se establece el conocimiento, exactamente igual que insistían Popper, Lakatos o Hempel, sin ir más lejos. Ahora bien, puesto que el deseo de lograr que una cierta afirmación se convierta en una “caja negra” es lo que motiva a los cien tíficos durante todo ese proceso de “elaboración del conocimiento”, no parece insensato suponer que la imagen ideal que posean los científicos de las
propiedades que una afirmación debe poseer para convertirse en una “caja negra” será sin duda uno de los factores más importantes para explicar el proceso de la “cien cia en acción”. Naturalmente, el estudio de dicha imagen ideal es lo que siemp re se ha llamado “metodología de la ciencia”. La segunda regla afirma que la objetividad o subjetividad de una afirmación no
debe buscarse en sus “cualidades internas” sino en lo que “se hace con ella” una vez que 83
Curiosamente, esta estrategia metodológica no deja de recordar al deseo de los positivistas lógicos por fundamentar el conocimiento científico en enunciados observables que no poseyeran ningún contenido teórico.
122
ha sido propuesta. Esta regla es también totalmente acorde con la esencia del método hipotético-deductivo: no hay nada en las “propiedades internas” de un enunciado que indique si es verdadero o falso, aceptable o inaceptable; es sólo el posterior proceso público de contrastación el que mostrará si el enunciado se considera falsado, corroborado o insuficientemen te contrastado. La tesis de Latour de que cualquier “caja
negra” puede volverse a abrir en el futuro (aunque con costes crecientes para quien lo
intenta), es también idéntica a la afirmación popperiana de que ni siquiera las teorías mejor corroboradas deben considerarse como establecidas fuera de toda duda. Las dos siguientes reglas son las que han generado más polémica, y son de hecho las más características del constructivismo. Según ellas, la naturaleza y la sociedad son “el resultado del cierre de las controversias”, no la causa, y por lo tanto, no pueden utilizarse para explicar por qué una controversia se cierra de tal o cual manera. La tesis relativa a la naturaleza es especialmente molesta para los filósofos realistas,
mientras que la tesis relativa a la sociedad es presentada por Latour casi como un “acta de defunción” de la propia sociología de la ciencia. Las dos afirmaciones son demasiado
fuertes y es necesario examinar con detalle qué es lo que se nos pretende decir con ellas. Uno de los objetivos básicos de La vida en el laboratorio y de The Manufacture of Knowledge era mostrar que “la naturaleza es el resultado de lo que los científicos hacen en el laborato rio”. Por ejemplo, que cuando Lavoisier pretendió haber descubierto la composición química del agua, esta composición no era algo preexistente al trabajo de Lavoisier, sino algo construido por él, y que, mediante un proceso de “negociación” con el resto de los científic os, fue finalmente aceptado como un “hecho”. Lavoiser, diríamos en los términos de Latour y Woolgar, construyó el H2O. O también, los
descubridores de la estructura de la insulina no la “descubrieron”, sino que la “construyeron”. En principio, este lenguaj e ofrece una inaceptable ambigüedad cuando intentamos aplicarlo para distinguir las actividades de quienes supuestamente
“descubrieron” la estructura de una sustancia y quienes hallaron un método para
producirla sintéticamente; se supone que estos últimos sí que la construyen en sentido
literal. ¿En qué sentido decimos que la “construyen” los primeros, entonces? Puestos a dudar de la existencia “independiente” de los objetos que los cien tíficos pretenden haber descubierto, no tiene sentido afirmar que ést os “construyen” esos objetos: lo que “construyen”, eviden temente, son enunciados, teorías, esquemas, acuerdos, etcétera, que supuestamente representan dichos objetos. Dichos enunciados, teorías, etcétera, son nada más que hipótesis, como la hipótesis de que ahora mismo no soy una mariposa que sueña que es un filósofo, pero el trabajo de la ciencia es, precisamente, el de averiguar qué hipótesis sobre la estructura de la realidad son más dignas de crédito, son más fiables, nos ofrecen más garantías si basamos nuestras acciones en ellas. La estructura
supuesta de la insulina es “sólo” una hipótesis, pero los diabéticos que consiguen
gracias a esa hipótesis llevar una vida que era impensable para ellos hace sólo unas décadas, tienen razones para creer que la suposición es bastante fiable. Latour juega con esta ambigüe dad cuando afirma que “pues to que el cierre de una controversia es la causa de la representación de la naturaleza, nunca podemos utilizar esa consecuencia, la naturaleza, para explicar cómo y por qué se ha cerrado una
controversia” (subrayados míos). La primera parte de la frase es plenamente aceptable;
la segunda, en cambio, comete una falacia de colegial al identificar la naturaleza con su representación. Si no fuera por esta falacia, también la segunda parte sería completamente razonable: es absurdo decir que “la razón por la que los químicos aceptaron que el agua era H 2O es que el agua es H2O”, ningún filósofo de la ciencia 123
admite esto, lo que intentamos afirmar, por el contrario, es que la razón por la que se admitió esa afirmación fue la acumulación de resultados empíricos consistentes con ella y problemáticos para las teorías rivales (acumulación que, naturalmente, nunca puede dar una respuesta definitiva). La actitud más parecida que se me ocurre a la criticada por Latour, pero aún así razonable, es la de los historiadores de la ciencia, que explican, basándose en el conocimiento científico actual, por qué los investigadores del pasado pudieron obtener ciertos resultados y dar credibilidad a ciertas hipótesis que ahora no aceptamos. Por ejemplo, basándonos en la moderna teoría física y astronómica podemos explicar por qué la teoría geocéntrica de Ptolomeo debía parecer razonable en su día: podemos explicar por qué el movimiento de la tierra no se nota, lo cual hacía razonable suponer, a falta de otros datos, que la tierra estaba en reposo. Con respecto a la regla que prohibe utilizar la sociedad para explicar el cierre de las controversias, tampoco puedo estar de acuerdo con Latour. Lo único que demuestra este autor, refiriéndose sobre todo al desarrollo tecnológico, es que, como consecuencia del cierre de las controversias, la sociedad cambia (se crean nuevos grupos, nuevos intereses, nuevas normas, etcétera). Pero es absurdo pensar que la única causa de todas estas novedades haya sido “el cierre de la contro ver sia”. Es mucho más lógico pensar que el estado anterior de la sociedad , junto con el proceso “agonístico” de investigación del que estemos ocupándonos, conducen a la sociedad a un nuevo estado. El propio proceso de investigación no puede tener lugar sin un marco social previo en el que desarrollarse, y este marco social es necesario entenderlo para entender la actividad investigadora. Por ejemplo, podemos admitir q ue “el aficionado a la fotografía que no
desea llevar a cabo todo el proceso técnico” es una figura “inventada” por Eastman con
el fin de promover sus productos, pero nadie en su sano juicio afirmará que los millones de aficionados que compraron la cámara Kodak salieron de la cabeza de Eastman como Atenea de la de Zeus: Eastman colaboró a cambiar los deseos y las actividades de la
gente, pero partió de una “materia prima” que consistía en el tipo de sociedad y el tipo
de personas que existían antes de que él pusiera en venta sus máquinas. Una lectura más positiva, pero también más aguada, de estas dos tesis de Latour, es que debemos huir de las explica ciones “teleológicas ingenuas”, según las cuales
Lavoisier descubrió la composición química del agua “simplemente” porque ésa era la verdad, o Eastman construyó su cámara así o asá porque “simplemente” eso era lo que
la gente quería. También implican las tesis de Latour que el desarrollo de la ciencia y de la técnica no está prefijado de antemano, y que depende de muchas decisiones interrelacionadas, que pueden conducir hacia un camino o hacia otro. Pero, salvo algunas malas obras de divulgación de la ciencia y la tecnología, pocos estudios serios
se encontrarán que cometan estos dos pecados. No es necesario “deconstruir” el
conocimiento para decirnos que lo que parece sencillo es en realidad el resultado de un proceso complejo y abierto.
Las tres últimas “reglas del método” están escritas en un lenguaje que,
sinceramente, me resulta difícil comprender, por lo que las citaré al pie de la letra. La quinta dice que “tenemos que permanecer tan indecisos acerca de lo que consti tuye la tecnociencia, como los diversos actores a los que sigamos; cada vez que se trace una línea divisoria entre lo interior y lo exterior, debemos estudiar ambos lados simultáneamente y hacer una lista, sin que importe lo larga y heterogénea que sea, de los que llevan a cabo el trabajo”. Por la lectura del correspondiente capítulo de Ciencia en acción supongo que Latour se refiere a que no debemos considerar la investigación científica o tecnológica como un sistema autónomo, sino entender su compleja 124
interacción con el resto de la sociedad. Nadie lo duda, me parece. Lo que no se puede deducir a partir de esto es que, puesto que los investigadores negocian continuamente con otros agentes, no puede considerarse que la ciencia y la tecnología sean instituciones autónomas, en el sentido de que poseen características que las distinguen de otras, en particular, que las distinguen de otras instituciones con pretensiones de poseer un conocimiento legítimo sobre la realidad.
La sexta regla afirma que “cuando nos enfrentemos a la acusación de
irracionalidad, no examinaremos qué regla lógica se ha roto, ni qué estructura social puede explicar la distorsión, sino el ángulo y dirección en que se ha desplazado el
observador, y la longitud de la red que se está construyendo”. En el capítulo
correspondiente, Latour critica la excesiva facilidad con la que los occidentales tildamos
de “irracionales” las creencias y acciones de las “culturas primitivas”. Según Latour, ellos simplemente “construyen redes diferentes de las nuestras”, aunque tal vez menos “extensas”. Estas “redes” están formadas por la interrelación de múltiples “inscripciones” y “actores” 84, y la ciencia de distingue de otros modos de conocimiento “simplemente” porque es capaz de acumular más “inscripciones” y más “actores”. Los “hechos científicos” (por ejemplo, “el agua es H 2O”) no son más verdaderos que los “hechos débiles” de la cultura no científica (por ejemplo, “en Febrero, busca la sombra el perro”), pues en realidad sólo tienen existencia dentro de la red construida por los científicos, como “se demuestra” por el hecho de que la insulina sintética sólo es efectiva si se ha construído en un laboratorio, o que sólo se puede comprobar si los rayos X existen montando un nuevo laboratorio. Aquí Latour confunde de nuevo la validez o la verdad de un hecho con la forma en la que nosotros podemos comprobarla. Si los constructivistas quieren cambiar el lenguaje con el que decimos normalmente que una teoría ha hecho una predicción correcta (por ejemplo, el descubrimiento de Neptuno gracias a la teoría de la gravita ción), y decir, en su lugar, que “los científicos han conseguido ampliar la ex tensión de una red”, están perfectamente en su derecho, pero los hechos básicos que la filosofía y la sociología de la ciencia deben explicar (“¿cómo diantres se las arregló Leverrier para apuntar los telescopios al sitio justo en el que se iba a ver un punto luminoso móvil, desconocido hasta entonces, y cuya trayectoria
encajaba con la que él había deducido?”, “¿por qué el porcentaje de curaciones es mayor con la medicina tradicional que acudiendo al brujo de la tribu?”, o “¿por qué cuando se monta un laboratorio de tales y cuales características la sustancia que se
produce allí sirve para curar cierta enfermedad?”), estos hechos, decía, seguirán ahí por
mucho que los rebauticemos con el argot de la filosofía francesa post-moderna, y seguirán pidiéndonos a gritos alguna explicación razonable. Latour también afirma, más o menos explícita mente, que el “poder” de una red es directamente proporcional a la cantidad de recursos que se han invertido en ella. Esto lo dice especialmen te cuando intenta “demostrar” que no hay diferen cias básicas entre
los “hechos sólidos” producidos por las llamadas ciencias “duras” y los “hechos menos sólidos” por las “ciencias blandas” como la sociología ( op. cit., p. 200; Latour y Woolgar, La vida en el laboratorio, p. 287). En realidad, la economía, la sociología y la antropología cuentan hoy con muchísimos más recursos e “inversiones previas” que las 84
En un alarde de creatividad verbal y de emborronamiento de todas las categorías semánticas
razonables, Latour sustituye el término “actor” por el “más razonable” de “actante”, que se refiere a... ¡lo
que sea!: todo lo que forma parte de una red es un actante, y todo existe únicamente en la medida en la que forma parte de una red. Si la función del lenguaje es ayudarnos a distinguir unas cosas de otras, la voz
“actante” no es nada más que una forma (sólo) aparentemente más articulada del gruñido primigenio.
125
que tenían los físicos y los químicos de la primera mitad del siglo XIX, pero puede dudarse muy bien de que las tres ciencias sociales mencionadas hayan logrado hasta la fecha descu brir o “fabricar” hechos tan “sólidos” como los engloba dos en la física de Newton, la química de Lavoisier o la electrodinámica de Faraday. La última regla afirma que “antes de atribuir una ca racterística especial a la mente o al método de las personas, examinemos primeramente las muchas formas en que las inscripciones se reúnen, combinan, entrelazan y se envían de vuelta. Sólo si, después de hacer analizado las redes, queda algo por explicar, hablaremos de factores
cognitivos”. Esto nos conduce nuevamente al comentario que hice al principio sobre la
analogía entre el método de los constructivistas y el de los positivistas lógicos: para éstos, la ciencia se basaba en los enunciados de experiencia directa libres de interpretación teórica; para aquéllos, el estudio antropológico de la ciencia debe basarse
en lo “puramente observable”, esto es, las “inscripciones”. No me cabe duda de la importancia que debe dárse le a los productos “observables” de la actividad investigadora, pero hay que ser muy ingenuo, ambicioso, o simplemente provocador,
para suponer que el estudio de las “inscripciones” en sí mismas va a explicarnos los
aspectos fundamentales de la ciencia (o de lo que sea); al fin y al cabo, esas “inscripciones” son siem pre realizadas con algún propósito y, como manifestaciones lingüísticas que son, siempre se les da algún significado. Sin algunas presuposiciones sobre tales propósitos y significados, las “inscripciones” no tienen más sen tido que la disposición de las estrellas visibles en el firmamento. El legítimo objeto de la filosofía y la sociología de la ciencia es comprender aquellos propósitos y significados, y cómo
influyen en la producción y certificación del conocimiento. Los “factores cognitivos”
son, así, necesarios desde el principio; no se trata de asumir que los científicos (y sobre todo los matemáticos) poseen talentos mentales superiores a los del resto de los seres humanos: ¡la propia capacidad de entender y producir enun ciados o “inscripciones” que
otros también puedan entender, ya es un “factor cognitivo” dificilísimo de explicar! Y
esto sin olvidar la cuestión de por qué seres humanos con capacidades cognitivas semejantes han sido capaces de “construir redes” mucho más complejas (como la física o la biología modernas, por ejemplo) que las de sus congéneres de las culturas más antiguas. En resumen, las afirmaciones básicas del constructivismo son, o una palabrería provocativa pero poco sensata (cuando se las interpreta de la forma más radical), o un simple reconocimiento de las tesis más elementales del método hipotético-deductivo y
de la sociología tradicional de la ciencia. La idea básica de que “el conocimiento es construído” es plena mente compatible con una visión racionalista de la ciencia,
racionalista tanto en el sentido de que asume que los propios científicos son agentes racionales, como en el de que sus resultados son un conocimiento bastante fiable de la realidad. En particular, la visión que presentan los constructivistas del proceso de producción del conocimiento en los laboratorios (o, en general, en el marco de la investigación científica) es coherente con el modelo económico presentado más arriba. Por ejemplo, la descripción de Knorr-Cetina del científic o como un “oportunista” ( The Manufacture of Knowledge, pp. 33 y ss.) se traduce en nuestro modelo, sencillamente, en la imagen del investigador que intenta maximizar su utilidad utilizando la estrategia más conveniente en cada contexto, incluso aunque contextos diferentes exijan utilizar
“principios metodológicos” distintos, tal y como en cierto sentido vimos en el capítulo anterior.
126
Capítulo VII EL JUEGO DE LA CONTRASTACIÓN
127
1. EL PROBLEMA DE LOS TÉRMINOS OBSERVACIONALES. De acuerdo con la concepción tradicional sobre la estructura y el desarrollo de la ciencia, los conceptos científicos podían clasificarse en dos grandes tipos: teóricos y observacionales.85 La aplicación de éstos parecía no plantear ningún problema filosófico serio, pero, como se sabe, no ocurría así con la de los primeros, y una buena parte del trabajo de autores como Carnap o Hempel fue dedicada a elucidar la posibilidad y la utilidad de hacer afirmaciones que contuvieran conceptos teóricos. A partir de los años sesenta, en cambio, la idea de un “lenguaje puramente observacional” fue siendo abandonada, al aceptarse que todos los términos científicos poseen algún tipo
de “carga teórica”. Autores como Putnam y Achinstein indicaron, además, que lo que hacía “teórico” a un conce pto no sería, en todo caso, su carácter no-observacional, sino
más bien su dependencia con respecto a alguna teoría científica concreta, y era esta dependencia la que merecía la pena estudiarse con más detalle, más que la relación genérica entre los términos teóricos y los observacionales. Esta idea fue desarrollada por Joseph Sneed en la obra fundacional de la concepción estructuralista de las teorías científicas, The logical structure of mathematical physics, dando lugar a la conocida tesis de la T-teoricidad, que hemos discutido brevemente en el capítulo II. Recordemos que, según este enfoque, un concepto (p. ej., una cierta magnitud física) es teórico con respecto a una teoría T (es decir, es T-teórico) si ocurre que sólo se puede aplicar ese concepto a un sistema empírico si se presupone que la teoría T es válida para algún otro sistema (en particular, para aquellos sistemas que funcionan como procedimientos de medición de la magnitud correspondiente). Esto parece conducir a la conclusión de que una teoría T que poseyera conceptos T-teóricos sólo podría ser contrastada empíricamente si se supusiera de antemano que la teoría es correcta, lo que es una obvia circularidad. Sneed resolvió este problema reconstruyendo la afirmación empírica de la teoría T como una afirmación global acerca de un conjunto de sistemas que pueden ser descritos sin utilizar los conceptos T- teóricos: de estos sistemas (las “aplicaciones intencionales” de T ) la teoría afirma que pueden ser ampliados con valores de las funciones T-teóricas, de tal modo que las leyes y las condiciones de ligadura de T sean satisfechas. La reconstrucción de la afirmación empírica de una teoría como una
afirmación sobre sus “modelos parciales” (es decir, aquellos sistemas que pueden ser
descritos usando solamente los conceptos no-T-teóricos de la teoría T ) guardaba una
notable semejanza con lo que tradicionalmente se conocía como el “enunciado de Ramsey” de la teoría (una fórmula que permitía axiomatizar el conjunto de todas las
consecuencias observacionales de T sin utilizar sus conceptos teóricos), y por eso a aquella reconstrucción se la denomina a menudo “enunciado de Ramsey -Sneed”. Desde mi punto de vista, la solución de Sneed es básicamente legítima, si bien en el siguiente apartado veremos que hay ciertas ambigüedades en la interpretación estructuralista habitual del criterio de T-teoricidad, ambigüedades que pueden 85
Una versión diferente de este trabajo ha aparecido como Zamora Bonilla (2003b). Véase Olivé y Pérez Ransanz (1989), para una selección de la literatura más importante sobre el tema, junto con una introducción muy iluminadora.
128
resolverse combinando algunas nociones semánticas y pragmáticas. En cambio, la propia solución al “problema de los términos teóricos” ad optada por los estructuralistas deja abierta una dificultad no menos seria, a saber, la de cuál es exactamente el papel que desempeña la experiencia en la contrastación de las teorías científicas. El problema es el siguiente: los conceptos que aparecen en el enunciado de Ramsey-Sneed de una teoría T son todos ellos no-T-teóricos, pero, debido a la tesis de la carga teórica, esos conceptos dependerán de alguna otra teoría (no necesariamente todos ellos de la misma); sea T’ la teoría de la que depende uno de aquellos términos, por ejemplo f ; esto quiere decir que, para determinar empíricamente los valores de f , presuponemos la validez de la teoría T’ , y eso sólo es posible expresarlo sin cometer una circularidad si la afirmación empírica de T’ se reconstruye como una afirmación sobre sistemas que se describen sin utilizar el concepto f , es decir, sistemas descritos sólo mediante conceptos no-T’-teóricos, por ejemplo g ; pero g dependerá de alguna otra teoría, T”, y así sucesivamente. En este ejemplo, la teoría T presupone T’ , la cual a su vez presupone T”,
etc.; mediante esta relación de “presuposición”, T’ le aporta un cierto “anclaje empírico” a T , T” se lo aporta a T’ , etc. Ahora bien, puesto que las teorías científicas son constructos artificiales y sólo las hay en número limitado, este argumento no puede ir hasta el infinito, y entonces solamente quedan dos posibilidades: o bien existe alguna teoría T * que no contiene términos que dependan de otras teorías aún más
fundamentales, o bien la relación de “presuposición” genera siempre ciclos, de tal forma
que pueda ocurrir que T presuponga T’ , pero también a la inversa. 86 La primera de estas dos posibilidades es rechazada por los estructuralistas mediante el razonamiento siguiente: si T * no poseyera términos no-T *-teóricos, eso quiere decir que todos sus conceptos serían T*-teóricos (¡obviamente!), y en este caso, no habría ningún término con el que formular la afirmación empírica de T*; es decir, esta afirmación se haría sobre sistemas que no pueden ser descritos mediante ningún concepto. Tal cosa parece absurda, o aún peor, daría lugar a la arbitrariedad más absoluta a la hora de realizar las afirmaciones empíricas básicas, aquellas mediante las que T* ha de proporcionar un “anclaje empírico” a todas las teorías q ue la presuponen. Ante la fuerza de este argumento, Sneed y sus seguidores se han decantado por la segunda posibilidad, a saber, la idea de que la relación de presuposición puede ser circular, de tal manera que el conocimiento científico como un todo, o al menos grandes porciones de él, se soporta mediante las mutuas relaciones entre sus partes, más que sobre los cimientos de una base empírica firme e indubitable. Esta respuesta, de todas formas, deja completamente sin resolver el problema que indicaba al principio del párrafo anterior: cuáles son exactamente las relaciones del conocimiento científico con la experiencia. Las cuatro o cinco últimas décadas de trabajo en filosofía de la ciencia nos han enseñado que dichas relaciones no pueden ser las de una fundamentación absolutamente cierta, pero con esto sólo sabemos de qué manera no interviene la experiencia en la contrastación de las teorías, y convendría saber también de qué manera sí lo hace. Formulado en otros términos, creo que el estructuralismo ha resuelto bastante bien el problema de los términos teóricos, en el sentido de que nos ha aclarado suficientemente bien qué significa que un concepto dependa de una teoría específica, y cómo puede una teoría T que posee términos T-teóricos hacer alguna afirmación no vacía sobre la realidad. Pero los estructuralistas nos dicen demasiado poco acerca de 86
Me baso en el análisis de la teoricidad ofrecido en Balzer, Moulines y Sneed (1987).
129
qué es lo que hace que la afirmación empírica de una teoría (o un revoltillo de teorías) sea efectivamente empírica. En la medida en que lo empírico es aquello que procede más o menos directamente de nuestras capacidades de observación de la realidad, lo que le faltaría al estructuralismo, entre otras cosas, sería una reflexión acerca de qué es lo que hace que un concepto sea observacional (sin perjuicio de que, además de serlo,
también esté “cargado de teoría”).
Puesto que, en mi opinión, esta dificultad del estructuralismo se debe a la interpretación habitual del criterio de T-teoricidad, conviene que empecemos estudiando los problemas de esa interpretación. Posteriormente, utilizaré una versión modificada del criterio de T- teoricidad para definir las nociones de “teoría básica” y de “concepto
observacional”, nociones que nos permitirán rehabilitar en cierta medida, como anunciaba en la introducción, el concepto de “protocolos de observación”
fundamentales pero a la vez revisables, propuesto por Otto Neurath. Por último, en los dos apartados finales intentaré utilizar la teoría de los juegos semánticos de Jaakko Hintikka para arrojar alguna luz sobre el proceso de contrastación de la aserción empírica de una teoría, otro aspecto de las relaciones entre las teorías científicas y la experiencia que es generalmente pasado por alto en las exposiciones estructuralistas.
2. ALGUNAS DIFICULTADES EN EL CRITERIO DE T-TEORICIDAD. Antes me he referido a la existencia de ciertas ambigüedades en el criterio de Tteoricidad propuesto por Sneed. Según ese criterio, una propiedad o magnitud es Tteórica si y sólo si todos sus procedimientos de determinación o medición aceptados presuponen la teoría T (es decir, son modelos de la teoría). Obviamente, en esta condición hay presente un aspecto de tipo pragmático, pues el hecho de que un
procedimiento de medición sea “aceptado” o no, no es una cuestión puramente lógica,
semántica o empírica, sino que resulta de una serie de decisiones de los miembros de cada comunidad científica. No tengo nada que objetar a esto; más bien al contrario, la versión del criterio de T-teoricidad que voy a proponer es aún más pragmática, o al menos muestra su pragmatismo más directamente en su propio valor facial. Pero el criterio, tal como es formulado por los estructuralistas, presenta algunos problemas precisamente por no manifestar con suficiente claridad todo el componente pragmático que contiene. En primer lugar, cuando en la definición de T-teoricidad se habla de los “procedimientos de medición de una magnitud” (por ejemplo, la masa), no está claro si nos estamos refiriendo a los propios sistemas físicos con los que se lleva a cabo la medición (por ejemplo, las balanzas efectivamente existentes), o a las descripciones teóricas aceptadas de dichos sistemas. En segundo lugar, cuando se dice que los procedimientos de medición “ presuponen la teoría T ”, tampoco está claro si se quiere decir que son realmente modelos de la teoría, o que se cree que son modelos de la teoría. Posiblemente, si en la primera disyuntiva elegimos la primera opción (esto es, si
consideramos como “procedimientos de medición” los correspondientes sistemas
físicos), tenderemos a elegir la segunda opción en la otra disyuntiva (esto es, lo importante es que dichos sistemas se crea que son modelos de la teoría); en cambio, si
consideramos los “procedimientos” como sus descripciones establecidas, entonces lo
importante será tal vez que dichas descripciones satisfacen efectivamente las ecuaciones de la teoría. En todo caso, también cabe la posibilidad de que el criterio afirme que una función es T-teórica si y sólo si los sistemas físicos que se emplean para su medición 130
son realmente modelos de T . Ahora bien, cualquiera de estas tres opciones conduce a dificultades, como vamos a ver. Supongamos, primero, que lo que dice el criterio de T-teoricidad es que una magnitud m es T-teórica si y sólo si los aparatos con los que se miden los valores de m se cree que son modelos de T . En este caso, si los científicos, como ocurre muy frecuentemente, dejan de aceptar la teoría T (por ejemplo, la mecánica clásica) y la sustituyen por otra teoría T’ (por ejemplo, la teoría de la relatividad), entonces habrán dejado de creer que los sistemas físicos usados para medir m son modelos de T . Por ejemplo, los físicos actuales no creen que las balanzas sean realmente modelos de la mecánica clásica, sino más probablemente de la mecánica relativista, aunque ambos modelos se aproximen muchísimo en un gran número de casos. ¿Eso significa que el concepto de masa ha dejado de ser teórico con respecto a la mecánica clásica, para serlo con respecto a la teoría de la relatividad? Y entonces, ¿qué sentido tiene la afirmación, realmente poco discutible, de que el término “masa” designa dos conceptos diferentes en ambas teorías? En general, bajo esta interpretación del criterio de T-teoricidad, no sería posible que un concepto fuera teórico con respecto a alguna teoría en la que los científicos actualmente no creen. No me parece que los estructuralistas estuvieran dispuestos a aceptar esta conclusión. Imaginemos, en cambio, que lo que afirma el criterio es que las descripciones de aquellos aparatos son modelos de T . Aquí el problema es que dichas descripciones, además de satisfacer los diversos axiomas de la teoría T , también satisfarán otros enunciados. En particular, si S es un enunciado que se sigue lógicamente de T , aquellas descripciones también serán modelos de S ; por ejemplo, todas las descripciones de los procedimientos de determinación de cualquier propiedad o magnitud satisfarán cualquier enunciado tautológico (llamémosle T *), es decir, el enunciado de menor contenido posible de entre los que son satisfechos por las descripciones de los procedimientos de medición. Por otra parte, esas mismas descripciones también implicarán algunos enunciados que no son derivables ni equivalentes a T (por ejemplo, el enunciado “ninguna balanza tiene brazos de más de un millón de kilómetr os de largo”); sea T * la conjunción de todos los enunciados que son implicados por todas las descripciones aceptadas de los procedimientos de medición. Pues bien, T * implica T , y ésta a su vez implica T *, y entre la primera de estas proposiciones y la segunda, así como entre la segunda y la tercera, existen numerosas proposiciones más, que pueden tener mayor o menor contenido informativo que T . La cuestión es que, bajo la interpretación del criterio de T-teoricidad que estamos discutiendo en este párrafo, la magnitud m será teórica con respecto a todas y cada una de esas proposiciones , lo que tampoco pienso que estén dispuestos a aceptar los estructuralistas. En tercer y último lugar, cabe la posibilidad de que la interpretación correcta del criterio sea la que afirma que m es T-teórica si y sólo si los propios aparatos físicos de medición de la magnitud m son modelos de T . En este caso, el problema que tenemos es que no podría haber ningún concepto que fuera teórico con respecto a una teoría falsa (en el sentido de que los sistemas a los que se la pretende aplicar no cumplen exactamente los principios de la teoría), pues, obviamente, si los sistemas de medición satisfacen una cierta teoría, esa teoría será verdadera, al menos respecto a dichos sistemas. Pero parece que en principio no tendría por qué ser imposible que algunos conceptos dependiesen esencialmente de teorías falsas, sobre todo teniendo en cuenta que a lo largo de la historia de la ciencia las teorías falsas parecen superar con creces en número a las verdaderas. 131
3. UNA INTERPRETACIÓN INFERENCIALISTA. Las dificultades que he señalado en el apartado anterior pueden superarse si aceptamos una interpretación del criterio de T-teoricidad basada en una teoría sobre el lenguaje conocida como inferencialismo. De acuerdo con esta teoría, propuesta originalmente por Wilfried Sellars y defendida más recientemente por Robert Brandom,87 comprender el significado de un enunciado consiste en ser capaz, por un lado, de ofrecer razones que justificarían su aceptación, y por otro, de extraer las consecuencias que se seguirían de su aceptación. Es decir, comprender un enunciado equivale a dominar las inferencias en las que dicho enunciado puede funcionar, bien como conclusión, o bien como una de las premisas. Dicho en términos de Sellars, la capacidad de entender el lenguaje es la capacidad de “jugar al juego de dar y pedir razones”. Estas razones o inferencias no son únicamente las que dependen de la pura forma lógica de los enunciados en cuestión, sino más bien todas aquellas que, dentro de la comunidad lingüística que estemos considerando, se considera que deben ser
aceptadas por todo el mundo (por ejemplo, “si llueve, el suelo estará mojado”). A su
vez, entender un concepto equivale a dominar las inferencias que dicho concepto
permite hacer; por ejemplo, aunque uno emplee las palabras “norte” y “sur”, y construya con ellas ciertas afirmaciones, no consideraremos que de veras entiende lo que esos términos quieren decir si no es capaz de darse cuenta de la validez de la
inferencia que dice que “si A está al norte de B, B estará al sur de A”. Por otro lado, las “inferencias” que uno debe ser capaz de dominar para realmente comprender un
concepto o un enunciado no són únicamente internas al lenguaje: por ejemplo, de ciertas afirmaciones no se seguirán tanto otras afirmaciones, cuanto determinadas acciones, y asimismo, algunas afirmaciones no se seguirán de otras, sino más bien de ciertas percepciones.
Brandom explica la estructura inferencial de los “juegos de lenguaje” a través de
categorías de naturaleza pragmática y normativa: lo importante (en coherencia con la tradición del segundo Wittgenstein y Austin) es lo que los hablantes hacen al utilizar el lenguaje, y esto a su vez está modulado por las normas, generalmente implícitas, que determinan lo que cada hablante debe o puede hacer en cada situación. Así, el acto que consiste en realizar una afirmación implica que los demás hablantes le atribuirán a uno varios compromisos, entre ellos la obligación de presentar razones que justifiquen que uno tiene derecho a afirmar aquello (léase: razones que justifiquen la probable verdad de la afirmación), y también la obligación de aceptar las consecuencias que se siguen de lo que uno ha afirmado (ya sean estas consecuencias meras afirmaciones adicionales, o actos que uno tenga que realizar). Sólo si el hablante cumple con todos estos compromisos, estará habilitado ante los demás miembros de su comunidad lingüística para llevar a cabo aquella afirmación. Teniendo en cuenta todo esto, la versión del criterio de T-teoricidad que deseo proponer es la siguiente: un concepto X es teórico con respecto a T si y sólo si T es la conjunción de todos los compromisos que un hablante debe asumir para estar habilitado a comprometerse con una afirmación en la que se utilice el concepto X . Dicho de otra manera: los miembros de la comunidad lingüística a la que uno pertenece 87
Sellars (1971), Brandom (1994) y (2001).
132
sólo consideran que uno entiende el significado del concepto X si, cuando hace una afirmación A que contiene X , se compromete con todas las consecuencias que se siguen de T&A. Idealmente, T consistiría en la axiomatización de todas las inferencias relacionadas con el concepto X que en la propia comunidad lingüística se consideren válidas. Entre estas inferencias se incluirán enunciados puramente tautológicos,
enunciados de los considerados usualmente “analíticos”, y enunciados puramente
factuales, sin que tal vez se puedan establecer límites claros entre ambas categorías, especialmente entre las dos últimas (como bien sabemos de sde los “Dos dogmas del
empirismo” de Quine); pero lo importante aquí no es tanto qué “tipo” de verdad o
validez posean aquellas inferencias, sino el hecho de que en la comunidad de hablantes se exija el compromiso de aceptar todo lo que de ellas se siga cuando se utiliza un determinado concepto. Precisamente, las inferencias más interesantes en este sentido son las que están basadas en la percepción intersubjetiva de ciertas regularidades empíricas, pues tales regularidades son las que hacen posible que unos individuos aprendan el uso de los términos del lenguaje a partir de otros individuos que ya saben usarlos: si nuestra experiencia no se comportase de forma suficientemente regular , y si dichas regularidades no fuesen coherentes desde la perspectiva de los distintos sujetos, entonces sencillamente no sería posible que aprendiéramos a usar el lenguaje. La consecuencia más importante de todo esto para la discusión del presente capítulo es que todos los conceptos, incluso los más básicos, serán “teóricos” con respecto a alguna “teoría” ,
a saber, con respecto a la “teoría” que consiste en la
combinación de todas las inferencias (públicamente aceptadas como) válidas en relación con cada concepto. La T-teoricidad de un término significa que uno sólo está habilitado ante los otros hablantes para realizar una afirmación que contiene aquel concepto si, además de esa afirmación, se compromete a aceptar todas aquellas proposiciones que se siguen de ella y de T . Por ejemplo, el término “azul” será teórico con respecto a la combinación de todos aquellos conocimientos que a uno se le suponen si pretende
comprender lo que el término quiere decir; así, tesis como “los sonidos no tienen color”, “una misma superficie no puede ser a la vez de varios colores”, “cada color pued e tener varios matices”, etcétera, serían algunos de los “axiomas” de la teoría con respecto a la que el término “azul” es teórico. Naturalmente, esta definición de teoricidad presupone la referencia a una comunidad determinada; en el caso de un término corriente, será en general el conjunto de hablantes del mismo idioma, o de una de sus variedades; en el caso de términos más técnicos, entre ellos los conceptos científicos, la comunidad estará restringida a los usuarios habituales de esos términos, e incluso, más bien, al grupo de
aquellas personas que los usuarios habituales de un término consideran “más autorizados”.
Esta definición de T-teoricidad no padece las ambigüedades que estudiamos en el caso del criterio de Sneed. En primer lugar, lo importante para que X sea T-teórico no es que los científicos (o, en general, los hablantes) crean o acepten la teoría T ; lo que cuenta es más bien el hecho de que a uno se le exigirá aceptar T en el caso de que utilice el concepto X para hacer una determinada afirmación. Por ejemplo, si afirmo que la
masa (“clásica”) de un objeto es de 10 kilogramos, mis colegas sólo considerarán que
estoy hablando realmente de ese tipo de masa si acepto también que el objeto se moverá de acuerdo con la segunda ley de Newton cuando sea sometido a alguna fuerza; en cambio, si acepto que la masa de ese objeto aumentará cuando aumente su velocidad,
mis colegas entenderán seguramente que estoy usando el término “masa” para referirme
a la masa relativista. Exactamente por la misma razón, tampoco es necesario que sea 133
verdadera la teoría con respecto a la cual el concepto X es teórico; basta con que los miembros de la comunidad lingüística impongan el compromiso de aceptar todas las consecuencias de T a todo aquel que desee utilizar el concepto X ; y si de dicho compromiso se sigue que uno terminará aceptando algunas consecuencias falsas, esto será problema suyo. En segundo lugar, en el caso del criterio de Sneed vimos que un concepto pretendidamente T-teórico podía ser teórico con respecto a m uchas otras “teorías”, en particular, respecto a todas aquellas que se pueden deducir de T , y también respecto a algunas de las que la teoría T es una consecuencia lógica. La versión ofrecida en este apartado permite determinar unívocamente con respecto a cuál de todas estas teorías
posibles es “propiamente” teórico el concepto en cuestión, a saber, será teórico con
respecto a T si y sólo si T es la axiomatización de todos los compromisos que uno debe asumir si desea utilizar ese concepto. Por ejemplo, el concepto de masa no será teórico
con respecto a una teoría que incluya entre sus axiomas el de que “ninguna balanza tiene los brazos de más de un millón de kilómetros de largo”, a pesar de que este
enunciado es una parte de la descripción (tácitamente) aceptada de las balanzas reales. Del mismo modo, ese concepto tampoco será teórico con respecto a la teoría que se
limita a afirmar que “la aceleración de un cuerpo sometido a una fuerza dada es menor cuanto mayor es su masa”, porque esto no es todo lo que uno debe aceptar si acepta utilizar el concepto clásico de masa.
4. TEORÍAS BÁSICAS Y CONCEPTOS OBSERVACIONALES. Recordemos que el principal argumento de los estructuralistas contra la posible existencia de una teoría T que no contuviese términos no-T -teóricos (es decir, una teoría
que no “presupusiera” ninguna otra), era que, de acuerdo con su reconstrucción, la “afirmación empírica” de una teoría es una afirmación sobre sistemas definidos
utilizando sólo sus términos no-teóricos; así pues, si no había tales términos, no era posible hacer aquella afirmación, o bien ésta sería vacía, o su contenido tendría que ser establecido de forma totalmente arbitraria. En este apartado mostraré que, por el contrario, nuestra reformulación inferencialista del criterio de teoricidad permite que una teoría que no posea conceptos no-teóricos puede, de todas formas, hacer una afirmación empírica no trivial y, lo que es más importante, perfectamente falsable. Llamaré “teorías básicas” a aquellas que estén presupuestas por otras (es decir, algunos de sus términos teóricos pasan a ser términos no-teóricos, o permiten definir otros términos no-teóricos, de otras teorías “superiores”), pero que, a su vez, no presupongan ninguna otra (es decir, no posean términos no-teóricos). La tesis que defenderé en este apartado, y que será seguramente muy discutible, tanto para los estructuralistas como
para otros filósofos de la ciencia, es que tales “teorías básicas” existen, aunque también intentaré mostrar que esta tesis no nos conduce necesariamente a algún tipo de
“fundamentación última de la ciencia” al modo del fenomenismo o el cartesianismo,
sino que más bien es la que nos permite ir navegando en el barco de Neurath, cuyo casco sólo podía ser reparado en alta mar. Ante todo, la principal cuestión es de qué hablará la afirmación empírica de una teoría que no contiene términos no-teóricos. Una posibilidad obvia es que podría hablar de sistemas que estuvieran descritos con los términos que la teoría misma utiliza, es decir, con sus propio s términos “teóricos”, pero tal estrategia tiene una aparente 134
dificultad: parece que estos sistemas deben ser descritos antes de que intervenga la teoría, y posteriormente la teoría hará una afirmación sobre ellos, afirmación en la que
se introduce la “estructura teórica” de los conceptos de la teoría; entonces, ¿cómo
vamos a describir un sistema utilizando conceptos cuyo significado no vamos a establecer hasta más tarde? Esta dificultad, de todas formas, puede ser superada mediante la versión inferencialista del criterio de teoricidad. Al fin y al cabo, una de las
intuiciones básicas del inferencialismo es que la actividad lingüística de “razonar” es una condición previa a las de “entender” y “afirmar”: es nuestra capacidad de hacer
inferencias la que convierte algunos de nuestros actos en afirmaciones, y no al revés, pues la emisión de ciertos sonidos se constituye como una afirmación sólo en la medida en que seamos capaces de dar razones y extraer consecuencias de ella. También podemos justificar esta tesis mediante un argumento evolutivo: la capacidad de percibir regularidades y de actuar en consecuencia con ellas (lo que constituye una forma de
realizar “inferencias”) es una capacidad psíquica muy anterior en el desarrollo de los
seres vivos a la de utilizar el lenguaje para expresar y comunicar aquellas regularidades; de hecho, la primera capacidad la poseen, aunque de manera limitada, la mayoría de los invertebrados, mientras que la segunda sólo la poseemos los seres humanos, que se sepa. Dicho de otra manera, nuestra capacidad de utilizar conceptos presupone la capacidad de hacer inferencias: un concepto es simplemente la abreviatura de un cierto conjunto de inferencias aceptadas. Lo mismo ocurre con las teorías básicas: el uso de sus conceptos presupone la aceptación previa de la teoría, entendida ésta como la sistematización de las inferencias aceptadas sobre aquellas cosas a las que esos
conceptos se refieren. De este modo, los conceptos de las “teorías básicas” no pueden comprenderse y usarse legítima mente (¡ni siquiera para “describir la experiencia”!)
salvo si uno se compromete a aceptar todas las consecuencias que se deriven de las afirmaciones hechas con esos conceptos en conjunción con la teoría completa. Un buen ejemplo lo constituye el concepto de longitud. De acuerdo con las modernas teorías de la medición, este concepto métrico puede ser definido a partir de otros conceptos puramente cualitativos, en especial el predicado “ x es más largo que y”, que abreviaremos como Lxy. Es habitual interpretar los sistemas que recojen
comparaciones de este tipo como “datos” a partir de los cuales se puede “construir” el concepto cuantitativo de longitud, si se observa que aquellos “datos” cumplen ciertos axiomas apropiados, entre ellos los siguientes: x ¬Lxx x y (Lxy ¬Lyx) x y z ((Lxy & Lyz) Lxz).
Es decir, primero se recogerían los “datos” mediante observaciones, luego se constataría que los “datos” cumplen estas (y otras) regularidades, y finalmente se
introduciría el concepto métrico de longitud, generalmente mediante la selección de un objeto patrón que se establece como unidad de longitud. En cambio, desde el punto de vista del inferencialismo, el proceso no sigue este orden. Ciertamente, la introducción de las unidades de medida se hace a partir de la observación de las regularidades mencionadas, ¡pero la propia noción comparativa de “ser más largo que” también se introduce después de constatadas aquellas regularidades! Esto es así porque, aunque se puede observar objetos más largos que otros antes de darse cuenta de que esta relación es irreflexiva, asimétrica y transitiva, sólo después de que uno se haya dado cuenta de 135
esto (y acepte las consecuencias que se sigan de ahí) estará habilitado para utilizar el predicado “Lxy” para representar su percepción de que a es más largo que b. Mientras yo pueda ir afirmando más o menos impunemente que a es más largo que b, b más largo que c, pero c es más largo que a, y aunque asegure que todo esto corresponde fielmente a lo que estoy percibiendo (¡y aunque tenga razón!), el resto de los hablantes no considerarán que yo entiendo realmente la relación de “ser más largo que”, y no tomarán mis afirmaciones como descripciones legítimas de mi experiencia. Como mucho, y con cierta benevolencia, considerarán que estoy aún aprendiendo a usar correctamente esa parte del lenguaje, o que no ando muy bien de la vista. Así pues, una
teoría básica hace algunas afirmaciones sobre ciertos “sistemas de datos”, pero en
realidad tales sistemas sólo son aceptados como auténticos datos cuando se aceptan todas las consecuencias de aquella teoría. Así pues, para un concepto empírico determinado, la teoría básica con respecto a la cual dicho concepto es teórico será, sencillamente, la representación de aquel conjunto de regularidades cuya experiencia intersubjetiva forma la base de las inferencias que una comunidad lingüística considera obligatorio asumir si se quiere emplear legítimamente aquel concepto. Una vez que dicho concepto es introducido mediante ese conjunto de esquemas de inferencia, los hablantes pueden hacer infinitas afirmaciones nuevas utilizándolo, afirmaciones que no se siguen sólo de la teoría básica asociada al concepto, y que de ninguna manera pueden considerarse teorías básicas, pues éstas sólo contienen aquellas regularidades que es obligatorio asumir si se quiere estar habilitado para utilizar el concepto. Una vez definida la noción de teoría básica, es posible definir la de “concepto observacional”. La definición que ofrecemos es recursiva: 1) si un concepto es teórico con respecto a una teoría básica, es observacional; 2) si un concepto es introducido mediante una definición explícita a partir de términos observacionales, entonces es observacional; 3) nada es un concepto observacional salvo por las razones 1 y 2. Los conceptos observacionales son, pues, aquellos que son introducidos directa o indirectamente por teorías básicas, es decir, por teorías que sólo presuponen esos
mismos conceptos, y no otros más “fundamentales”. Naturalmente, hay que tener en
cuenta que cada teoría básica puede introducir más de un concepto observacional; en realidad, es seguro que estos conceptos son introducidos en bloques relativamente grandes, y no de uno en uno. Brandom expresa muy bien esta idea cuando afirma que es imposible poseer un solo concepto, pues sólo se puede aprender la utilización correcta de uno de ellos si se aprende simultáneamente la de muchos otros. No puede ser de otra manera, si recordamos que las teorías básicas son esencialmente sistematizaciones de esquemas inferenciales, y que éstos los utilizamos para construir razonamientos en los que generalmente se entrelazan múltiples conceptos. Para concluir este apartado vamos a abordar dos cuestiones que sin duda se suscitarán a propósito de las ideas que acabamos presentar. La primera cuestión es la de
si nuestra noción de “teoría básica” no vuelve a introducir subrepticiamente la tesis de
una fundamentación empírica firme e indudable para el conocimiento científico. La segunda cuestión es la de cómo identificar esas teorías básicas en la práctica científica real. Pues bien, con respecto al primer problema, la respuesta es que las teorías básicas,
tal como las hemos definido, no sólo no poseen ningún tipo especial de “verdad garantizada” o “certeza absoluta”, sino qu e son plenamente falsables, y muchas de ellas
han sido incluso empíricamente refutadas. Tomemos, por ejemplo, una teoría básica, mantenida por muchos de nuestros antepasados, y constituida por ciertos esquemas 136
inferenciales relacionados con la utilización de los puntos cardinales; en la remota antigüedad seguramente se aceptaba que las tres regularidades mencionadas más asrriba con respecto al predicado “ x es más largo que y”, serían también correctas para el predicado “ x está al oeste de y”. La teoría bási ca correspondiente afirmaría que estas y otras regularidades eran aplicables universalmente para cualquier conjunto de puntos de la superficie terrestre. Ahora bien, cuando se descubrió la esfericidad de la Tierra, tal teoría básica fue refutada; es decir, el concepto de “estár al oeste de” perdió algunas de las características que se le asignaban, por ejemplo, la de ser antisimétrico: un lugar puede estar al oeste de otro, y el segundo a su vez estar al oeste del primero. La refutación empírica de una teoría básica exige habitualmente abandonar los conceptos introducidos por ella y substituirlos por otros, que sólo coincidirán con los primeros en algunas de sus características, pues estarán basados en regularidades diferentes. La falsabilidad de las teorías básicas se debe, simplemente, al hecho de que las regularidades sistematizadas por ellas están establecidas, en general, sólo para un ámbito determinado de la experiencia (e incluso en ese ámbito pueden dejar de cumplirse, o no haberse cumplido antes más que aparentemente), y cuando la teoría intenta aplicarse a ámbitos más extensos, puede ocurrir que se descubra que tales regularidades no son ni mucho menos válidas. En el ejemplo anterior, las regularidades sobre las que se basaba la comprensión del conc epto de “estar al oeste de” eran válidas sólo en ámbitos relativamente pequeños, como mucho del tamaño de un continente no situado en una latitud muy extrema, pero dejaban de serlo cuando intentamos aplicar ese concepto a un ámbito de aplicación del tamaño de todo el planeta, o cerca de los polos. Con respecto a la segunda cuestión, un comentario crítico de los estructuralistas, aunque más o menos marginal, hacia la posible existencia de teorías básicas es el que afirma que dichas teorías no se encuentran expuestas en manuales o artículos
científicos, como sí lo están “auténticas” teorías como la mecánica clásica, el electromagnetismo, la teoría de la evolución, etcétera. Parece que las “teorías básicas”
serían, pues, simplemente de un mito filosófico, sin conexión alguna con la ciencia real. De todo cuanto hemos dicho en este apartado a propósito de las teorías básicas, se desprende, por el contrario, que estas teorías, que constituyen el punto de conexión entre los conceptos científicos y la experiencia, no son en general construcciones abstractas diseñadas por científicos profesionales para resolver problemas cognitivos concretos, sino más bien sistemas de creencias y compromisos compartidos por los hablantes de un lenguaje natural , los cuales les permiten llevar a cabo con la necesaria fluidez su cotidiano comercio comunicativo. El conjunto de las teorías básicas aceptadas por una comunidad de hablantes (generalmente mantenidas de forma tácita, y manifestándose sobre todo en las reacciones de protesta frente a inferencias inconsistentes con dichas teorías) constituye sencillamente la sistematización de las creencias de los miembros de esa comunidad sobre el comportamiento más o menos regular de los fenómenos que integran su experiencia intersubjetiva más habitual. Las teorías básicas de una
comunidad serán, por lo tanto, la expresión de lo que para ella es “sentido común”. En
la medida en que los conceptos científicos presuponen este tipo de teorías, podemos afirmar que la “base empírica” de la ciencia no es otra cosa que la red de conceptos del sentido común. Como hemos visto, estas creencias no tienen una garantía absoluta de verdad, y es probable que muchas de ellas sean falsas, lo que a menudo sólo puede ser descubierto cuando se intenta estudiar con más detalle y más amplitud un ámbito de aplicación de alguna teoría básica. Naturalmente, el principal ejemplo de un tal estudio sistemático es 137
la investigación científica, y así, la refutación de una teoría básica estará provocada a menudo por el conflicto de la teoría con un descubrimiento científico firmemente establecido. Esto significa que, aunque la ciencia se base en el sentido común, también es una herramienta poderosa cuando se trata de criticarlo. No existe aquí necesariamente un problema de circular idad, porque la teoría “madura” con la que se refuta una teoría básica, es cierto que presupondrá algunas teorías básicas, pero generalmente no serán las mismas que las que está intentando refutar. En general, lo que ocurre en estos casos es que el uso de algunos conceptos estaba fundamentado en regularidades que la experiencia cotidiana sólo mostraba para ciertos ámbitos limitados, pero cuya validez la habíamos extrapolado temerariamente hacia otros tipos de fenómenos sobre los que nuestra experiencia era mucho más restringida, o bien directamente nula. Otro ejemplo
similar al del concepto de “estar al oeste de” es la noción de simultaneidad absoluta, que nuestro sentido común tiende a aceptar como universalmente válida, pero que, tal como muestra la teoría de la relatividad, en realidad es inconsistente con ciertos conocimientos científicos bien fundados. Por otro lado, este mismo ejemplo muestra
que un “concepto observacional” (y la red de inferencias asociadas a él) sólo empieza a
ocupar la antención de los científicos cuando se convierte en un problema, y es entonces
cuando podemos esperar ver surgir “teorías básicas” explícitamente diseñadas por
algunos investigadores con el fin de sustituir a las nociones problemáticas heredadas del sentido común.
5. EL JUEGO DE HINTIKKA DE UN ENUNCIADO DE RAMSEYSNEED. En los apartados anteriores he intentado mostrar de qué manera los conceptos científicos, tal como son analizados en el marco de la concepción estructuralista, pueden
estar “basados en la experiencia” a pesar de ser, todos y cada uno de ellos, “dependientes de alguna teoría”. Mi respuesta a este problema es que los conceptos más
abstractos, introducidos explícitamente por alguna teoría científica, presuponen en último término nociones extraídas de la experiencia cotidiana, si bien aquellas teorías pueden mostrar frecuentemente que estas nociones de sentido común sólo son válidas para ámbitos de fenómenos mucho más restringidos de lo que ingenuamente podíamos pensar antes de que metieran baza en el asunto los científicos insidiosos. Reconozco que esa respuesta es poco original, pues, en el fondo, resulta coherente con las interpretaciones más tradicionales del conocimiento científico, incluso con el positivismo de los miembros del Círculo de Viena (con perdón) en sus etapas menos fenomenistas. Si mis conclusiones poseen alguna originalidad, se hallará más bien en los argumentos con los que he intentado justificarlas. De todas formas, respecto al problema más general que estamos abordando en este capítulo, a saber, el de cuál puede ser exactamente el puesto de la experiencia en la reconstrucción estructuralista del conocimiento científico, aún no hemos respondido más que una parte. Lo que hemos visto hasta ahora se refiere a cómo interviene la experiencia en la constitución del contenido semántico de los conceptos científicos, pero aún falta por ver cuál es su papel en el proceso de contrastación de la aserción empírica de cada teoría, un asunto sobre el que las exposiciones canónicas del estructuralismo guardan tanto silencio como sobre el anterior. 138
Para abordar esta cuestión voy a emplear la teoría de los juegos semánticos desarrollada principalmente por Jaakko Hintikka. 88 Esta teoría resulta especialmente útil para este fin, porque en ella las nociones semánticas básicas son introducidas a partir de nociones pragmáticas (como ocurría en el caso de Brandom, aunque se trata de dos teorías muy diferentes en casi todos sus aspectos formales), y esto permite comprender muy fácilmente la posible conexión entre semántica y metodología, es decir, la
conexión entre conceptos semánticos como los de “verdad” y “falsedad”, por un lado, y conceptos pragmáticos como los de “verificación” y “falsación”, por otro. Como veremos, esto no significa, ni mucho menos, que la teoría de los juegos semánticos
implique necesariamente una “teoría pragmática de la verdad”, en el sentido tradicional
de esta expresión. De hecho, la utilización que haremos aquí de la teoría de Hintikka es, probablemente, más “pragmatista” que la suya propi a. Hintikka introduce la noción del juego asociado a un enunciado; este juego se juega entre dos jugadores imaginarios: el “Verificador” ( V ), que intenta demostrar que el enunciado es verdadero, y el “Refutador” ( F ), que intenta demostrar lo contrario. Para un enunciado de un lenguaje de primer orden, las reglas del juego serían las siguientes (al lector que conozca la teoría de la tablas semánticas o árboles lógicos, esto le resultará muy familiar): a) Si E es una proposición atómica, V gana si E es verdadera, y F gana si E es falsa. b) Si E = E 1 & E 2, F elige una de estos dos enunciados, y el juego continúa respecto al enunciado elegido. c) Si E = E 1 E 2, V elige uno de estos dos enunciados, y el juego continúa respecto al enunciado elegido. d) Si E = E 1, el juego continúa respecto a E 1, pero cambiando los papeles de V y F . e) Si E = x(Gx), F elige un individuo a del universo del discurso, y el juego continúa respecto a Ga. f) Si E = x(Gx), V elige un individuo a del universo del discurso, y el juego continúa respecto a Ga. Estas reglas especifican el conjunto de decisiones a las que los dos jugadores, V y F , se enfrentan a lo largo del juego. La descripción completa del juego asociado a un enunciado, con cada una de las alternativas abiertas para los jugadores en cada posición,
guarda una notable semejanza con el “árbol semántico” de ese mismo enunciado, con la
diferencia de que el árbol sólo mostraría una de las posibles alternativas asociadas a cada posición que comience con un cuantificador, y en el caso de las conectivas diádicas mostraría simultáneamente las dos opciones (para la disyunción, en dos ramas
distintas). Esta semejanza de los “árboles lógicos” con el diagrama de un juego (en el sentido de la “teoría matemática de juegos”, en con creto, el diagrama denominado “forma normal” del juego) es, sin lugar a dudas, lo que inspiró a Hintikka el desarrollo
de esta teoría. La noción de verdad se introduce ahora del modo siguiente: el enunciado E es verdadero si y sólo si V tiene una estrategia ganadora en el juego asociado a E (puede también mostrarse que V tiene una estrategia ganadora si y sólo si F no la tiene). Cada 88
V. Hintikka (1976) y (1999).
139
estrategia de un jugador consiste en la enumeración de una posible decisión en cada una de las posiciones del juego en la que le toque jugar a él. Así pues, que un jugador tenga una estrategia ganadora significa que, si toma en cada momento la decisión que dicha estrategia le indica, el juego terminará siempre en un punto en el que ese jugador obtenga la victoria, independientemente de las decisiones que tome el otro jugador. De este modo, el que un enunciado sea verdadero no es equivalente al hecho de que el Verificador haya conseguido ganar el juego en una ocasión determinada; esto último podría haber ocurrido incluso si el Refutador tuviese una estrategia ganadora (en cuyo
caso el enunciado sería falso), pero se hubiera “equivocado” en alguna de sus
decisiones, esto es, si en vez de una de sus estrategias ganadoras hubiese elegido una estrategia diferente. Lo que hace que el enunciado sea verdadero no es, pues, el que V gane el juego, sino el hecho de que V posea alguna estrategia que le garantice la victoria, aunque luego utilice otra (mutatis mutandis para el caso de que el enunciado sea falso); naturalmente, si los jugadores son perfectamente racionales y omniscientes, quien posea una estrategia ganadora la utilizará, y el juego terminará con victoria para el Verificador si y sólo si el enunciado es verdadero, pero esto no es necesariamente válido para jugadores de carne y hueso. Por lo tanto, la verdad de un enunciado es una cuestión plenamente objetiva, que no hay que confundir con su verificación, aunque en el próximo apartado estudiaremos algunas conexiones entre ambos conceptos. Podría objetarse a la propuesta de Hintikka que su definición del concepto de
“enunciado verdadero” se aplica sólo a los enunciados no atómicos, mientras que, por la
regla a), debemos contar previamente con alguna noción de verdad aplicable a enunciados atómicos. Esto puede resolverse, de todas maneras, introduciendo explícitamente esa noción de verdad mediante una definición de tipo tarskiano, como las que son habituales en la teoría de modelos, pero limitada a enunciados que no contienen conectivas ni cuantificadores, sólo predicados y constantes individuales. Esto no supone un grave problema para las intenciones originales de Hintikka, que tienen que ver más bien con el análisis del comportamiento semántico de los cuantificadores, y sobre todo en contextos no analizables mediante la lógica de primer orden (por ejemplo, el uso de los cuantificadores en el lenguaje natural). Para mi propio análisis de este apartado y del siguiente tampoco va a ser una dificultad especialmente importante: por un lado, lo que me interesa es también el estudio de ciertos enunciados más complejos,
y por otro lado, los “enunciados atómicos” a los que llegue mi propio análisis pueden
poseer ellos mismos una estructura que no nos interese analizar ahora, y en todo caso, puede tratarse de regularidades empíricas cuya verificación, en principio, no presente
problemas prácticos por tratarse de leyes contenidas en alguna “teoría básica”.
Una vez hechas estas aclaraciones, nuestra cuestión es la de cómo sería el juego de Hintikka asociado a un enunciado del tipo de lo que los estructuralistas denominan la “aserción empírica” de una teoría científica, es decir, de su “enunciado de Ramsey -
Sneed”. Una versión de este tipo de enunciados que permite definir bastante fácilmente
el juego asociado a ellos es la que ofrezco tras estas breves aclaraciones: 1) A representará el conjunto de aplicaciones intencionales de la teoría T , es decir, el conjunto de sistemas reales cuyas características y comportamiento se pretende explicar mediante la teoría; 2) Si m es un “modelo potencial” de T (es decir, una estructura que se puede describir con los conceptos utilizados por T ), entonces “Tm” significará que m satisface los axiomas de T , es decir, que es un modelo de T . En las exposiciones usuales del estructuralismo, si T posee algunos términos teóricos, entonces m se tendrá que poder 140
describir utilizando sólo sus conceptos no-T-teóricos, y en tal caso, a m se le llama un
“modelo potencial parcial”. Esta distinción no es pertinente para las teorías básicas,
pues no poseen conceptos no-T-teóricos, y m debería describirse entonces usando todos los conceptos de la teoría. 3) Si m y n son modelos potenciales de T , entonces “Cmn” significará que m y n satisfacen las condiciones de ligadura de T (esta última noción, que ya vimos en el capítulo II, se refiere a las conexiones que deben existir, según la teoría, entre sistemas diferentes). 4) Finalmente, si m es un modelo potencial de T , entonces “Ex(m)” representará el conjunto de las posibles extensiones de m, es decir, sistemas que siguen siendo descriptibles con los conceptos de T , pero que contienen a m como una parte suya. Si T es una teoría básica, las extensiones de m no precisarán la introducción de conceptos nuevos para ser descritas, lo que sí puede suceder en el caso de otras teorías (en este caso, las extensiones de m se describen utilizando también los conceptos T-teóricos). Hechas estas aclaraciones, el enunciado de Ramsey-Sneed de la teoría T sería: x A y Ex(x) (Ty & z A !w Ex(z)(Tw & Cyw))
Lo que afirma esta proposición es que, para todas las aplicaciones empíricas de T , hay alguna forma de completarlas (por ejemplo, con valores de ciertas funciones adicionales) de tal manera que se cumplan dos cosas: primero, que el sistema resultante de esta extensión sea un modelo de T , y segundo, que para cualquier otra aplicación empírica existe una sola extensión similar, de forma que los dos sistemas resultantes cumplan las condiciones de ligadura de T (recuérdese que la expresión “ !xFx” significa “hay un solo x tal que Fx”, y es la abreviatu ra de “ x(Fx& y(Fy x=y))”). Dicho de otra manera, cada aplicación empírica de T puede ser convertida en un modelo de la teoría, que sea, además, compatible con todos y cada uno de los otros modelos que resulten de la extensión de las demás aplicaciones empíricas. Nuestra siguiente pregunta es, obviamente, qué forma tendrá el juego de Hintikka asociado a la proposición anterior. Esto se muestra en la figura 5, donde el cuantificador “ !” ha sido simplificado como “ “ (dejo al lector interesado el ejercicio de representar el juego con el cuantificador más complejo, así como el juego de Hintikka asociado a otras versiones de la “aserción empírica” de T que se puedan hallar en la literatura del estructuralismo):
Figura 5 En esta figura, la primera casilla contiene el enunciado de Ramsey-Sneed de la teoría T . Las casillas con fondo gris representan las decisiones que corresponde tomar a cada jugador, V o F ; cuando se indica así, la decisión consiste en elegir un elemento del conjunto mencionado en la casilla, elemento con respecto al cual el juego continúa en las casillas siguientes; en el caso de las casillas 3 y 6, la decisión que F debe tomar es la de elegir un miembro de la conjunción que está respectivamente sobre cada una de ambas casillas. Las demás casillas con fondo blanco representan el enunciado que resulta después de que el jugador correspondiente realice la jugada elegida por él. El juego termina cuando se alcanza alguna de las casillas redondeadas, y, como sabemos, 141
el ganador será V si el enunciado contenido en esa casilla es verdadero, y será F si dicho enunciado es falso. En resumen, el juego consiste en que el Refutador, F , intenta encontrar contraejemplos de T , esto es, aplicaciones intencionales que no puedan ser convertidas en modelos de la teoría, o que sólo lo sean a costa de entrar en mutua contradicción con otras aplicaciones; a su vez, el Verificador, V , intenta encontrar un conjunto de valores numéricos para las funciones pertinentes de los sistemas elegidos por F , del tal modo que se cumplan los axiomas y condiciones de ligadura de la teoría. El enunciado de Ramsey-Sneed será verdadero, pues, si y sólo si el Verificador cuenta con una estrategia ganadora, es decir, con una forma de completar todas y cada una de las aplicaciones propuestas que sea coherente con todos los principios de T .
6. VERIFICABILIDAD Y FALSABILIDAD.
Los dos “jugadores” de los que hemos ido hablando en el apartado anterior son,
obviamente, construcciones ideales, no personas de carne y hueso. Ante todo, las decisiones que deben tomar entrañan la necesidad de elegir algunos objetos de entre los elementos de dos conjuntos infinitamente grandes, conjuntos ante los cuales un ser humano real sólo tendría la opción de escoger de manera puramente aleatoria. Uno de estos conjuntos es el de las aplicaciones intencionales de la teoría. Téngase en cuenta que este conjunto no sólo incluye (desde la perspectiva del Refutador, que debe buscar en su interior algún contraejemplo de la teoría) todos los sistemas físicos reales que la teoría intenta explicar, sino también todos los sistemas físicamente posibles de los que, en caso de existir, la teoría afirma que cumplirían también todos sus principios; en este conjunto cabrían, pues, todos los experimentos que sería posible hacer para contrastar la teoría (entiéndase: no los tipos de experimentos, sino cada una de sus posibles realizaciones efectivas). El segundo conjunto infinitamente grande al que me refería es el que corresponde a las jugadas del Verificador, el cual debe escoger, para cada sistema elegido por su contrincante, una de entre todas las posibles extensiones de ese sistema, y en general el conjunto de todas estas extensiones tendrá una cardinalidad supernumerable. Esto significa que, si queremos utilizar el esquema de los juegos semánticos para iluminar el proceso de contrastación de las teorías empíricas, debemos tener en cuenta que, cuando los científicos de carne y hueso deben tomar una de estas
decisiones (“buscar un sistema que pueda convertirse en un contraejemplo” y “buscar una extensión de ese sistema”), las alternativas que tengan ante sí, y entre las cuales
tengan que elegir una, deben dárseles en número finito, o al menos, de forma suficientemente estructurada como para que les resulte posible tomar una decisión con fundamento. Una posibilidad sugerente es que el Refutador, al buscar un contraejemplo, debe elegir realmente entre tipos de aplicaciones intencionales, mientras que el Verificador, cuando busca una posible extensión del sistema propuesto por el Refutador, lo que debe elegir es una fórmula (o sistema de fórmulas) que permita calcular los valores que faltan para completar la extensión, a partir de los datos del sistema inicial; estas fórmulas
corresponderían a lo que los estructuralistas denominan “leyes especiales”. Obviamente,
es posible que haya un número finito o infinito de tipos de aplicaciones, y un conjunto finito o infinito de fórmulas que puedan ser utilizadas, si bien lo más probable es que ambos conjuntos, y sobre todo el primero, tengan un tamaño limitado. Lo más importante con respecto al primer conjunto es que los tipos de aplicaciones estén 142
definidos de tal manera que los científicos tomen como algo seguro el hecho de que, si se ha llevado a cabo con el cuidado suficiente la observación de uno o unos pocos sistemas que ejemplifican un tipo determinado de aplicaciones, entonces las conclusiones derivables de esa observación (o experimentación) se considerarán válidas para todos los demás sistemas del mismo tipo. Ya vimos que, en el caso de las teorías básicas, la mera formulación de una regularidad de este tipo sólo es posible si la regularidad ha sido constatada ya públicamente con éxito; estas regularidades pueden servir de punto de partida para la búsqueda de otras. Por supuesto, siempre habrá casos más o menos dudosos (y por eso las observaciones y los experimentos hay que realizarlos con sumo cuidado), siempre habrá también casos en los que fracasemos, y no hayamos identificado realmente un tipo de sistemas cuando creíamos tener uno (por
ejemplo, la categoría de “planeta” en la astronomía precopernicana, que no consideraba
como tal a la Tierra), y además, siempre es posible que mañana nos despertemos y nos demos cuenta de que en realidad éramos una mariposa soñando que era un filósofo de la ciencia; pero, como hemos visto en los primeros apartados de este capítulo, la percepción intersubjetiva de regularidades en nuestra experiencia es la que permite que construyamos conceptos para describir la realidad, y lo que hacemos en la ciencia no es sino intentar ampliar con la mayor seguridad posible esas regularidades que constituyen nuestra experiencia cotidiana, es decir, extender su ámbito de validez (aunque algunas de estas regularidades caigan en el camino), más bien que generalizar la percepción de casos individuales desconectados entre sí (lo cual también es necesario hacerlo muchas veces, claro está). Este aspecto del conocimiento científico lo ha señalado también Jaakko Hintikka en algunos de sus trabajos más recientes, al tratar el problema de la inducción (véase, por ejemplo, su libro Inquiry as Inquiry). Con respecto al conjunto de fórmulas (o de sistemas de fórmulas) que pueden ser utilizadas para completar las aplicaciones empíricas, es más probable que exista en principio un número infinito de fórmulas concebibles. El trabajo de los científicos, y sobre todo de los que juegan un papel semejante al del Verificador, es precisamente el de encontrar las leyes que permitan explicar del mejor modo posible los datos obtenidos sobre aquellas aplicaciones. Pero también puede haber tipos de fórmulas, e incluso tipos de tipos de fórmulas, y así sucesivamente; por supuesto, estos conjuntos más generales sólo pueden ser analizados mediante estructuras matemáticas muy abstractas, y ésta es sin duda la razón por la que el estudio de ese tipo de estructuras (por ejemplo, diferentes tipos de espacios y álgebras, y condiciones lógicas -p. ej., simetrías- que identifican subconjuntos muy amplios de tales estructuras) son empleados tan frecuentemente en las ramas más fundamentales de la física. Aquellos científicos que quieren jugar como Refutadores intentarán hallar tipos de aplicaciones cuyo comportamiento permita descartar de un plumazo una clase considerable de tales tipos de fórmulas. Un buen ejemplo lo encontramos en el caso del teorema de Bell en mecánica cuántica, en el que se muestra que, dados ciertos hechos conocidos sobre el comportamiento de los sistemas cuánticos, todos los modelos -es decir, tipos de fórmulas- de cierta clase serán inconsistentes con aquellos hechos. Denominaremos K al conjunto de clases admitidas de aplicaciones empíricas de la teoría T , cada uno de cuyos miembros, Ai, será un subconjunto del conjunto de aplicaciones empíricas ( A). A su vez, L será el conjunto de posibles leyes especiales admitidas (o de posibles tipos de leyes admitidas; que sea una cosa u otra dependerá de cada situación); naturalmente, todas esas leyes deben presuponer los axiomas fundamentales de T . Si prescindimos de las condiciones de ligadura, la aserción 143
empírica de la teoría T vendrá dada por la proposición siguiente (que denominaré “enunciado de Ramsey -Sneed reducido”): A K L j L (R(A ,i L j )),
i
donde el enunciado “R(A i, L j )” significa que los sistemas contenidos en Ai pueden ser convertidos en modelos de T utilizando las fórmulas contenidas en L j. Este último enunciado es, obviamente, una proposición universal, pues se refiere a todos los posibles miembros de Ai, pero, como indicaba un poco más arriba, si los tipos de aplicaciones están suficientemente bien definidos, es posible que se conozcan bastantes regularidades sobre Ai como para inferir a partir de ellas aquella proposición universal.
Figura 6 El juego asociado al enunciado de Ramsey-Sneed reducido, que se representa en la figura 6, es mucho más sencillo que el anterior. Una de las razones es más aparente que real, pues se trata de que en este caso hemos prescindido de las condiciones de ligadura. Pero la otra razón es mucho más seria: ahora, cada uno de los jugadores tendrá que elegir un elemento de un conjunto mucho menor, pues K y L tienen “pocos” miembros, comparados con A y Ex(m), respectivamente. Lo importante es que, al contrario que el juego de la figura 5, el de la figura 6 puede perfectamente ser jugado por jugadores de carne y hueso, esto es, por científicos reales, y mi sugerencia es que una parte importante de los procesos de investigación científica pueden ser representados mediante el esquema de dicho juego: cuando se propone una teoría (definida por ciertos principios básicos), la intención es explicar con ella una serie de clases de fenómenos (los miembros de K ), y se propone, para cada una de estas clases, una determinada fórmula, ley especial o hipótesis auxiliar (es decir, un miembro de L), que, en unión con los principios fundamentales de la teoría, deberá permitir dar cuenta de los hechos que se vayan conociendo sobre aquellos fenómenos. El hecho de que en el juego intervengan dos jugadores no implica necesariamente que todos los científicos deban clasificarse, bien c omo “Verificadores”, bien como “Refutadores”: cada uno puede desempeñar en la práctica ambos papeles, tanto con respecto a las teorías que él mismo está proponiendo, como con respecto a las teorías propuestas por sus rivales. Pero, por simplicidad, podemos imaginarnos que el juego de la ciencia consiste en que
los “Refutadores” intentan encontrar, entre las clases de aplicaciones de cada teoría,
contraejemplos a las leyes especiales que se hayan ido proponiendo, y mientras tanto los “Verificadores” se esfue rzan por encontrar leyes especiales que consigan superar todos los contraejemplos propuestos. Naturalmente, una gran parte del trabajo de los científicos consiste en descubrir la mayor cantidad posible de hechos sobre cada clase de sistemas empíricos, y otra parte, no menos importante, es la de analizar las propiedades formales de las leyes, fórmulas o estructuras matemáticas propuestas, para derivar a partir de ellas cuantas consecuencias relevantes se pueda. Pero en el fondo, todo este trabajo está encaminado a resolver, en la medida de lo posible, la cuestión de si un determinado tipo de sistemas empíricos puede ser representado correctamente o no por un determinado tipo de estructuras matemáticas. Cada una de las respuestas a este tipo de cuestiones consiste en la resolución de una jugada del juego de la figura 6, es 144
decir, el intento de determinar si, una vez alcanzada la última casilla de esa figura, el ganador del juego es V o F , lo que dependerá de que la proposición “R(An ,Lm )” sea verdadera o falsa. La estructura de este juego puede ser analizada también utilizando lo que, en la
teoría económica de los juegos, se denomina la “forma estratégica”, esto es, una matriz
en la que cada columna representa una posible estrategia de un jugador (pongamos, V ), y cada fila una posible estrategia del otro ( F ). Recuérdese que una estrategia de un jugador consistía en establecer de antemano una decisión determinada en cada punto del juego en el que le toca jugar a él (es decir, una estrategia es una serie de instrucciones
del tipo “en este punto, elige esto; en este otro punto, elige esto otro; etcétera”). Como
en el juego de la figura 6 a cada jugador sólo le toca jugar una vez, sus estrategias son muy fáciles de representar: las posibles estrategias de F (que es quien juega primero) son cada uno de los elementos de K entre los que puede elegir (es decir, una estrategia dirá “en el punto 1, elige A1”, otra dirá “en el punto 1, elige A2”, etcétera); las estrategias de V , en cambio, son algo más complicadas, porque, como V toma su decisión después de F , aquél puede tener en cuenta lo que éste ha elegido ya; así pues, las estrategias de V no serán, simplemente, del tipo “en el punto 2, elige L1”, o “en el punto 2, elige L4”, etcétera, sino más bien del tipo “si F ha elegido A1 en el punto 1, entonces elige L1 en el punto 2”, o “si F ha elegido A2 en el punto 1, entonces elige L3 en el punto 2”, etcétera. Por lo tanto, el conjunto de las estrategias de F es, simplemente, el conjunto K , (o sea, F se limita a elegir un tipo de aplicaciones empíricas), mientras que el conjunto de estrategias de V es el conjunto de todas las funciones que asignan, a cada elemento de K (o sea, a cada estrategia del jugador F ), un elemento de L (es decir, V tiene que decidir de antemano con qué ley especial responderá a cada posible tipo de aplicaciones elegido por F ). Si representamos como e1, e2, ..., las posibles estrategias de V , entonces el juego en forma estratégica sería el indicado en la figura 7, donde cada casilla contendrá un enunciado del tipo “R(A i, L(e j , A i))”, que es el que resulta (en el juego de la figura 6) de combinar la decisión de F de elegir el tipo de aplicaciones Ai, con la decisión de V de elegir una función que a Ai le asigna exactamente una ley del conjunto L, la cual representamos como “L(e j , A i)” (de este modo, la expresión “R(A i, L(e j , A i))” consiste simplemente en la afirmación de que “las aplicaciones Ai pueden ser representadas mediante la ley que la estrategia e j asigna a Ai”). Cada una de estas casillas habrá de se r reemplazada, en el posterior proceso de investigación, por una V o por una F , cuando se llegue a la conclusión de que aquel enunciado es verdadero o falso, respectivamente.
Figura 7 Esta figura nos ofrece una perspectiva interesante desde la que analizar la cuestión de la verificabilidad y la falsabilidad de las teorías científicas. Recuérdese que, según la teoría de los juegos semánticos, un enunciado era verdadero si V tenía al menos una estrategia ganadora, y esto quiere decir que, en un juego como el representado en esta figura, habrá una determinada columna en la que todas las casillas sean uves. Igualmente, el enunciado en cuestión será falso si F tiene una estrategia ganadora, es decir, si existe al menos una fila todas cuyas casillas son efes (recuérdese que, en la lógica clásica, una de estas dos situaciones debe darse necesariamente: es imposible que en un juego como el de la figura 7 no haya ninguna columna de uves y tampoco ninguna 145
fila de efes). La verificación o falsación de una teoría empírica podrá intentar llevarse a cabo rellenando con uves o efes el mayor número posible de casillas del juego asociado a la aserción empírica de esa teoría; es decir, investigando sobre la verdad o falsedad (o, en muchos casos, meramente sobre el grado de verosimilitud) de cada enunciado del tipo “R(An ,Lm )”. Si se encuentra una columna de uves, la teoría habrá sido verificada, y si se halla una fila de efes, la teoría habrá sido falsada. Por supuesto, para que una teoría pueda ser verificada o falsada, es necesario que la proposición indicada en cada casilla de la figura 7 sea ella misma verificable o falsable, respectivamente. Recuérdese que esas proposiciones eran enunciados universales (del tipo “todos los elementos de Ai pueden ser representados mediante las leyes L j”); esto hace que, por lo menos, puedan ser falsados, si se encuentra algún sistema empírico en el conjunto Ai que no cumple esas leyes, si bien el enunciado puede ser más complejo aún (por ejemplo, las “leyes” pueden afirmar la existencia de ciertos parámetros adicionales, cuyos valores haya que buscar), de tal manera que en cada casilla se vuelva a generar un juego parecido al de la figura completa. La situación se complica todavía más cuando se tienen en cuenta las condiciones de ligadura, es decir, las conexiones entre unos sistemas pertenecientes a Ai y otros sistemas del mismo o de otro tipo. En cualquier caso, pienso, por los motivos que hemos visto al principio de este apartado y en los apartados tercero y cuarto de este capítulo, que nuestra interacción física y cognitiva con el mundo de la experiencia cotidiana se basa en unidades que constituyen ellas mismas proposiciones de carácter universal (o sus análogos semánticos o neurocomputacionales), y que estas regularidades no sólo ayudan
a construir nuestros conceptos a través de las “teorías básicas”, sino que pueden ser
utilizadas para intentar ir ampliando (o restringiendo) el ámbito de validez de esas y otras regularidades empíricas. Creo que podemos afirmar que la finalidad fundamental del trabajo experimental y observacional de los científicos es establecer con el cuidado suficiente aquellas regularidades observables que permiten apoyar o refutar proposiciones del tipo “R(An ,Lm )”, y que, generalmente, los investigadores tienen tanto éxito en ese trabajo (si no más) como el que podemos tener en la vida cotidiana al
afirmar cosas tales como “echar sal a la comida, generalmente hace que esté más salada”, “la cumbre del Mulhacén está más alta que la Alhambra”, o “la temperatura media en verano es más alta que en invierno”. Este tipo de afirmaciones están sujetas, por supuesto, a las dudas cartesianas y humeanas del tipo “tal vez yo sea una mariposa
soñando que es un filósofo de la ciencia, y cuando me despierte veré que todo lo que ahora creo es mentira”, pero, en la medida en que habitualmente dejamos de preocuparnos por tales dudas metafísicas y usamos las regularidades de la experiencia cotidiana para guiar nuestra vida diaria, las regularidades establecidas en los laboratorios científicos tenderán a ser también lo suficientemente firmes como para poder jugar al juego de la figura 7. En todo caso, para consuelo de los falsacionistas impenitentes, cabe también la posibilidad de jugar a ese juego sin que tengamos que aceptar la verificabilidad propiamente dicha de tales regularidades: basta con que el Verificador y el Refutador se pongan de acuerdo en un determinado nivel de verosimilitud (o alguna otra medida epistémica) a partir del cual ambos se comprometan a aceptar como “correcto” (au nque tal vez inexacto) el enunciado que consta en cada casilla, o bien a aceptar su
“incorrección” si no se supera otro nivel determinado, igual o menor que el anterior; la investigación empírica iría dirigida, entonces, a “empujar” el grado de verosimilit ud de cada casilla hacia arriba (hasta más allá del “límite de aceptación”) o hacia abajo (hasta
146
más allá del “límite de rechazo”), según las normas analizadas en el capítulo V, por
ejemplo, hasta conseguir que los dos contrincantes se pongan de acuerdo en que la casilla correspondiente debe ser rellenada con una uve o una efe. Creo que esta posibilidad es bastante coherente con el falsacionismo de Popper: rellenar una casilla equivaldría a “aceptar un enunciado básico”, que no tiene por qué ser lo mismo qu e los
“enunciados protocolares” de los empiristas lógicos, pues, como hemos visto, cada casilla puede dar lugar ella misma a otro juego, y además, incluso las propias “teorías básicas”, que expresan las regularidades empíricas en las que se basa la constru cción de
los conceptos más elementales, son ellas mismas revisables (lo mismo que ocurría, recordemos, con los protocolos de Neurath). La principal diferencia con el falsacionismo es que, una vez que existe un acuerdo entre el Verificador y el Refutador acerca de cómo rellenar las casillas del juego con uves y con efes, el juego puede terminar con la verificación de la teoría, esto es, con el compromiso de aceptar la teoría por parte de los dos jugadores. A partir de todo lo anterior, y en especial, asumiendo que existe un acuerdo sobre el método mediante el que rellenar las casillas de la figura 7, es fácil darse cuenta de que una teoría será verificable (es decir, será concebible hallar una columna todas cuyas casillas sean uves) si y sólo si sus columnas tienen una longitud finita, o lo que es lo mismo, si hay sólo un número finito de filas; esto último, a su vez, es equivalente al hecho de que el Refutador tenga un número finito de estrategias, es decir, que exista sólo un número finito de tipos de aplicaciones. De forma análoga, una teoría será falsable (será concebible hallar una fila todas cuyas casillas sean efes) si y sólo si sus filas no son infinitamente largas, esto es, si hay un número limitado de columnas; esta condición equivale a que el Verificador tenga un número finito de estrategias, pero para ello no basta con que exista un número finito de posibles fórmulas: recordemos que cada estrategia del Verificador consistía en una función que asignaba a cada tipo de aplicaciones una fórmula o tipo de fórmulas, y basta con que, o bien el conjunto de tipos de aplicaciones, o bien el conjunto de fórmulas sean infinitos, para que sea infinito también el conjunto de todas esas posibles funciones. Así pues, una teoría será falsable si y sólo si existen un número finito de posibles leyes especiales y además un número finito de tipos de aplicaciones. Nótese que, si se cumplen las condiciones que hacen que la teoría sea falsable, también se cumplirá la condición que hace que la teoría sea verificable (esto es, que exista un número limitado de tipos de aplicaciones). De aquí se sigue que si una teoría científica es falsable, entonces también será verificable.89 89
En realidad, existe un caso en la que una teoría sería falsable sin ser verificable (pero, para que no se me estropee mucho la afirmación, esto hay que decirlo en la voz bajita de una nota a pie de página, y el lector, si quiere seguir leyéndola, debe prometerme sobre su ejemplar de An architectonic for science que no se lo va a contar a nadie). Para verlo, téngase en cuenta que varios enunciados de una misma fila en la figura 7 pueden ser idénticos; p. ej., “R(A1 ,L(e1 ,A1 ))” y “R(A1 ,L(en ,A1 ))” serán el mismo enunciado si las estrategias e1 y en asignan exactamente la misma ley al conjunto de aplicaciones A1. En este caso, la verificación o falsación de una casilla en la fila primera implica inmediatamente la verificación de otras muchas casillas de esa misma fila (todas las que corresponden a aquellas estrategias ei que asignan a A1 la misma ley que le asignó la estrategia de la casilla verificada o falsada en primer lugar). De este modo, si el conjunto L de posibles leyes especiales es finito, una fila de la figura 7 podrá ser rellenada con efes en un número finito de pasos, aunque la fila contenga infinitas casillas, pues éstas pueden ser agrupadas en un número finito de subconjuntos (p. ej., el de las columnas que asignan L1 a A1, el de las que le asignan L2, etc., y así hasta Lm). De todas formas, esto puede dejar de cumplirse cuando volvemos a tener en cuenta las condiciones de ligadura, es decir, las conexiones entre sistemas empíricos individuales diferentes, sobre todo cuando pertenecen a tipos distintos de aplicaciones. En este caso, los enunciados
147
En resumen, una teoría será verificable si va acompañada de una lista limitada de tipos de sistemas empíricos a los que aplicarse; si la investigación científica consigue demostrar que para cada uno de esos tipos de sistemas existe una fórmula o conjunto de fórmulas que permite describir esos sistemas (con todos los hechos empíricos conocidos acerca de ellos) como modelos de la teoría, entonces la teoría habrá sido verificada; este procedimiento es lo que se suele llamar “ inducción enumerativa” o “inducción completa”, aunque aplicado a tipos de sistemas, y no a sistemas individuales. Por otro lado, una teoría sera falsable si, además de lo anterior, existe de alguna manera el compromiso de utilizar sólo un conjunto limitado de fórmulas (o de tipos de fórmulas) para intentar mostrar que los sistemas empíricos son modelos de la teoría. Cuando la teoría es efectivamente falsada, lo que se muestra es, o bien que las fórmulas permisibles son todas ellas incapaces de ajustar los hechos empíricos a los principios de la teoría, o bien que la clasificación de los tipos de sistemas empíricos no es correcta; este procedimiento es análogo al que se conoce tradicionalmente como “inducción eliminativa”. En cierto sentido, podemos concebir el juego de la investigación científica como
un compromiso mutuo entre los “Verificadores” (quienes intentan defender una teoría) y los “Refutadores” (quienes intentan criticarla), compromiso mediante el cual los
primeros aceptan utilizar sólo unos pocos tipos de leyes especiales mediante las que
“salvar las anomalías”, y a cambio limitan la aplicabilidad de la teoría a un conjunto
restringido de tipos de casos; lo segundo hace que la teoría sea verificable (si todos los casos se muestran consistentes con la teoría), mientras que lo segundo hace que sea falsable (si todas las leyes permitidas se convierten en un fracaso). Que se trata realmente de un cierto tipo de intercambio de restricciones es algo más fácil de ver cuando tenemos en cuenta que el Refutador tiene en su mano la posibilidad de hacer que la teoría sea inverificable (insistiendo en la necesidad de aplicarla a un número indeterminado de tipos de aplicaciones, lo cual puede hacer simplemente subdividiendo cada tipo), mientras que el Verificador tiene la posibilidad de hacer que la teoría sea infalsable (presentando una lista abierta de posibles leyes especiales), pero ni el Verificador puede hacer por sí solo que la teoría sea verificable, ni el Refutador puede hacer de la misma manera que sea falsable. Esto es, cada jugador puede fácilmente bloquear la posibilidad de que el juego sea ganado por su contrincante, y de esta forma, cada uno de ellos necesita que el otro ponga un límite a las estrategias que puede utilizar. Dicho de otra manera, los científicos se enfrentan al proceso de contrastación de una teoría aceptando previamente bajo qué circunstancias será obligatorio reconocer que la teoría ha sido refutada, y bajo cuáles habrá que reconocer que ha sido confirmada. Nuestro modelo muestra, por lo menos, que la posibilidad de este acuerdo previo existe, y que es asimilable a la mayor parte de los procesos de investigación. 90 Creo que esta forma de entender la contrastación de las teorías nos permite asumir sin complejos el hecho de que, como veíamos en el capítulo IV, una parte “R(A1 ,L(e1 ,A1 ))” y “R(A1 ,L(en ,A1 ))” pueden no ser idénticos aunque
e1 y en asignen la misma ley especial a A1, pues para confirmar o refutar estos enunciados habrá que tener en cuenta también mediciones realizadas en otros tipos de aplicaciones (p. ej., A2), y estas mediciones podrán arrojar un resultado diferente dependiendo de si el Verificador ha elegido la estrategia e1 o la en, ya que estas estrategias pueden asignar leyes distintas al conjunto A2. Obviamente, para tener en cuenta estas posibilidades, los enunciados de las casillas de la figura 7 deben mostrar una estructura mucho más complicada. 90 En Zamora Bonilla (2002c), y sobre todo en la primera parte de Zamora Bonilla (2003a), se desarrolla con más detalle una concepción contractualista de las normas metodológicas.
148
considerable del conocimiento científico esté verificado. Pensemos, por ejemplo, en el movimiento de la Tierra, en la tabla periódica de los elementos, o en la constitución celular de los seres vivos. Es hasta cierto punto un escándalo de la filosofía de la ciencia el que este tipo de cosas no puedan ser tomadas como conocimientos que tengamos garantías suficientes para aceptar como verdaderos. La mala conciencia de muchos filósofos actuales hacia el uso del concepto de verificación está motivada en parte por la crítica popperiana, a la que nos hemos referido en este apartado, y de la que proceden otros ataques más severos, como los del “anarquismo metodológico” de Feyerabend; pero también se debe al auge de las teorías sociologistas según las cuales el
conocimiento es una “mera construcción social”. No tengo nada que objetar a la idea de
que el conocimiento es siempre conjetural y fruto de un arduo proceso de interacción entre muchos individuos e instituciones, pero eso no significa que algunas partes de ese conocimiento no hayan sido sometidas a un proceso de contrastación tan severo y meticuloso que resulte absurdo negar la validez de esas teorías, leyes o hechos contenidos en tal conocimiento, dudas cartesianas aparte. Por otro lado, hay que tener en cuenta que el proceso descrito en los dós últimos apartados es el de la contrastación del “enunciado de Ram sey-Sneed” de una teoría, es decir, su “contenido empírico”, más
que de la teoría propamente dicha; esto significa que cuando “verificamos” una teoría
como la tabla periódica de los elementos, por ejemplo, lo que estamos haciendo es confirmar que los hechos conocidos son justo los que tendrían que ser si la tabla fuera correcta, y que esos mismos hechos permiten descartar todas las explicaciones razonables alternativas. Tal vez el mundo esté diseñado para que, tras todos los esfuerzos de investigación concebibles, simplemente parezca que la tabla es correcta, pero no creo que podamos pedirle a la ciencia nada más, ¡y nada menos! Finalmente, creo que el enfoque ofrecido aquí señala ciertos límites de los argumentos escépticos que algunos autores derivan a partir del estudio de la historia de la ciencia. Por ejemplo, la descripción del estado de los conocimientos químicos hace unos doscientos años podría tal vez llevarnos a la conclusión de que, con los datos que entonces se tenía, la existencia de los elementos químicos no podía ser tomada como una verdad incontrovertible, y quizás se pueda ofrecer una teoría coherente (aunque lo dudo) acerca de cómo ciertos sectores de la investigación científica y de la sociedad en general tenían entonces cierto interés en la construcción de un marco apropiado para la creencia en esos elementos. Pero cien o doscientos años más tarde la situación era ya muy diferente: hoy en día no podemos tomar en serio la posibilidad de ofrecer una explicación bien justificada del funcionamiento de la química contemporánea que no nos lleve a la conclusión de que nuestras ideas sobre los elementos y sus combinaciones son muy aproximadamente correctas. Cuando menos, podemos afirmar que una tal teoría filosófica o sociológica estará mucho menos justificada que la teoría química cuya corrección pretendería poner en duda. Naturalmente, esto no significa que todas las teorías defendidas por los científicos actuales sean verdaderas, ni siquiera que estén igual de bien justificadas que los aspectos generales de la tabla periódica, que la existencia de las galaxias o que la teoría de la evolución. De hecho, las teorías más
“punteras” son también las más dudosas, pues su proceso de contrastación, por decirlo
en los términos que hemos utilizado más arriba, se halla en un estado en el que faltan demasiadas casillas por rellenar aún. Pero si el juego de la ciencia puede proseguir , es precisamente porque algunas de sus partidas han terminado ya, y las teorías que ganaron esas partidas son una parte irrenunciable de nuestra herencia cultural. 149
BIBLIOGRAFÍA
150
Agassi, J., 1963, Towards an Historiography of Science, Gravenhage, Mouton & Co.
Agazzi, E., 1981, “What Have the History and Philosophy of Science to do one Another”, en Hintikka et al., Probabilistic Thinking, Thermodynamics, and the
Interaction of the History and Philosophy of Science, Dordrecht, D. Reidel., pp. 241-48. Ambrogi, A., (ed.), 1999, Filosofía de la ciencia: el giro naturalista, Palma de Mallorca, Universitat de les Illes Balears. Amsterdamski, S., 1975, Between Experience and Metaphysics: Philosophical Problems of the Evolution of Science, Dordrecht, D. Reidel. Amsterdamski, S., 1993, Between History and Method: Disputes about the Rationality of Science, Dordrecht, Kluwer. Andersson, G., 1994, Criticism and the History of Science, Leiden, Brill. Ayer, A. J., (ed.), 1965, El positivismo lógico, México, Fondo de Cultura Económica. Balzer, W., 1997, Teorías empíricas: modelos, estructuras y ejemplos. Los elementos fundamentales de la teoría contemporánea de la ciencia, Madrid, Alianza. Balzer, W., y C. U. Moulines, 1996, Structuralist Theory of Science, Berlín, Walter de Gruyter. Balzer, W., C. U. Moulines y J. Sneed, 1987, An Architectonic for Science, Dordrecht, D. Reidel. Balzer, W., C. U. Moulines y J. Sneed (eds.), 2000, Structuralist Knowledge Representation. Paradigmatic Examples, Amsterdam, Rodopi. Barona, J. Ll., 1994, Ciencia e historia. Debates y tendencias en la historiografía de la ciencia, Godella, Seminari d’Estud is sobre la Ciència. Bloor, D., 1976, Knowledge and Social Imaginery, London, Routledge and Kegan Paul. Brandom, R. B., 1994, Making It Explicit. Reasoning, Representing, and Discursive Commitment , Cambridge (Ma.), Harvard University Press. Brandom, R. B., 2001, La articulación de las razones, Madrid, Siglo XXI. Buchanan, J., y G. Tullock, 1980, El cálculo del consenso, Madrid, EspasaCalpe. Bueno, O., 1997, “Empirical Adequacy: A Partial Structures Approach”, Studies in the History and the Philosophy of Science, 28.4, 585-610.
Burian, R. M., 1977, “More than a Marriage of Convenience: On the Inextricability of History and Philosophy of Science”, Philosophy of Science, 44, 1-42. Carnap, R., 1936-37, “Testability and Meaning”, Philosophy of Science, 3, 419471, y 4, 1-40. Carnap, R., 1937, The Logical Syntax of Language, London, Routledge and Keagan Paul. Carnap, R., 1969, Fundamentación lógica de la física, Buenos Aires, Sudamericana. Cartwright, N., 1983, How the Laws of Physics Lie, Oxford, Clarendon Press. Chalmers, A. F., 1993, ¿Qué es esa cosa llamada ciencia?, Madrid, Siglo XXI.
151
Chattopadhyaya, D. P., 1990, Anthropology and Historiography of Science, Athens, Ohio University Press. Coffa, J. A., 1991, The Semantic Tradition from Kant to Carnap. To de Vienna Station, Cambridge, Cambridge University Press.
Cohen, I. B., 1979, “La Historia y el filósofo de la ciencia”, en Suppe (1979), pp.
349-92.
Da Costa, N. C. A., y S. French, 1990, “The Model Theoretic Approach in Philosophy of Science”, Philosophy of Science, 57, 248-265. Da Costa, N. C. A., y S. French, 2000, “Models, Theories, and Structures: Thirty Years On”, Philosophy of Science (Proceedings), 67, S116-S127.
Dalla Chiara, M. L., y G. Toraldo de Francia, 1981, Le teorie fisiche, Torino, Boringhieri.
Downes, S. M., 1992, “The Importance of Models in Theorizing: A Deflationary Semantic View”, Philosophy of Science (Proceedings), vol. 1, 142-153. Dear, P., 1995, “Cultural History of Science: An Overview With Reflections”, Science, Technology and Human Values, 20, 150-70. 386.
Diedirich, W., 1989, “The Development of Structuralism”, Erkenntnis, 20, 363Diederich, W., 1996, “Pragmatic and Diachronic Aspects of Structuralism”, en
Balzer y Moulines (1996), pp. 75-82. Díez Calzada, J. A., 1989, “La “Revuelta Historicista” en Filosofía de la Ciencia”, Arbor , 134, 69-96. Díez Calzada, J. A., y C. U. Moulines, 1997, Fundamentos de filosofía de la ciencia, Barcelona, Ariel. Echeverría, J., 1999, Introducción a la metodología de la ciencia. La filosofía de la ciencia en el siglo XX , Madrid, Tecnos. Edwards, P. (ed.), 1967, The Encyclopedia of Philosophy (8 vols.), New York, Macmillan. Estany, A., 1990, Modelos de cambio científico, Barcelona, Crítica. Estany, A., 2000, “Historia y filosofía de la ciencia: ¿en qué términos establecemos la relación?”, en Mary Sol de Mora et al. (eds.), Actas del III Congreso de la Sociedad de Lógica, Metodología y Filosofía de la Ciencia en España , San Sebastián, Universidad del País Vasco, pp. 399-407. Falguera, J. L., 1995, “Caracterización estática de las teorías científicas: de Kuhn a la concepción estructuralista”, Arbor , 150, 15-45. Feyerabend, P. K., 1976, “Changing Patterns of Reconstruction”, The British Journal for the Philosophy of Science, 28, 351-369. Feyerabend, P. K., 1981, Tratado contra el método, Madrid, Tecnos. Finocchiaro, M. A., 1973, History of Science as Explanation, Detroit, Wayn State University Press.
Finocchiaro, M. A., 1979, “On the Importance of Philosophy of Science for the History of Science”, Synthese, 42, 411-41. Finocchiaro, M. A., 1985, “Aspects of the Logic of History -of-Science Explanation”, Synthese, 62, 429-54.
Fleck, L, 1986, La génesis y el desarrollo de un hecho científico, Madrid, Alianza.
Fuller, S., 1991, “Is History and Philosophy of Science Withering on the Vine?”,
Philosophy of the Social Sciences, 1991, 149-74.
152
Galison, P., 1988, “History, Philosophy and the Central Metaphor”, Science in
Context , 2, 197-212.
Garber, D., 1986, “Learning from the Past: Reflec tions on the Role of History in the Philosophy of Science”, Synthese, 67, 91-114. Giere, R., 1973, “History and Philosophy of Science: Intimate Relationship or Marriage of Convenience?”, The British Journal for the Philosophy of Science, 24, 282297.
Giere, R., 1998, Explicando la ciencia: Un enfoque cognitivo, México, Paidós. Giere, R., 1999, Science Without Laws, Chicago, University of Chicago Press. González, W., (ed.), 1998, El pensamiento de L. Laudan, A Coruña, Universidade da Coruña. González García, M. I., J. A. López Cerezo y J. L. Luján, 1996, Ciencia, tecnología y sociedad. Una introducción al estudio social de la ciencia y la tecnología, Madrid, Tecnos. González García, M. I., J. A. López Cerezo y J. L. Luján (eds.), 1997, Ciencia, tecnología y sociedad , Barcelona, Ariel.
González Recio, J. L., 1999, “El compás, la lanceta y el crisol: retratos de la naturaleza durante el nacimiento de la ciencia moderna”, Llull , 22, 405-17. Haack, S., 1982, Filosofía de las lógicas, Madrid, Cátedra. Hacking, I., 1996, Representar e intervenir , México, Paidos.
Hahn, R., 1975, “New Directions in the Social History of Science”, Physis, 17,
205-18.
Hall, R. J., 1974, “¿Se puede utilizar la historia de la ciencia para decidir entre metodologías rivales?”, en Lakatos (1974), pp. 107-119. Hankins, T., 1979, “In Defence of Biography: The Use of Biography in the History of Science”, History of Science, 21, 45-59.
Hanson, N. R., 1971, What I Do not Believe and Other Essays, Dordrecht, D.
Reidel. Hanson, N. R., 1977, Patrones de descubrimiento. Observación y explicación, Madrid, Alianza.
Hatfield, G., 1996, “The Importance of the History of Science for Philosophy in General”, Synthese, 106, 113-38. Hempel, C. G., 1965, “Problemas y cambios en el criterio empiri sta del significado”, en Ayer (1965), pp. 115 -36.
Herfel, W. E., et al., 1995, Theories and Models in Scientific Processes, Amsterdam, Rodopi. Hesse, M. B., 1966, Models and Analogies in Science, Notre Dame, University of Notre Dame Press. Hesse, M. B., 1974, The Structure of Scientific Inference, Berkeley, University of California Press. Hesse, M., 1980, Revolutions and Reconstructions in the Philosophy of Science, Brighton, Harvester. Hierro S. Pescador, J., 1980, Principios de filosofía del lenguaje (2 vols.), Madrid, Alianza. Hintikka, J., 1976a, Lógica, juegos de lenguaje e información. Temas kantianos de filosofía de la lógica, Madrid, Tecnos. 153
Hintikka, J., 1984, “The Logic of Science as a Model -Oriented Logic”, en
Asquith y Kitcher, PSA 1984, 2 vols., East Lansing, Philosophy of Science Association, pp. 177-185. Hintikka, J., 1988a, “What is the Logic of Experimental Enquiry?”, Synthese, 74, 173-190. Hintikka, J., 1988b, “On the Incommensurability of Theories”, Philosophy of Science, 55, 25-38.
Hintikka, J., 1998, “Ramsey Sentences and the Meaning of Quantifiers”,
Philosophy of Science, 65, 289-305. Hintikka, J., 1999, Inquiry as Inquiry: A Logic of Scientific Discovery, Dordrecht, Kluwer. Hodgson, G., 1993, The Economics of Institutions, London, Edward Elgar. Hughes, R. I. G., 1997, “Models and Representation”, Philosophy of Science, 64 (Proceedings), S325-S336. Ibarra, A., y Th. Mormann, 1997b, Representaciones en la ciencia. De la invariancia estructural a la significatividad pragmática, Barcelona, Ediciones del Bronce. Kieseppä, I., 1996, Truthlikeness for Multidimensional, Quantitative Cognitive Problems, Dordrecht, Kluwer. Kitcher, P., 2001, El avance de la ciencia, México, UNAM. Knorr-Cetina, K., 1981, The Manufacture of Knowledge. An Essay on the Constructivist and Contextual Nature of Science, Oxford, Pergamon. Kragh, H., 1989, Introducción a la historia de la ciencia, Barcelona, Crítica.
Kranzberg, M., 1990, “The Uses of History in Studies of Science, Technology and Society”, Bulletin of Science, Technology and Society, 10.1, 6-11.
Kuhn, T. S., 1971, La estructura de las revoluciones científicas, México, Fondo de Cultura Económica. Kuhn, T. S., 1974, “Notas sobre Lakatos”, en Lakatos (1974), pp. 79 -95. Kuhn, 1976, “Theory -Change as Structure- Change”, Erknenntis, 10, 179-199 (trad. castellana, Teorema, 7, 141-165, 1977; tb. en Rolleri (1986), pp. 251-274). Kuhn, T. S., 1982, La tensión esencial. Estudios selectos sobre la tradición y el cambio en el ámbito de la ciencia, México, Fondo de Cultura Económica. Kuipers, T. A. F., (ed.), 1987, What is closer-to-the-truth?, Amsterdam, Ropodi. Kuipers, T. A. F., 2000, From Instrumentalism to Constructive Realism. On Some Relations Between Confirmation, Empirical Progress, and Truth Approximation, Dordrecht, Kluwer. Lakatos, I., 1974, Historia de la ciencia y sus reconstrucciones racionales, Madrid, Tecnos. Lakatos, I., 1983, La metodología de los programas de investigación científica, Madrid, Alianza. Lakatos, I., y A. Musgrave (eds.), 1975, La crítica y el desarrollo del conocimiento, Barcelona, Grijalbo. Laín Entralgo, P., 1992, “¿Para qué la historia de la ciencia?”, Arbor , 142, 13-20. Lamo de Espinosa, E., E. González García y C. Torres Albero, 1994, La sociología del conocimiento y de la ciencia, Madrid, Alianza. Latour, B., 1992, Ciencia en acción, Barcelona, Labor. Latour, B., y S. Woolgar, 1995, La vida en el laboratorio. La construcción de los hechos científicos, Madrid, Alianza. 154
Laudan, L., 1984, Science and Values, Berkeley, University of California Press. Laudan, L., 1986, El progreso y sus problemas, Madrid, Encuentro. Laudan, L., 1993, La ciencia y el relativismo, Madrid, Alianza. Lepenies, W., y P. Weigart (eds.), 1983, Functions and Uses of Disciplinary Histories, Dordrecht, D. Reidel.
Lindholm, L. M., 1981, “Is Realistic History of Science Possible?”, en J. Agassi
y R. S. Cohen, Scientific Philosophy Today. Essays in Honor of Mario Bunge, Dordrecht, D. Reidel, pp. 159-86.
Liu, Ch., 1997, “Models and Theories I: The Semantic View Revisited”,
International Studies in the Philosophy of Science, 11, 147-164.
Liu, Ch., 1998, “Models and Theories II: Issues and Applications”, International
Studies in the Philosophy of Science, 12, 111-128. López Piñero, J. M., 199 2, “Las etapas iniciales de la historiografía de la ciencia. Invitación a recuperar su internacionalidad y su integración”, Arbor , 142, 21-67. Losee, J., 1976, Introducción histórica a la filosofía de la ciencia, Madrid, Alianza. Losee, J., 1983, “Whewel l and Mill on the Relation Between Philosophy of Science and History of Science”, Studies in History and Philosophy of Science, 14, 11326. Losee, J., 1989, Filosofía de la ciencia e investigación histórica, Madrid, Alianza.
McMullin, E., 1970, “The History and Philosophy of Science: A Taxonomy”, en
R. H. Stuewer (ed.), Historical and Philosophical Perspectives of Science, Minneapolis, University of Minnesota Press, pp. 12-67.
McMullin, E., 1975, “History and Philosophy of Science: A Marriage of Convenie nce?”, Boston Studies in the Philosophy of Science, 32, 515-31. McMullin, E., 1982, “La filosofía de la ciencia y sus reconstrucciones racionales”, en G. Radnitzky et al., Progreso y racionalidad en la ciencia, Madrid, Alianza, pp. 201-26. Medina, E., 1983, “La polémica internalismo/externalismo en la historia y la sociología de la ciencia”, Revista española de investigaciones sociológicas, 23, 53-75. Merton, R., 1977, La sociología de la ciencia, Madrid, Alianza. Morgan, M. S, y M. C. Morrison (eds.), 1999, Models as Mediators, Cambridge, Cambridge University Press. Moulines, C. U., 1982, Exploraciones metacientíficas, Madrid, Alianza.
Moulines, C. U., 1983, “On How the Distinction Between History and Philosophy of Science Should Not Be Drawn”, Erkenntnis, 19, 285-96. Murdoch, J. E., 1981, “Utility versus Truth: At Least One Reflection on the Importance of the Philosophy of Science for the History of Science”, en Hintikka et al.,
Probabilistic Thinking, Thermodynamics, and the Interaction of the History and Philosophy of Science, Dordrecht, D. Reidel., pp. 311-20. Nagel, E., 1968, La estructura de la ciencia, Buenos Aires, Paidós. Newton-Smith, W. H., 1987, La racionalidad de la ciencia, Barcelona, Paidós. Nickles, T., 1986, “Remarks on the Use of History as Evidence”, Synthese, 69, 253-66.
Nickles, T., 1997, “Engaging Science: How to Understand Its Practices Philosophically”, Isis, 88.2, 379-81. Niiniluoto, I., 1984, Is Science Progressive?, Dordrecht, D. Reidel.
155
Niiniluoto, I., 1987, Truthlikeness, Dordrecht, D. Reidel.
Niiniluoto, I., 1998, “Verisimilitude: The Third Period”, British Journal for the
Philosophy of Science, 49, 1-29. Niiniluoto, I., 1999, Critical Scientific Realism, Oxford, Oxford University Press. Niiniluoto, I., y R. Tuomela, 1973, Theoretical Concepts and Hypothetico Inductive Inference, Doredrecht, D. Reidel. Olivé, L, y A. R. Pérez Ransanz (comps.), 1989, Filosofía de la Ciencia: Teoría y Observación, México, Siglo XXI. Pearce, D., 1987, Roads to Commensurability, Dordrecht, D. Reidel. Polany, M., 1958, Personal Knowledge. Towards a Post-Critical Philosophy, London, Routledge and Kegan Paul. Popper, K. R., 1962, La lógica de la investigación científica, Madrid, Tecnos. Popper, K. R., 1965, El desarrollo del conocimiento científico: Conjeturas y refutaciones, Buenos Aires, Paidós. Popper, K. R., 1974, Conocimiento objetivo, Madrid, Tecnos. Przelecki, M., 1969, The Logic of Empirical Theories, London, Routledge. Putnam, H., 1990, Realism with a Human Face, Cambridge (Ma.), Harvard University Press.
Pyenson, L, 1977, ““Who the Guys Were”: Prosopography in the History of Science”, History of Science, 15, 155-88. Pyenson, L., 1992, “El fin de la Ilustración: reflexiones próximas y lejanas sobre la Historia de la Ciencia” , Arbor , 142, 69-91. Quine, W. V. O., 1962, Desde un punto de vista lógico, Barcelona, Ariel.
Radder, H., 1997, “Philosophy and History of Science: Beyond the Kuhnian Paradigm”, Studies in History and Philosophy of Science, 28, 633-55.
Rawls, J., 1979, Teoría de la justicia, México, Fondo de Cultura Económica. Redhead, M. L. G., 1980, “Models in Physics”, British Journal for the Philosophy of Science, 31, 145-163. Reichenbach, H., 1938, Experience and Prediction, Chicago, University of Chicago Press. Ribes, D., 1977, “Relaciones entre historia y filosofía de la ciencia”, Llull , 1, 2534. Rivadulla, A., 1986, Filosofía actual de la ciencia, Madrid, Tecnos. Rivadulla, A. (ed.), 2004, Hipótesis y verdad en ciencia. Ensayos sobre la filosofía de Karl R. Popper , Madrid, Editorial Complutense. Rolleri, J. L., (ed.), 1986, Estructura y desarrollo de las teorías científicas, México, U.N.A.M. Rossi, P., 1990, Las arañas y las hormigas. Una apología de la historia de la ciencia, Barcelona, Crítica. Ruse, M., 1993, “Do the History of Science and the Philosophy of Science Have Anything to Say to Each Other?”, Proceedings of the Biennial Meetings of the Philosophy of Science Association, 2, 467.
Sánchez Ron, J. M., 1992, “Historia de la ciencia: perspectivas historiográficas”,
Arbor , 142, 9-12. Searle, J. R., 2001, Rationality in Action, Cambridge (Mass.), The MIT Press. Sellars, W., 1971, Ciencia, percepción y realidad , Madrid, Tecnos.
156
Shapin, S., 1982, “History of Science and its Sociological Reconstructions”,
History of Science, 20, 157-211.
Shapin, S., 1992, “Discipline and Bounding: The History and Sociology of Science as Seen through the Externalism- Internalism Debate”, History of Science, 30, 333-69.
Shapin, S., y A. Thackray, 1974, “Prosopography as a Research Tool in History of Science: The British Scientific Community, 1700- 1800”, History of Science, 12, 1-28. Smart, J. J. C., 1972, “Science, History and Methodology”, British Journal for the Philosophy of Science, 23, 248-68. Sneed, J., 1971, The Logical Structure of Mathematical Physics, Dordrecht, D. Reidel.
Solomon, M., 1995, “Legend Naturalism and Scientific Progress: an Essay on Philip Kitcher’s The Advancement of Science”, Studies in History and Philosophy of
Science, 26.2, 205-18. Stegmüller, W., 1979, Teoría y experiencia, Barcelona, Ariel. Stegmüller, W., 1981, La concepción estructuralista de las teorías, Madrid, Alianza. Stegmüller, W., 1983, Estructura y dinámica de teorías, Barcelona, Ariel. Suppe, F., (ed.), 1979, La estructura de las teorías científicas, Madrid, Editora Nacional. Suppe, F., 1989, The Semantic Conception of Theories and Scientific Realism, Urbana, University of Illinois Press.
Suppe, F., 2000, “Understanding Scientific Theories: An Assessment of Developments, 1969- 1998”, Philosophy of Science (Proceedings), 67, S102-S115.
Suppes, P., 1988, Estudios de filosofía y metodología de la ciencia, Madrid, Alianza. Tarski, A., 1956, Logic, Semantics and Metamathematics, Oxford, Oxford University Press. Ten, A. E., 1988, “Sobre algunos tipos de acercamiento a la historia de la ciencia y la tecnología”, Arbor , 130, 35-54. Torres Albero, C., 1994, Sociología política de la ciencia, Madrid, CIS/Siglo XXI. Tuomela, R., 1973, Theoretical Concepts, Wien, Springer-Verlag. Valdés Villanueva, L. M., (ed.), 1991, La búsqueda del significado, Madrid, Tecnos. Vanberg, V., 1999, Racionalidad y reglas: ensayos sobre teoría económica de la constitución, Barcelona, Gedisa. van Fraasen, B., 1989, Laws and Symmetry, Oxford, Oxford University Press. van Fraasen, B., 1996, La imagen científica, México, Paidós-UNAM.
Vicedo, M., 1993, “Is the History of Science Relevant to the Philosophy of Science?”, Proceedings of the Philosophy of Science Association, 2, 490-96. Wartofski, M., 1976, “ The Relation between Philosophy of Science and History of Science”, Boston Studies in the Philosophy of Science, 39, 717-737. Williams, L. P., 1975, “Should Philosophers Be Allowed to Write History?”,
British Journal for the Philosophy of Science, 26, 241-53.
Wójcicki, R., 1974, “The Semantic Conception of Truth in Methodology of Empirical Sciences”, Dialectics and Humanism, 1, 103-115. 157
Wójcicki, R., 1979, Topics in the Formal Methodology of Empirical Sciences, Dordrecht, D. Reidel. Wolenski, J., et al., 1998, Alfred Tarski and the Vienna Circle: Austro-Polish Connections in Logical Empiricism, Wien, Institute of the Vienna Circle. Zamora Bonilla, J. P., 1996a, Mentiras a medias. Unas investigaciones sobre el programa de la verosimilitud , Madrid, UAM.
Zamora Bonilla, J. P., 1996b, “Verisimilitude, Structuralism and Scientific Progress”, Erkenntnis, 44, 25-47. Zamora Bonilla, J. P., 1998, “Úteros en alquiler”, Isegoría, 18, 205-12. Zamora Bonilla, J. P., 2000, “Truthlikeness, Rationality and Scientific Method”, Synthese, 122, 321-35.
Zamora Bonilla, J. P., 2002a, “Dinámica de redes teóricas”, en J. A. Díez y P.
Lorenzano, Desarrollos actuales de la metateoría estructuralista: problemas y discusiones, Universidad de Quilmes, pp. 145-164. Zamora Bonilla, J. P., 2002b, “Verisimilitude and the dynamics of scientific research programmes”, Journal for General Philosophy of Science, nº 33, 349-368.
Zamora Bonilla, J. P., 2002c, “Scientific inference and the pursuit of fame: a contractarian approach”, Philosophy of Science, 69, 300-23. Zamora Bonilla, J. P., 2003a, La lonja del saber , Madrid, UNED.
Zamora Bonilla, J. P., 2003b, “Meaning and testability in the structuralist theory of science”, Erkenntnis, 59, pp. 47-76. Zamora Bonilla, J. P., 2004, “¿Tiene e l homo oeconomicus sentido del deber?”,
Endoxa, 18.
158
UNA H I STORI A QUE NO FUE EMPIRISTAS LÓGICOS
CONCEPCIÓN HEREDADA PRIMEROS CRÍTICOS
PRIMEROS CRÍTICOS
POPPER, QUINE TOULMIN, HANSON
KUHN
“KUHNIANOS” SOCIOLOGISTAS
FEYERABEND, BLOOR, LATOUR, PICKERING, ETC.
“KUHNIANOS” RACIONALISTAS LAKATOS, LAUDAN, GIERE MOULINES, ETC.
Exposición tradicional de la historia de la Filosofía de la Ciencia en la segunda mitad del siglo XX
Figura 1
159
Teorías científicas Unidades fundamentales de la imagen científica de la realidad
Son entidades simbólicas
Susceptibles de análisis semiótico
Pragmática
Sintaxis
Semántica
Análisis de
El significado
Semántica formal (conexión: lógica, metamatemática)
Semántica filosófica (conexión: filosofía del lenguaje, epistemología)
Semántica empírica (conex.: historia y sociología de la ciencia)
La referencia
La verdad
La validez
- Definición e interpretación formal de los términos. - Funciones de representación significativas.
- Funciones de interpretación de los términos científicos. - Modelos de las teorías
- Distintas nociones de verdad en la ciencia
-¿Son válidos los métodos de elaboración y manipulación de las teorías y los datos?
-¿Cómo adquieren significado los conceptos científicos?
-¿Cómo pueden tener referencia los conceptos, y de qué tipo?
- Relaciones teorías/hechos - Condiciones del progreso hacia la verdad
- Crítica filosófica del método científico
- Análisis del significado de conceptos concretos
- La historia de la ciencia y el descubrimiento de entidades
- ¿Progresa la ciencia hacia la verdad efectivamente?
- Polémicas sobre métodos en la historia de la ciencia.
Figura 2
160
161
ALFRED TARSKI Análisis semántico de los lenguajes formales
Concepción semántica de la verdad
CARNAP
Teoría de modelos
Escuela polaca Escuela italiana Escuela de Stanford (SUPPES)
POPPER “Realismo crítico”
Filosofía del lenguaje
(verdad como ideal regulador)
Filosofía de la ciencia
Teorías del significado (Quine, Davidson...)
ÁRBOL GENALÓGICO DE LA TRADICIÓN SEMÁNTICA EN FILOSOFÍA DE LA CIENCIA
“Concepción Heredada”
Verosimilitud
(Hempel, Nagel...)
Enfoque
Enfoque
“sintáctico”
“semántico”
(vía Hintikka)
NIINILUOTO
Teorías como conjuntos de estructuras y de aplicaciones propuestas
Enfoques realistas (SUPPE, GIERE)
(vía Kripke)
KUIPERS
Estructuralismo (SNEED, STEGMÜLLER, MOULINES...)
Empirismo constructivo (VAN FRAASSEN)
PUTNAM, HINTIKKA Problemas sobre la inducción, holismo, inconmensurabilidad, realismo, etc.
Justificación del método científico;
“realismo constructivo”
Figura 3
T-teoricidad, holismo, reconstrucción de teorías, etc.
Problemas sobre realismo e instrumentalismo (leyes, modalidad, probabilidad, etc.)
162
163
E T
Vs1(T,E) = p(T E)/(p(T E)p(E))
Figura 4
x A y Ex(x) (Ty & z A w Ex(z)(Tw & Cyw)) 1. F.
[a A]
y Ex(a) (Ty & z A w Ex(z)(Tw & Cyw)) 2. V.
[b Ex(a)]
Tb & z A w Ex(z)(Tw & Cbw)) 3. F. z A w Ex(z)(Tw & Cbw))
Tb
4. F.
[c A]
w Ex(c)(Tw & Cbw)) 5. V.
[d Ex(c)]
Td & Cbd 6. F. Td
Cbd
Figura 5 1
Ai K L j L(R(Ai,L j)) 1. F.
[An K]
L j L(R(An,L j)) 2.V.
[Lm L]
R(An,Lm)
Figura 6
2