introducción a la filosofía de la ciencia parte ii

Post on 01-Dec-2023

0 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

1

Notas del Curso

FILOSOFÍA DE LA CIENCIA

Parte II

Profesor José Ferreirós Reproduzco a continuación las Notas preparadas para el curso 2002/03 que impartí en la Facultad de

Filosofía de la Universidad de Sevilla. Quiero dar las gracias a los alumnos de Sevilla, que recibieron mis

clases y me estimularon con sus dudas y sus preguntas. En algún momento tuve intención de preparar un

manual introductorio sobre la base de estos apuntes, pero en este momento prefiero darlos a conocer tal cual

están, pues dudo que encuentre el tiempo y las ganas para revisarlos y desarrollarlos. Ojalá sirvan para

introducir a los lectores interesados en este campo.

El enfoque que he seguido se aleja un tanto de los que son más habituales. En aquel año de 2002 decidí

organizar mis explicaciones de manera temática y suprimir intencionalmente la exposición según escuelas

en orden cronológico. Pero, a la vez, los temas elegidos reflejaban mis propias preferencias, de manera que

el lector puede echar en falta ciertas temáticas que otros priorizan: tal ausencia es, como digo, intencional.

© José M. Ferreirós Domínguez, 2002

2

3

3. Teorías matemáticas y científicas.

1. Lo analítico y lo sintético: contra la distinción entre ciencias “formales” y “empíricas”.

Los manuales más habituales de filosofía de la ciencia comienzan aclarando que van a estudiar sólo

las “ciencias empíricas”, dejando a un lado las llamadas “ciencias formales”. Esta distinción se

presenta a menudo como si fuera obvia, pero lo cierto es que está lejos de tener una justificación

sólida. En parte, la distinción responde al hecho de que hay ciertas diferencias importantes entre los

métodos de las ciencias naturales y los de las matemáticas: en matemáticas no hay experimentos de

laboratorio, no se trabaja directamente con fenómenos del mundo real. Pero, aun suponiendo que esto

fuera totalmente claro,1 no bastaría para aislar tajantemente unas ciencias de otras, sobre todo porque

los métodos de las matemáticas se emplean también en las ciencias naturales, cuando los científicos

teorizan. Lo peor del caso es que los nombres “formal” y “empírico” están muy cargados de

connotaciones que, como veremos, oscurecen mucho más de lo que aclaran.

Quienes han intentado justificar a fondo la distinción formal/empírico, lo han hecho al estilo de

Wittgenstein en su Tractatus logico-philosophicus. Aquí se dice (prop. 6.2 y siguientes) que la

matemática “es un método lógico” que consiste fundamentalmente en trabajar con ecuaciones y

realizar en ellas sustituciones. Ya antes se ha manifestado que la lógica sólo contiene tautologías, y

que por tanto los enunciados de la lógica “son las proposiciones analíticas” y “no dicen nada” acerca

del mundo (6.1 y 6.11). Como acertadamente resume Wittgenstein, desde este punto de vista las

proposiciones matemáticas “no expresan ningún pensamiento” (6.21). Se trata de una manera de

pensar que tiene cierto atractivo y que influyó muy poderosamente en el Círculo de Viena, por

ejemplo en Carnap. Como puede verse, lo característico de las “ciencias formales” (lógica y

matemáticas) se expresa diciendo que tratan sólo de tautologías, de proposiciones analíticas. Por

desgracia, es un planteamiento totalmente incorrecto e insostenible, como se ha revelado en el

desarrollo posterior de la filosofía de la ciencia.

Para verlo, necesitamos primero que nada aclarar los términos “analítico” y “empírico” (o

sintético). La idea aparecía ya en Leibniz de un modo muy claro, y luego en Hume, hasta que Kant

dio las definiciones que más solemos citar:

Def. (provisional). Un enunciado es analítico cuando el concepto expresado por el predicado está ya

contenido en –es implicado por– el concepto expresado por el sujeto.

1 No lo es, porque también en matemáticas hay experimentación (piénsese hoy en el empleo de simulaciones por computador),

aunque los prejuicios tradicionales tendieron a oscurecer ese hecho.

4

Ejemplos serían enunciados como “todo cuadrado tiene cuatro ángulos”, y también “todo cuerpo es

extenso” (porque, según Kant, el concepto de cuerpo incluye ya el atributo de ser extenso). En

cambio, enunciados como “en todo triángulo la suma de sus ángulos es 180º” o “todo cuerpo es

pesado” no simplemente explicitan el significado del sujeto, sino que aumentan nuestro conocimiento.

A este tipo de enunciados los llama Kant “sintéticos”, si bien muchos autores del XX los identifican

directamente como “empíricos”. [Aquí hay un detalle importante: para Kant, una parte importante de

los enunciados sintéticos no son empíricos; volveremos a esto luego, pero el hecho es que Carnap y

otros no aceptan esta tercera posibilidad en la que insistía Kant.]

Como vemos, los enunciados analíticos no dicen nada nuevo, no aumentan nuestra información (al

menos en principio: quizá le digan algo nuevo a una persona concreta, pero sólo porque no se había

parado a reflexionar sobre el concepto expresado por el sujeto). En cambio, los enunciados sintéticos

aumentan nuestra información, dicen cosas acerca del mundo, expresan verdaderos pensamientos.

Esto tiene una consecuencia que señalaba siempre Leibniz: las verdades analíticas son necesarias,

porque su opuesto (p.e. un cuadrado que no tenga cuatro ángulos) es imposible; en cambio, las

verdades empíricas son contingentes, y su opuesto es posible al menos desde el punto de vista lógico.

La definición que propuso Kant tiene un problema grave, y es que al basarse en la vieja lógica de

Aristóteles resulta demasiado limitada y no puede aplicarse a los casos interesantes en ciencia.2 La

lógica aristotélica no sirve para analizar enunciados en los que aparezcan relaciones, ni tampoco

enunciados de una cierta complejidad. Por dar un ejemplo sencillo: ¿qué hacemos con la proposición

“si a es un número natural y un cuadrado, entonces √a es un número natural”? ¿o incluso con una

proposición más mundana como “si Mengano es primo de Fulano, entonces Fulano es primo de

Mengano”? ¿o con “La obra del príncipe de los ingenios es la obra de Cervantes”? Estos (al menos el

primero y el tercero) son casos de enunciados analíticos, pero no se les puede aplicar la limitada

definición de Kant.

Este problema lo vio ya Frege hace 120 años, y le dio solución en su libro Los fundamentos de la

aritmética, recogiendo muy bien el espíritu de las ideas de Kant y Leibniz:

Def. Un enunciado es analítico si, empleando solo simples definiciones de los términos que aparecen

en él, es posible reducirlo a una ley lógica, o sea, transformarlo en un enunciado lógicamente válido.

Empleando nada más que el significado estándar de “príncipe de los ingenios”, y las definiciones de

cuerpo (según Kant), de cuadrado, y de número cuadrado, sin más que sustituirlas en las frases de

2 Un caso interesante sería la primera ley de Newton: “Todo cuerpo, que no esté bajo la acción de fuerzas

impresas (externas), persevera en su estado de reposo o de movimiento rectilíneo uniforme”. Para analizar la lógica de este enunciado no basta “todo A es B”, sino que deberíamos usar algo así como: ∀x (Cx ∧ ¬∃y Fyx →

5

arriba, obtenemos: “Toda sustancia extensa es extensa”, “Toda figura plana de lados rectilíneos y

cuatro ángulos iguales tiene cuatro ángulos”, “La obra de Cervantes es la obra de Cervantes”, y por

último “Si a es un número natural y existe otro número natural b tal que b2=a, entonces b es un

número natural”. En todos los casos hemos enunciados que son casos particulares de puras leyes

lógicas. (Ejercicio: verificad los detalles de estas transformaciones.)

Una vez que tenemos la definición refinada que dio Frege, la idea de proposición analítica parece,

pues, muy clara y fácil. Y acabamos de dar buenos ejemplos de verdades analíticas. ¿Cuál es entonces

el problema con esa idea? En último término, los problemas derivan simplemente de un supuesto

tácito que hacían Leibniz, Hume, Wittgenstein y Carnap: suponían que el conjunto de las verdades se

divide nítidamente en dos partes, una consistente en enunciados analíticos, y la otra consistente en

verdades empíricas. Suponían que todas las verdades que no son analíticas, son puramente empíricas,

sin que haya una tercera posibilidad.3 Pero esto no es en absoluto admisible. Veamos por qué.

Quine escribió en 1951, desde un punto de vista estrictamente empirista, un artículo en el que

afirmaba que la dicotomía tajante entre verdades empíricas y analíticas no era más que un “dogma”,

un “metafísico artículo de fe” para Carnap y sus seguidores.4 El trabajo causó sensación y lanzó a

Quine a la fama. La estrategia que siguió para argumentar es algo que seguramente conocéis a través

de los cursos de filosofía del lenguaje. Planteaba dificultades a la noción de sinónimo, por lo que

atacaba sobre todo ejemplos como el del “príncipe de los ingenios” que hemos dado más arriba.

¿Cómo sabemos que con esa expresión denotamos precisamente a Cervantes? Se trata de un problema

empírico, y Quine mostraba que a menudo este tipo de problemas resultan oscuros y nada bien

planteados, intratables empíricamente.5 Pero sus argumentos no servían tanto para casos como los

anteriores del cuadrado y de √a (casos que atacaba más bien desde otro punto de vista, en conexión

con el problema del “holismo”, del que hablaremos más adelante).

Aquí no nos interesa tanto entrar en repetir o comentar los sutiles argumentos de Quine, como ligar

la cuestión más directamente con los enunciados centrales de las teorías matemáticas y científicas.

Estas teorías nos muestran a las claras que hay “verdades” que no son ni analíticas ni meramente

empíricas, con lo que el problema de todo esto asunto es precisamente suponer que hay una dicotomía

sencilla, cuando en realidad hay al menos tres clases de enunciados. Y la tercera clase parece

especialmente relevante en las ciencias. La matemática nos ofrece ejemplos muy claros y directos de

enunciados no analíticos ni empíricos. Pensemos en la teoría de conjuntos, que como se sabe ofrece

una base suficiente para desarrollar casi toda la matemática actual, si no toda. Entre otras cosas,

Rx ∨ MRUx), donde C representa el concepto de cuerpo, R el de reposo, MRU el de movimiento rectilíneo uniforme, y Fyx es la relación ‘y ejerce una fuerza sobre x’.

3 Como podeis advertir, Kant no cayó en esta simplificación exagerada, pero su propuesta también encuentra problemas.

4 W. V. O. Quine, Dos dogmas del empirismo, en Desde un punto de vista lógico.

5 Surgía aquí ya el famoso asunto de la “indeterminación de la traducción”, que luego discutió con gran detalle en Palabra y

objeto.

6

usando la teoría de conjuntos podemos definir N, el conjunto de los números naturales. Pero N es un

conjunto infinito, y por eso (entre otras razones) la teoría de conjuntos requiere un axioma que

garantiza la existencia de conjuntos infinitos, llamado axioma de infinitud. No daré aquí la versión

formal del axioma, para evitar complicaciones, sino que basta quedarnos con la idea informal:

postulamos que hay un conjunto con infinitos elementos.

¿Es esto una verdad empírica? Sin duda no, de hecho la física de partículas parece decirnos que

sólo hay una cantidad finita de elementos simples en el Universo, e incluso se ha estimado su número,

resultando que debe ser menor de 10100 (un 1 seguido de cien 0). ¿Es entonces una verdad analítica?

Parece muy dudoso e incluso increíble que lo sea: ¿acaso la existencia de tales conjuntos puede ser un

asunto de simple lógica y definición? La lógica no sabe demostrar la existencia de nada en particular,

y menos algo tan complicado como un conjunto infinito.6 Ese axioma, supuesto que sea verdadero

acerca del mundo, dice mucho de él y sin duda expresa un pensamiento (contra lo que decía

Wittgenstein). Para confirmar nuestras sospechas, hay una corriente de matemáticos que rechazan la

matemática infinitista, y consideran que ese supuesto axioma es injustificable. Esta afirmación

implica que no es analítico. (Por cierto: “Si algo no es justificable a priori, entonces no es analítico”

es una proposición analítica, entendiendo que “a priori” no quiere decir aquí más que “de modo

puramente lógico, usando solo definiciones”.)

Los ejemplos del mismo tipo se pueden multiplicar. Quien conozca la teoría de conjuntos sabrá lo

que es el axioma de elección, caso obvio de una proposición que no es analítica, ni tampoco empírica

(el propio Russell no se atrevía a considerarlo como un verdadero axioma). Pero incluso si

prescindimos de los conjuntos y nos quedamos con los simples números, pasa lo mismo. En el caso de

los números reales, el axioma de continuidad es cualquier cosa menos analítico.7 ¿Y qué pasa si nos

restringimos a lo más simple y elemental, los números naturales? Aquí, con una insistencia realmente

increíble, vuelve a pasar lo mismo: el axioma de inducción no puede tampoco verse como una

proposición analítica; ya Poincaré (hace un siglo) tuvo el buen ojo de fijar su atención en este asunto.

(El axioma de inducción dice que si 1 tiene una cierta propiedad P, y si del hecho que un número n

cualquiera tiene P se sigue que n+1 también es P, entonces todos los números tienen la propiedad P.)

Así pues, cuando utilizamos ciertas ideas y lenguaje matemáticos para analizar fenómenos reales,

como sucede en todas las ciencias, no estamos simplemente empleando algo analítico o tautológico,

algo transparente. Los enunciados de la matemática, contra lo que dice el Tractatus, expresan

pensamientos. Ya sólo esto es bastante para sacar la conclusión de que la distinción entre ciencias

6 En lógica con identidad se puede demostrar que existe al menos una cosa: ∀x (x=x), pero eso es lo más a que se llega.

7 Ese axioma solo puede verse como empírico si estamos dispuestos a analizar los números (al modo de Frege en sus últimos

años) como subproductos de la geometría, y si además le concedemos a Newton que el espacio es una cosa real, un algo sustancial. No podemos, en un curso como este, entrar en el dificilísimo tema que es la filosofía del espacio y el tiempo, pero recordemos que la posición contraria a Newton, que se llama relacional y fue defendida por Leibniz, no solo es la habitual hoy en matemáticas, sino también la que parece abonar la teoría de la relatividad.

7

“formales” y “empíricas” es una engañifa. Esa falsa dicotomía nos impide ver y pensar problemas

muy importantes y profundos en filosofía de la ciencia. Pero aún hay más.

También en el campo de la física nos encontramos con proposiciones que no son analíticas ni

empíricas. Ejemplos claros y de todos conocidos son las leyes de Newton, especialmente la primera

(ver nota más arriba) y la segunda, que se suele resumir en la fórmula f = m·a. El caso es que estos

importantes enunciados no pueden verse como simples proposiciones empíricas (hablaremos de esto

un poco más adelante), ni tampoco como estipulaciones del significado de conceptos como el de

fuerza. Son en parte empíricas y en parte estipulativas, pero desde luego dicen cosas acerca del

mundo.

Pensemos en la primera ley de Newton, que habla del estado de reposo y de movimiento rectilíneo.

Los físicos dicen que esta ley delimita la clase de los sistemas inerciales, sistemas cuyo estado de

movimiento no requiere explicación. Autores como Aristóteles y como el propio Kepler pensaban que

si un cuerpo está en movimiento en línea recta y a velocidad uniforme, tiene que ser porque actúa

alguna causa. En cambio, Descartes y Newton plantearon como axioma que el movimiento rectilíneo

uniforme (MRU) es algo –en cierto modo– “del mismo tipo” que el reposo, un estado de los cuerpos

que no necesita causas (fuerzas) externas para darse. Desde luego, semejante afirmación no es

analítica: no basta acudir al significado de “cuerpo en MRU” para deducir lógicamente que esos

cuerpos no están bajo la acción de fuerzas externas. Pero, como ya veremos, resulta también que no es

posible idear ningún experimento que sirva para contrastar la verdad de la primera ley de Newton,

como una afirmación aislada. Así que no es un enunciado analítico ni empírico.

*

Si abandonamos la dicotomía analítico/empírico, y aceptamos también que la peculiaridad de las

matemáticas no la convierte en algo separado de las ciencias naturales, entonces ya no hay ninguna

razón para mantener la distinción entre ciencias formales y ciencias empíricas. Más aún, si ciencias

como la física dependen de enunciados como la primera y la segunda leyes de Newton, entonces está

claro que no son ciencias “meramente empíricas”. Por eso decíamos antes que la distinción confunde

mucho más de lo que aclara.

¿Cómo hay que entender entonces lo que aporta la matemática? Desde el punto de vista que

desarrollamos en este curso, podemos decir simplemente que la matemática es una parte esencial (y

llena de contenido) de la actividad teórica de las ciencias. Por eso este es el capítulo apropiado para

decir algo al respecto. Y lo primero que conviene aclarar, por la importancia que tiene en la

matemática actual, pero también por la importancia que ha tenido históricamente para la filosofía, es

la cuestión del método axiomático. Luego hablaremos también de la contribución que realizan los

matemáticos al explorar, analizar y refinar modelos teóricos posibles de los fenómenos reales.

8

2. La axiomatización de teorías: nociones primitivas y axiomas, definiciones y

demostraciones. Funciones de la axiomatización: sistemas formales y estructuras

El método axiomático fue una gran invención de los griegos, una novedad metodológica que resultó

extraña a muchas otras culturas.8 El principal modelo de aplicación del método axiomático fue,

durante más de dos mil años, el libro Elementos de Geometría de Euclides (c. 300 a.C.). También hay

reflexiones filosóficas muy importantes sobre la ciencia y el método axiomático en el Organon de

Aristóteles, y concretamente en el libro llamado Analíticos segundos. Pero aquí voy a preferir no

hablar de Aristóteles, porque su posición tiene matices filosóficos que la hacen especial y que la

separan del método axiomático moderno.

La forma en que Euclides había establecido la geometría mediante el método axiomático estableció

un modelo de ciencia que tuvo enorme repercusión durante toda la época moderna. Ejemplos de su

importancia y de la huella que dejó se encuentran en las principales obras de Kepler, Galileo,

Descartes, Hobbes, Spinoza, Newton y Leibniz, por nombrar sólo unos pocos.

Para describir en qué consiste la axiomática, podemos hacerlo siguiendo un orden ideal, puramente

lógico, o bien un orden histórico-genético. Vamos a empezar en el segundo estilo, describiendo cómo

y por qué surgen los sistemas axiomáticos.

En la práctica, el método axiomático sólo puede aplicarse cuando un campo del conocimiento está

bastante desarrollado en el sentido siguiente. Se dispone de un cuerpo de ciencia que está poco

organizado, pero en el que conocemos una gran cantidad de resultados (proposiciones), expresados

mediante una gran cantidad de conceptos distintos. En esa situación, nos interesará sistematizar

nuestro conocimiento, analizar cuáles son las interrelaciones entre las partes, discriminar aquello que

podría llamarse lo esencial de lo que podríamos considerar secundario.

Los griegos aprendieron que todos esos objetivos se pueden lograr estableciendo un orden o

encadenamiento deductivo entre las proposiciones que forman el cuerpo de conocimiento. Su

descubrimiento más importante fue que era posible establecer algunas proposiciones de ese cuerpo, de

una manera que no dejaba lugar a dudas, deduciéndolas o demostrándolas sobre la base de otras

proposiciones más simples o más fáciles de aceptar. Así, algún miembro de la escuela pitagórica

demostró el llamado “teorema de Pitágoras” sobre la base de verdades más simples acerca de

triángulos y cuadrángulos:

Diagrama de la famosa demostración que da Euclides del

teorema de Pitágoras. (Libro I de los Elementos, proposición

48)

8 Por ejemplo, a los chinos (a pesar de toda su sofisticación y sus conocimientos matemáticos, entre ellos el propio teorema “de

Pitágoras”) les costó mucho entender cuál era la intención de Euclides.

9

Como puede verse, es totalmente diferente del teorema en su

formulación algebraica moderna:

AB2 + CA2 = BC2

(Esta fórmula trabaja con números, Euclides trabajaba con

figuras.)

Descubrieron así que bastaba aceptar algunas proposiciones acerca de triángulos, para llegar a la

conclusión de que el cuadrado construido sobre la hipotenusa es igual a la suma de los cuadrados

sobre los catetos. Esto último era una consecuencia lógica de lo primero.

Una persona ingenua podría pensar que este método debería aplicarse a todas las proposiciones de

la ciencia. Todas y cada una de ellas deberían ser demostradas a partir de otras verdades. Pero basta

pensarlo un minuto para darse cuenta de que este proceder resulta imposible: si la proposición 1 se

demuestra gracias a la 2, y la 2 gracias a una tercera, y la 3 gracias a una cuarta, y así

sucesivamente… ¡nunca alcanzamos un punto de partida, un principio, sino que nos vemos remitidos

al infinito! Esto es algo que los geómetras griegos tenían claro, y que Aristóteles explica con toda

claridad en sus Analíticos.

Como dijo Pascal, tal proceder ideal quizá sea adecuado a Dios (un ser infinito), pero se trata de un

camino imposible para los hombres. Pero esto no debe llevarnos al extremo opuesto, a no buscar

ninguna demostración. No: el camino intermedio consiste en buscar algunas proposiciones de partida,

que llamaremos axiomas, y que intentaremos reducir al número más pequeño. Dichas proposiciones

se aceptan como válidas sin demostración, pero todo lo demás será estrictamente deducido o

demostrado a partir de los axiomas. Cada proposición que logremos demostrar de esa manera, se

llamará un teorema.

Al llevar a la práctica en detalle esta idea, los griegos se dieron cuenta de que también era

necesario reducir los muchos conceptos que uno estaba empleando al principio. Descubrieron que la

mayor parte de estos conceptos podían ser definidos en términos de otros conceptos más simples.

Análogamente a lo que pasa con las proposiciones (que analizamos hasta aislar unos pocos axiomas, y

dejar todo lo demás como teoremas), así pasa también con los conceptos. Después de analizarlos,

encontramos que la mayor parte pueden considerarse como nociones definidas, pero que unos pocos

han de aceptarse como punto de partida para poder empezar. Estos conceptos se llaman nociones

10

básicas o primitivas y se aceptan como conocidos sin definición, mientras que todo lo demás será

estricta y lógicamente definido.9

Las definiciones lógicas o matemáticas no “crean” nada nuevo: nos limitamos a describir algo con

toda precisión (en último término mediante las nociones básicas) y a darle un nombre. Así, en

geometría tenemos las nociones básicas de punto, recta y plano; todo lo demás puede aclararse en

términos de estos tres conceptos.10 Ejemplo:

DEFINICIÓN DE TRIÁNGULO. Dado un plano y tres puntos A, B, C en el plano, que no estén sobre la

misma recta, sabemos (por un axioma) que los puntos pueden unirse dos a dos mediante tres rectas;

llamamos triángulo a la porción del plano que está limitada por los tres segmentos de recta AB, BC y

CA.

Vistas así las cosas, queda claro que el concepto de triángulo puede tratarse como una noción

definida: lo que es un triángulo puede establecerse sin recurrir a nada más que las nociones primitivas

y los axiomas. Más tarde, en definiciones posteriores que introduzcan conceptos más complejos (por

ejemplo, el de tetraedro), podremos utilizar dentro de su definición el concepto de triángulo o

cualquier otro que ya haya sido introducido previamente.

Así, igual que hay cadenas de demostraciones, también las definiciones aparecen encadenadas.

Pero la manera en que procedemos nos garantiza que todos los conceptos definidos son eliminables,

en el sentido de que cualquier proposición de la geometría podría expresarse sólo en términos de

puntos, rectas y planos, sin usar ningún otro concepto. (En casi todos los casos, esto sería muy

engorroso, no entenderíamos lo que estamos diciendo; pero se trata de una limitación nuestra

psicológica, no lógica.) De manera análoga, los teoremas de una ciencia axiomatizada no crean ni

introducen nada nuevo: se limitan a establecer y hacer explícito algo que estaba ya contenido

(lógicamente, aunque de manera implícita) en los axiomas.

El hecho es que los sistemas axiomáticos de la matemática siempre aparecen después de que se

haya empezado a trabajar con ideas y resultados de un cierto campo: los matemáticos, en la práctica,

nunca han trabajado de un modo puramente lógico, si esto significa comenzar por las nociones básicas

y los axiomas. Aunque resulte curioso, en los casos más importantes han transcurrido cientos de años

antes de que se formulara una axiomatización satisfactoria. Antes de Euclides, los griegos llevaban

unos 200 años haciendo geometría. Los números reales se empezaron a utilizar seriamente hacia

1600, pero las ideas clave de su sistema axiomático no aparecieron más que 270 años más tarde. Y el

caso más llamativo es el de los números naturales, que se han empleado durante al menos 10.000 años

sin axiomatizarlos.

9 Uno de los defectos de los Elementos de Euclides es que no trató suficientemente bien este tema de las nociones primitivas y las

definidas. Así, parte de lo que llama “definiciones” al principio del libro, no hacen más que nombrar las nociones básicas y dar de ellas explicaciones vagas y difusas. Las verdaderas definiciones vienen luego.

10 Estoy simplificando: hacen falta además algunas relaciones básicas, como la relación de estar un punto sobre una recta.

11

Vale la pena que nos detengamos en este ejemplo. Todos sabemos lo que son los números

naturales 1, 2, 3… y sabemos bastantes cosas acerca de ellos. Por ejemplo, conocemos que todo

número natural se puede descomponer en un producto de factores primos (un ejemplo cualquiera: 630

= 2 · 32 · 5 · 7); a esa proposición se le llama el teorema fundamental de la aritmética, por su enorme

importancia en la teoría de los números. Sabemos cómo se opera con los números sumando,

multiplicando, etc., y que estas operaciones tienen ciertas propiedades como la conmutativa (a + b =

b + a), la asociativa (a + (b + c) = (a + b) + c), etc. También se conocen desde hace mucho tiempo

otras propiedades de los números. Euclides demuestra muchas de ellas en algunas partes de los

Elementos; por ejemplo, demuestra rigurosamente y de un modo muy elegante que existen infinitos

números primos (que dada una cantidad cualquiera de números primos, siempre existe otro más).

Todo este cuerpo de conocimiento se puede presentar en forma axiomática, aunque curiosamente los

hombres hemos conocido los números naturales durante miles de años, sin que se sintiera la necesidad

de axiomatizarlos. Seguramente la razón es que su teoría y sus propiedades resultaban tan claras, que

no se sentía esa necesidad, pero el caso es que hacia 1890 dos matemáticos, Dedekind y Peano,

mostraron cómo caracterizar axiomáticamente los naturales.

El concepto de número primo, que hemos estado mencionando, resultó ser una noción definida:

todos sabemos que un número natural es primo si sólo es divisible exactamente (sin resto) por 1 y por

sí mismo. Tenemos pues una idea de cómo definir “primo”, pero para ello necesitamos emplear la

noción de “dividir exactamente”. Si lo pensamos, veremos que también ésta es una noción definida: a

divide exactamente a b si y sólo si existe otro número, c, tal que a · c = b. Continuando la reflexión de

esta manera, podemos llegar a la conclusión que extrajeron Dedekind y Peano: para los números

naturales, basta emplear como nociones primitivas o básicas la del primer número (que denotamos

con el símbolo 1) y la del sucesor de un número (que denotamos escribiendo una prima: n´). Entre los

axiomas de Dedekind–Peano encontramos requisitos que son tan simples como estos:

2) Todo número tiene un sucesor. ∀x∃y (y = x´)

4) Dos números distintos no pueden tener el mismo sucesor. ∀x∀y (x´=y´ → x=y)

También hay algún axioma más complicado y delicado, como el axioma de inducción (que ya se

mencionó hace unas páginas). Alguien puede preguntarse: ¿y dónde quedan los conceptos de suma y

de producto? Es fácil definirlos sobre la base de la noción de sucesor, mediante un expediente

ingenioso (lo que se llama una “definición recursiva”), en dos partes:

a) n + 1 = n´

b) n + m´ = (n + m)´.

Con estas dos condiciones, queda perfectamente aclarado lo que es la suma de dos números, y de un

modo análogo (sobre la base de la noción de suma) se define el producto. De los axiomas de

Dedekind–Peano se puede extraer toda la aritmética de los naturales, incluyendo las propiedades de

las operaciones, el teorema fundamental citado arriba, y muchas cosas más.

12

En resumen, un sistema axiomático es el resultado de someter a un análisis lógico cuidadoso las

proposiciones de un cuerpo de conocimiento. Al final logramos extraer algo así como la esencia de

todo ese conocimiento, que son las nociones básicas y los axiomas (“esencia” en el sentido de la

perfumería: los axiomas son algo así como un pequeño frasquito que contiene “en potencia” todo el

perfume de la teoría). Sobre esa base, todo lo demás se obtiene mediante aplicaciones de principios

lógicos. De esta manera se va desarrollando una estructura definicional y una estructura

demostrativa, que despliegan todo el contenido del cuerpo de conocimientos. Desde luego, encontrar

una demostración o una buena definición es muy difícil y requiere mucho ingenio, pero seguirlas y

comprobar que están bien hechas es una tarea simple.

No hay que pensar que lo único que se logra de esta manera sería una especie de placer sádico,

propio de aquellos a los que les gusta someterlo todo a control lógico. Antes de axiomatizar, no

sabíamos bien cuáles eran las relaciones entre unos teoremas y otros, entre unas partes de la teoría y

otras. No podíamos saber tampoco si éramos conscientes de todos los axiomas o principios que se

presuponen en la teoría. (Por ejemplo, David Hilbert hizo explícitos un buen número de axiomas que

no aparecían en los Elementos de Euclides, algunos de los cuales son realmente importantes; una

presentación muy rigurosa de la geometría apareció en 1899 en el libro de Hilbert, Fundamentos de la

geometría.) Y aún hay otros frutos más sofisticados que se obtienen al axiomatizar; sobre esto puede

aprenderse mucho en la obra de Tarski citada más abajo.

*

Vamos ahora a considerar las cosas desde el punto de vista puramente lógico. Para establecer su

sistema axiomático, Euclides empleaba tres cosas: “definiciones”, “nociones comunes” y

“postulados”. Ya hemos visto antes que su modo de usar las “definiciones” es muy poco preciso,

como sabían bien los matemáticos y filósofos modernos (Pascal, Leibniz, y otros). En cuanto a lo que

Euclides llamaba “nociones comunes”, son principios que tienen carácter lógico, o que corresponden

a una teoría muy general de las cantidades (magnitudes). Su terminología no nos resulta hoy útil, pero

sigue siendo cierto que necesitamos tres tipos de cosas: un marco lógico (si quereis, análogo a las

“nociones comunes”), nociones primitivas (análogo a algunas de las “definiciones” de Euclides), y

axiomas (análogo a los “postulados”).

El sistema axiomático se construye sobre una base lógica, que en matemáticas es siempre la lógica

de primer orden (que estudiásteis en 2º). La lógica de primer orden contiene todos los principios

lógicos que son necesarios para formular los axiomas, para definir nuevos conceptos, y para

demostrar los teoremas matemáticos. Pero las nociones de la lógica no son nociones de la geometría

ni de ninguna otra ciencia particular: son “comunes” a todas las disciplinas, igual que sus principios o

leyes son “principios comunes”.

Esa base lógica se enriquece introduciendo nuevos predicados o relaciones, que se corresponden

exactamente con las nociones primitivas. (Por ejemplo, P(x) puede representar que x es un punto, y

13

R(x) puede representar que x es una recta.) Además, se postulan como premisas para todo el sistema

algunas proposiciones formuladas en el lenguaje lógico enriquecido con las nociones primitivas: son

los axiomas. Por ejemplo, un axioma geométrico dice que, dados dos puntos, existe una recta que los

une. Para expresarlo, empleamos la relación básica ES(x,y), que leeremos: ‘el punto x está sobre la

recta y’. Podemos escribir:

P(x) ∧ P(y) → ∃z [R(z) ∧ ES(x,z) ∧ ES(y,z)].

Esto es un axioma y dice exactamente que, si x e y son puntos, entonces existe una recta z tal que x e

y están sobre z. El siguiente es el famoso axioma de las paralelas (escribo parte en palabras para

simplificar, aunque por supuesto todo puede y debe ponerse en símbolos lógicos).

Sean x un punto, y una recta que están en el mismo plano, entonces

¬ES(x,y) → ∃z [R(z) ∧ ES(x,z) ∧ ¬C(y,z)]

{faltaría escribir además: “y z está en el mismo plano”}.

La parte en símbolos –he usado C(y,z) para el predicado: “la recta y corta a la recta z”– se lee: si x no

está sobre y, entonces existe una recta z, sobre la que está el punto x, tal que y no corta a z en ningún

punto. (Revisad que entendéis por qué lo escrito en símbolos puede leerse así.)

Ahora, a partir de los axiomas vamos obteniendo teoremas cada vez más complejos, en un

encadenamiento deductivo. Cada paso de la demostración de un nuevo teorema no es más que la

aplicación de alguna regla deductiva de la lógica, o la aplicación de un axioma (también puede ser la

aplicación de un teorema deducido anteriormente). A la vez, vamos introduciendo conceptos cada vez

más complejos, en un encadenamiento de definiciones. La construcción de un nuevo concepto no es

más que aplicar construcciones lógicas sobre la base de nociones primitivas o bien de conceptos

definidos anteriormente. (Muchas veces estas construcciones presuponen la verdad de alguna

proposición, pero esta proposición será siempre, o bien un axioma, o bien un teorema demostrado

anteriormente.)

Veamos otro ejemplo de sistema axiomático: la aritmética de Dedekind–Peano. De nuevo, aquí

tenemos un marco lógico, nociones primitivas y axiomas. El marco lógico es el mismo que antes, la

lógica de primer orden, pero naturalmente las nociones primitivas y los axiomas son distintos (¡por

algo es otra teoría!). Las nociones primitivas que necesitamos, en una presentación totalmente

rigurosa son: la constante 1, la función sucesor s(x), y los conocidos signos de operación + y · (de

momento, estos signos no “quieren decir” nada: son los axiomas los que les asignan un cierto

contenido). En lugar de presentar el sistema de una forma totalmente rigurosa, me limitaré a dar los

axiomas tal como los planteó Peano:

14

1) 1 es un número natural.

2) Todo número tiene un sucesor. ∀x∃y (y = x´)

3) 1 no es sucesor de ningún número natural. ∀x ¬(x´=1)

4) Dos números distintos no pueden tener el mismo sucesor. ∀x∀y (x´=y´ → x=y)

5) Si 1 tiene una cierta propiedad P, y si del hecho que {P(1) ∧ ∀x [P(x) → P(x´)]} → n tiene P se sigue que su sucesor n´ también tiene P, entonces ∀xP(x) todos los números tienen la propiedad P.

Si esto fuera un curso de fundamentos de la matemática o de lógica matemática, tendríamos que

aclarar más cosas, porque la formulación que dio Peano no acaba de precisar todas las sutilezas del

asunto. (Peano trabajó sus axiomas entre 1889 y 1898, pero la lógica matemática no estuvo totalmente

madura hasta los años de 1920.)

* *

El desarrollo del método axiomático en los últimos dos siglos es lo que ha conducido a la lógica

contemporánea. Esto se debe a que, poco a poco, se fue tendiendo a expresar todas las demostraciones

en un lenguaje simbólico, para asegurarse de que todos los axiomas y todos los principios deductivos

que se empleaban habían quedado explícitos (para asegurarse de que nada quedaba “fuera de

control”). En esto se interesaron especialmente Frege y Peano hacia la década de 1880, y se vieron

llevados a analizar los principios deductivos de la lógica, creando la lógica simbólica o lógica

matemática. (Frege la llamó “ideografía” o “lenguaje conceptual”.)

Ya antes de esto, el método axiomático había llevado a descubrimientos nuevos y sorprendentes,

como que existen sistemas de geometría no euclideos. En el caso más simple, se trata de sistemas

axiomáticos de geometría totalmente rigurosos y lógicamente perfectos, en los cuales no se cumple el

famoso axioma de las paralelas (postulado V de Euclides; ver arriba). Fue una gran novedad que

resultó difícil de aceptar para los matemáticos, los científicos y los filósofos. Hasta entonces se creía,

ingenuamente, que sólo hay una geometría conceptualmente posible, y que es precisamente la misma

que la geometría del mundo físico. No es de extrañar que la matemática fuera el refugio de los

racionalistas, porque parecía un caso en el que lo puramente racional encajaba a la perfección con lo

real.

Al descubrir que hay geometrías alternativas, radicalmente distintas entre sí, pero todas ellas

consistentes y aceptables matemáticamente, fue obligado sacar una conclusión importante. Las teorías

axiomáticas no son cuerpos de verdades, porque si la geometría euclidea es verdadera (del mundo

físico) automáticamente las demás geometrías tienen que ser falsas. Kant todavía pensaba que los

axiomas “son principios sintéticos a priori, en cuanto que son inmediatamente ciertos” y evidentes

(Crítica de la razón pura, B 760). Pero este ya no es el significado de la palabra “axioma” en la

15

matemática actual. Axioma es simplemente una proposición que se toma como base o premisa de un

sistema deductivo, y que por tanto no es demostrable en ese sistema.

El descubrimiento de las geometrías no euclideas fue relativamente fácil desde el punto de vista

matemático: no había grandes dificultades técnicas en el tipo de cálculos, etc. que hicieron falta. Pero

la mayoría de los matemáticos tardaron unos 40 años en tomarse la cosa en serio. La razón, creo, es

que el paso resultaba muy difícil desde el punto de vista conceptual o filosófico. Exigía aceptar que

los principios y los teoremas matemáticos no son automáticamente verdades acerca del mundo, y esto

constituía una ruptura muy fuerte con toda la tradición, desde Platón a Kant, desde Euclides a

Descartes, Newton y Euler. Por eso, este desarrollo reciente de la axiomática es también un modelo de

la nueva concepción del conocimiento matemático y del conocimiento científico que se ha establecido

en el siglo XX: abrió el camino hacia el falibilismo.

Un detalle más: no hay nada sagrado en los axiomas que se emplean en un sistema deductivo

particular, porque siempre es posible axiomatizar de varias maneras. El mismo cuerpo de teoría puede

reducirse a varios conjuntos de nociones primitivas y de axiomas diferentes. La misma proposición

que era un axioma en cierta axiomatización, puede ser un teorema en otra. En la práctica, se escogen

los axiomas que parecen más claros o más fáciles de explicar, o bien los que resultan ser más

cómodos a la hora de desarrollar la teoría demostrando teorema a teorema.

* * *

Cuando el método axiomático moderno, basado en la lógica simbólica, estuvo totalmente

desarrollado, fue necesario distinguir de una manera muy estricta entre sintaxis y semántica. La

sintaxis de un sistema deductivo es un lenguaje puramente formal, que debemos hacer explícito sin

atender al significado de los símbolos. Damos una lista de todos los símbolos (lógicos y no-lógicos)

que van a formar parte del lenguaje, y determinamos una serie de reglas de formación de expresiones.

Estas reglas nos permiten formar todas y cada una de las expresiones lícitas del lenguaje formal,

incluyendo las proposiciones, y entre ellas los axiomas y los teoremas (también las proposiciones

falsas, en el sentido de ser negaciones de teoremas). Se trata de reglas mecánicas, que puede aplicar (y

también verificar) un hombre o un computador.

Para que pueda hablarse de sistema deductivo, tiene que haber también un conjunto exhaustivo de

reglas de deducción. Estas forman parte del sistema lógico que sirve como base para la

axiomatización (y las habéis estudiado en 2º). Se trata también de reglas mecánicas, ya que el

planteamiento es puramente formal o sintáctico. Las teorías axiomáticas son sistemas deductivos. Por

eso se puede programar un computador para que demuestre teoremas mecánicamente.

Así, desde el punto de vista sintáctico, cada proposición de una teoría axiomática no es más que

una ristra de símbolos, que o bien se ha especificado de antemano (axioma) o bien se puede obtener

de los axiomas por medio de las reglas de deducción, al cabo de una cantidad finita de pasos

16

deductivos (teorema).11 Y la teoría completa no es más que la totalidad de las proposiciones (axiomas

y teoremas) demostrables de esa manera.

A los matemáticos, obviamente, les interesan los sistemas deductivos que pueden interpretarse en

términos de números, o figuras, o funciones, o conjuntos, o estructuras, o… Para poder hablar de

interpretación, hay que pasar a la perspectiva semántica (y aquí nos sentimos ya más en casa, porque

la mente humana normalmente trabaja sobre significados); pero hablamos de la semántica de sistemas

deductivos, no de semántica en el sentido habitual. Esto fue la gran creación del lógico polaco Alfred

Tarski, y aquí se introducen nociones nuevas como son las de “modelo” y “verdad”.

Un modelo de un sistema deductivo es una estructura (ya sea real o matemática) que satisface

todos los axiomas del sistema. Una vez que sabemos que una estructura es modelo de un sistema

deductivo (es decir, que los axiomas son satisfechos en ella), sabemos también que todos los teoremas

del sistema son verdaderos en esa estructura. De cada teoría axiomática se pueden ofrecer siempre

varios modelos distintos. Muchas veces la teoría ha sido desarrollada pensando en un modelo

concreto, pero más adelante se descubre que otra estructura muy distinta también puede considerarse

como un modelo del mismo sistema. En la práctica, esto puede ahorrarnos mucho trabajo, y

constituye una de las grandes ventajas de trabajar axiomáticamente.

Considerar modelos es útil por muchas otras razones. En particular, a menudo es fundamental para

estudiar las propiedades que tienen los sistemas axiomáticos como tales; esto es el objeto de la

metateoría, que estudia cada teoría axiomática considerándola como un todo (por así decirlo, “desde

fuera”). Hay tres propiedades metateóricas que deben ser conocidas para todos vosotros: consistencia,

independencia y completud.

Un sistema es consistente si no da lugar a contradicciones, esto es, si no es puede demostrarse en el

sistema ninguna contradicción (la conjunción de una proposición y su negación: p ∧ ¬p). Como la

base lógica que empleamos es la lógica de primer orden, en cuanto un sistema es inconsistente resulta

inservible, porque automáticamente es posible demostrar en él todas las proposiciones que admite la

sintaxis del lenguaje.12 El sistema lo admite todo, o sea, no dice nada concreto. Pues bien, basta que

exista un solo modelo para saber que el sistema axiomático es consistente. ¿Por qué? Si el sistema es

inconsistente, es posible demostrar en él una contradicción, y esa contradicción sería verdadera en el

modelo. Pero ninguna estructura real o matemática hace verdadera una contradicción.13 Luego el

sistema es consistente.

Por desgracia, nadie ha podido demostrar fuera de toda duda que las teorías matemáticas más

básicas (la teoría de los números reales, o la de los conjuntos) sean consistentes. Nadie que las haya

11 Las demostraciones formales no pueden ser infinitas. ¡Tampoco ningún matemático ha presentado nunca una demostración

informal que fuera infinita! 12 Como decían los medievales: ex contradictione quodlibet, de una contradicción se sigue cualquier cosa.

13 Tranquilo, Hegel, no te pongas nervioso. Pero lo cierto es que las contradicciones sólo pueden existir en nuestras teorías y

nuestras opiniones (mejor dicho, en la relación entre éstas y la realidad), no “ahí fuera”.

17

estudiado en detalle espera que resulten ser inconsistentes, pero creo que tampoco ningún matemático

actual espera ver una demostración de este hecho en su vida. Nosotros debemos alegrarnos de ello,

porque a fin de cuentas significa que sigue habiendo trabajo para la filosofía de la matemática: la

justificación del conocimiento matemático no puede darla la propia matemática (contra lo que creía

Hilbert y trató de demostrar con el famoso “programa de Hilbert”).

La independencia es una propiedad del conjunto de los axiomas de un sistema. Se dice que los

axiomas son independientes si ninguno de ellos es demostrable a partir de los restantes, si ninguno

puede convertirse en un teorema. De nuevo hay una relación entre esto y los modelos. Para demostrar

que un axioma es independiente, no hace falta revisar todas las demostraciones formales a partir de

los demás (¡imposible hacer esto!); basta mostrar una sola estructura que sea un modelo de los

restantes axiomas, pero no sea modelo del axioma en cuestión. Este método fue utilizado por Hilbert

en 1899 con su sistema de geometría.

Por fin, la completud es la propiedad del sistema deductivo, en virtud de la cual los axiomas y las

reglas deductivas bastan para obtener todos los resultados del cuerpo de conocimiento tratado.14

¿Cómo se puede saber si el sistema es completo? En algunos casos muy sencillos basta un análisis a

nivel sintáctico, pero casi siempre es necesario recurrir a la semántica, a los modelos. El austriaco

Kurt Gödel demostró en 1930 que la lógica de primer orden (pura, sin ningún principio ni axioma

adicional) es un sistema completo. Pero al formular axiomas dentro de esa lógica, el resultado que

obtienen los matemáticos es normalmente un sistema deductivo incompleto (como sucede con la

aritmética de Peano, o la teoría de conjuntos axiomática, o el sistema axiomático de los números

reales). Este importante resultado se conoce como el primer teorema de incompletud de Gödel, quien

lo demostró en 1931.15

El teorema de incompletud de Gödel establece que los cuerpos de conocimiento que interesan a los

matemáticos incluyen más proposiciones que las demostrables dentro de un sistema deductivo formal.

Establece una limitación muy importante respecto a lo que puede lograr la formalización, lo que

pueden dar de sí los sistemas formales. Pero no se trata de ninguna paradoja extraña, y mucho menos

de una paradoja respecto a la mente (se han dicho bastantes tonterías a propósito de los resultados de

Gödel).

3. Más allá de lo cuantitativo: condiciones y características de la modelización matemática.

14 La descripción que acabo de dar es un tanto imprecisa. Estrictamente, hay que hablar de “completud sintáctica” o de

“completud semántica”, y son dos cosas distintas. 15 Sobre este tema hay un buen capítulo en el libro de Daniel Quesada, La lógica y su filosofía, y, desde un punto de vista muy

distinto, la cuestión aparece en una novela magnífica del griego A. Doxiadis: El tio Petros y la conjetura de Goldbach.

18

Consideraremos a continuación cuál es el papel que desempeña la matemática en los modelos teóricos

de la ciencia. Algunos epistemólogos clásicos de gran importancia han expresado la idea de que toda

ciencia digna de ese nombre debe estar matematizada. Podemos encontrar la idea en Comte, pero ya

antes Kant lo dijo así: “Yo sostengo que en toda teoría particular de la naturaleza sólo puede haber

tanta ciencia propiamente dicha como matemática se encuentre en ella”.16 Y lo cierto es que el

enfoque matemático ha demostrado una enorme versatilidad, habiéndose empleado para elaborar

modelos y obtener conclusiones en todas las ciencias naturales (física, química, biología) y humanas

(economía, sociología, psicología). Es bien sabido que Kepler y Galileo lo explicaban diciendo que el

lenguaje matemático de la geometría es el único adecuado a la comprensión del “gran libro de la

naturaleza”: Dios es geómetra, como –según algún autor antiguo– explicaba Platón.

Sin embargo, siempre ha habido autores, normalmente de tendencias metafísicas o místicas

(Goethe, Schelling, Heidegger), que han sospechado que la matematización implicaba una cierta

tergiversación, una visión torcida de las cosas. ¿Qué puede haber de cierto en esto? Tradicionalmente

se asocia la matemática a la cuantificación; ¿es la obsesión cuantificadora el pecado capital del

hombre moderno? ¿Y cómo puede explicarse la sorprendente efectividad de la matemática en el

análisis de los fenómenos? Vayamos por partes.

Esencialmente, hay dos tipos de modelos matemáticos: los de naturaleza geométrica, que desde

hace tres siglos incorporan la sofisticación conceptual y calculística del análisis matemático;17 y los de

naturaleza aritmética o, más en general, los modelos conjuntistas. Vamos a ver algunos ejemplos, lo

más sencillos posible. Pero antes conviene decir que, con la geometría analítica, tenemos en realidad

una combinación de modelos geométricos y modelos aritméticos (me refiero aquí a la aritmética de

los números reales, no simplemente los naturales). Esta combinación nos ofrece una increíble

capacidad de análisis y flexibilidad, porque –según convenga– podemos recurrir bien a considerar la

situación geométricamente, o bien a interpretarla y calcularla analíticamente. (Lo mismo sucede en la

matemática actual con los modelos conjuntistas, que siempre admiten ser geometrizados

introduciendo consideraciones topológicas; tema que, obviamente, nos queda muy grande en este

curso.) La mayor parte de los ejemplos que veremos a continuación nos muestran ese juego de idea y

vuelta entre lo geométrico y lo aritmético.

Un caso muy simple de modelización geométrica es la que han empleado los astrónomos desde los

tiempos de Eudoxo y Platón: se trataba de explicar los movimientos de los planetas mediante modelos

que empleaban sólo movimientos circulares (círculos, epiciclos) y con velocidades uniformes. Esto

llevó a desarrollos muy sofisticados con Ptolomeo y Copérnico, pero en último término resultó

16 Principios metafísicos de la ciencia de la naturaleza, Prefacio, p. 31. Por esta y otras razones, Kant sacaba la conclusión de

que, mientras la mecánica es una verdadera ciencia, la química es más bien un arte sistemático y no una ciencia. Por supuesto, hoy esta idea no es sostenible.

17 El análisis comprende el cálculo infinitesimal y todos los desarrollos teóricos asociados a él. Antes de esa época, la teoría de

proporciones suministraba posibilidades de análisis en cierto modo análogas.

19

insatisfactorio frente a observaciones muy detalladas. Por eso Kepler acabó abandonando el

movimiento circular por el elíptico (1ª Ley de Kepler: los planetas recorren elipses en torno al Sol), y

reemplazando las velocidades constantes por velocidades que variaban según una ley simple (2ª Ley

de Kepler: las áreas barridas por el segmento Sol–planeta en tiempos iguales son siempre iguales).

Con Kepler se había obtenido un triunfo inmenso en la comprensión matemática del Universo.

Antes de esta época, quizá se podía dudar de que los fenómenos naturales realmente se ajustaran a

leyes matemáticas precisas. La creencia de Kepler en esa idea tenía una base metafísica y religiosa.

Pero después de Kepler –y Galileo– había buenas razones de hecho (el impresionante grado de

concordancia de los cálculos matemáticos basados en esas leyes y modelos con las observaciones más

precisas) para creer en aquella idea, al margen de la postura metafísica o religiosa de cada cual.

Sin embargo, en otro sentido los modelos geométricos de Kepler y la tradición astronómica son

poco sorprendentes: las posiciones y los movimientos de los planetas (algo que tiene un referente

espacial) se representan espacialmente mediante la geometría; si pudiéramos situarnos en un punto de

vista adecuado (cosa técnicamente imposible hasta hoy) llegaríamos a ver realmente las trayectorias

elípticas que ideó Kepler. Pero la verdadera potencia del pensamiento matemático se revela en otros

casos, en los cuales se emplean modelos geométricos para representar y analizar cosas cuya naturaleza

no es espacial. Curiosamente, la práctica de este procedimiento es tan habitual que ni siquiera nos

paramos a pensar en lo que tiene de sorprendente.

Un buen ejemplo se encuentra en algo tan sencillo como la ley de Galileo para la caída de los

cuerpos cerca de la superficie de la Tierra. Como todos sabemos, la ley se puede expresar

algebraicamente así: s = ½ g · t2, donde g es la aceleración de la gravedad terrestre (aunque Galileo

nunca la formuló de este modo, sino mediante la geometría y la teoría de proporciones). Además,

todos sabemos cómo representar la situación geométricamente en un plano con coordenadas

cartesianas: entonces la curva que determina el espacio s recorrido por el cuerpo es una parábola que

pasa por el origen. Ahora bien, pensemos por un momento en lo que hemos hecho al trazar esta figura

geométrica: representamos en un eje de coordenadas el espacio total recorrido en cada momento, y en

el otro eje representamos el paso del tiempo. Si hay algo que no sea espacial, esto es el tiempo, pero lo

estamos representando espacialmente.18

Otro ejemplo similar y aún más sencillo, pese a ser del siglo XX, es la ley de Hubble, que muestra

(en términos aproximados) la velocidad de recesión o alejamiento de las galaxias por relación a su

distancia con respecto a nosotros. Como se sabe, Hubble descubrió hacia 1930 que todas las galaxias,

18 En realidad, el hombre siempre ha concebido el tiempo geométricamente o materialmente; parece que es la única manera en

que podemos comprenderlo. Así hablamos incluso de “espacios de tiempo”, pero también del “fluir del tiempo”, como si fuera algún líquido, de que “llegará el tiempo”, como si fuera un objeto animado que deambula por ahí, y de que “tenemos” o “no tenemos” tiempo, como si se pudiera almacenar. Nuestras torpes metáforas revelan el carácter huidizo e intangible de lo temporal.

20

miremos en la dirección que miremos,19 parecen estar alejándose de nosotros, y a velocidades cada vez

mayores cuanto más lejos están. Este efecto, que notamos por el “corrimiento al rojo” de la luz de las

estrellas, es uno de los principales datos empíricos que avalan el modelo del Big Bang, la “gran

explosión” en el inicio de nuestro Universo. La ley de Hubble se escribe: v = H00 · d, y viene a decir

que las galaxias lejanas se alejan de nosotros a una velocidad directamente proporcional a su distancia

(H00 es la constante de Hubble).

Por supuesto, también se da el caso de modelos geométricos en tres o más dimensiones, y todos los

ejes pueden representar cosas no espaciales, geometrizando lo no geométrico. Un caso sencillo y bien

conocido lo daría la ley de los gases perfectos: p · V = cte · T, que dice que el producto de presión y

volumen es igual a la temperatura absoluta multiplicada por una constante. Tenemos aquí tres

dimensiones que son la presión, el volumen (pero no el volumen como magnitud espacial, sino la

medida del volumen: un número) y la temperatura.

Volvamos ahora a la cuestión de si matematizar implica algún sesgo, una forma “torcida” de

representarse la realidad. Los ejemplos que hemos dado antes son todos de modelos matemáticos

cuantitativos, y quienes han sospechado de la matemática lo han hecho precisamente por esa

tendencia a la cuantificación. Aquí hay, sin duda, un tema profundo a nivel antropológico y

sociológico: parece claro que la tendencia a cuantificar y medir con precisión es característica de la

sociedad occidental, y que esa tendencia es solidaria del inmenso papel que la economía desempeña

en las sociedades modernas y posmodernas. Así que hay buenos motivos para ligar el papel de la

matemática en nuestra cultura con el papel de la vida económica. Pero esto es distinto del problema de

si una visión matemática de la realidad es una visión sesgada. Podemos imaginar perfectamente una

sociedad libre de la obsesión por el beneficio económico, pero que empleara modelos matemáticos

para comprender lo que hay a su alrededor. Dicho de otro modo, nuestro orden económico requiere

cuantificación, pero es distinto de la cuantificación: la cuantificación es condición necesaria, pero no

suficiente, para que se dé una sociedad economicista.

Los filósofos anti-matemáticos han argumentado que la esencia de las cosas no es cuantitativa,

sino cualitativa. Que la cuantificación sólo sirve al control y al dominio técnico, pero no a la

comprensión de la realidad. Sin embargo, este argumento está muy lejos de ser convincente: la

reforma de la astronomía que debemos a Copérnico, Kepler y Newton sólo fue posible gracias a

observaciones precisas, cuantificación y cálculo, y nadie puede negar que ha contribuido

esencialmente a nuestra comprensión de la realidad. También es esencial para el hombre comprender

el tiempo, lo cual sin duda tiene aspectos cualitativos (relacionados con la memoria individual y la

historia) pero de nuevo es imposible sin el aspecto cuantitativo. El hombre ha necesitado medir el

19 Con la única excepción de algunas cercanas como Andrómeda, lo cual se explica porque estas galaxias están ligadas

gravitacionalmente a la nuestra: en realidad, Andrómeda se aproxima a nuestra Vía Láctea a una velocidad estimada de __ (tranquilos: está a 2,3 millones de años luz).

21

tiempo para comprenderlo, y esto (por ejemplo, los calendarios, que se basaron en el conocimiento

astronómico) se encuentra en todas las culturas mínimamente avanzadas.

Hay otro aspecto de la necesidad de cuantificar en ciencia que suele pasar inadvertido. El científico

desea comprender la realidad mediante modelos teóricos que representen bien los fenómenos. Para

garantizarlo, necesita contrastar los modelos empleando, como hemos visto, datos y predicciones. Y la

garantía de que los modelos son correctos aumenta cuanto más estrictas son las contrastaciones,

cuanto más estrechamente se ajustan las predicciones a los datos. Ahora bien, para conseguir

contrastaciones cada vez más estrictas, necesitaremos datos cada vez más precisos; necesitaremos fijar

una posición o una velocidad con exactitud, esto es, necesitaremos medir y cuantificar cada vez

mejor. De este modo, la medición de precisión (y su correlato en el mundo teórico, los cálculos con

niveles de aproximación cada vez mayores) son simplemente una consecuencia natural del interés por

contrastar los modelos.

Pero hay todavía una razón más profunda para criticar a los anti-matemáticos. Se trata de que su

idea de lo que es matemática está profundamente anticuada: hace dos siglos se podía pensar que la

matemática es una ciencia que trata de las cantidades, pero los últimos 200 años no han pasado en

balde. Las aportaciones más profundas y originales de los matemáticos del XIX y XX son,

precisamente, de carácter cualitativo. De la geometría cuantitativa de Euclides y Descartes se ha

pasado a la topología, que es puramente cualitativa; del álgebra numérica de Vieta se ha pasado al

álgebra moderna, puramente estructural; en realidad, hasta en los mismos números hemos aprendido a

ver mucho más que indicadores de cantidades. La matemática actual estudia relaciones y estructuras

que, ciertamente, pueden ser cuantitativas, pero igualmente pueden no serlo. De ello dan testimonio la

lógica y la teoría de conjuntos: el lenguaje de la lógica matemática, por ejemplo, permite formular

todo tipo de relaciones y no está limitado en modo alguno a lo cuantitativo.

La comprensión de que la matemática trata, en el fondo, con relaciones en general, y no puede

definirse meramente como “ciencia de lo cuantitativo”, es en realidad bastante antigua. La idea fue

formulada con toda claridad en 1832 por el más grande matemático de principios del XIX, Carl F.

Gauss, y también puede encontrarse en el famoso lógico George Boole (véase la Introducción a El

análisis matemático de la lógica, 1847). Así las cosas, resulta que todo modelo, toda explicación

precisa de un fenómeno cualquiera, puede ser matematizado empleando las matemáticas actuales. Lo

único que puede impedir la matematización de los principios y los modelos de una ciencia es que sean

muy imprecisos. En este sentido, hoy más que nunca parece que Kant tenía razón en el sentido de que

toda ciencia madura, y por tanto precisa, deberá ser matemática. En lo que se equivocaba es que, a

este respecto, la química o la biología no son menos matemáticas que la física (aunque sí puedan ser

bastante complejas, dando lugar a modelos cuyo comportamiento sea difícil predecir; pero esto sucede

también en física).

22

Quizá valga la pena dar un ejemplo de matematización no cuantitativa. El antropólogo Lévi-

Strauss andaba estudiando relaciones de parentesco complejas: el matemático A. Weil le suministró

un modelo basado en la teoría de grupos que aclaraba la estructura de los intercambios y sus reglas.

La teoría de grupos también permite, por ejemplo, comprender aspectos muy importantes de la

estructura de los cuerpos cristalinos. Y aquí viene a cuento citar lo que (según I. Stewart) dijo un

profesor de Cambridge: “ahora podemos resolver el problema sin utilizar nada de matemáticas, sólo

teoría de grupos”. Esta frase condensa muy bien la reacción del lego –o del matemático demasiado

obsesionado con las cantidades y el cálculo numérico– ante la deriva relacional, estructural y

cualitativa de la matemática de hoy.

4. La axiomatización de teorías científicas; teorías presupuestas, lenguaje teórico y

lenguaje básico.

Hemos visto que la matemática era entre los griegos, y es hoy, una disciplina que utiliza

constantemente la axiomatización. La geometría fue considerada, durante 2000 años, como el gran

modelo de ciencia, y con ello se produjo un traspaso del modelo de ciencia axiomático al caso de las

ciencias naturales. Esto puede observarse con toda claridad en los escritos de Aristóteles, Galileo,

Kepler, Newton... Hacia 1900, había ya algunos estudios muy satisfactorios de la mecánica clásica

desde un punto de vista axiomático. Tras la aparición de la lógica moderna y los nuevos sistemas

axiomáticos de Hilbert, Peano y otros, hubo toda una serie de autores que retomaron ese asunto y

trataron de profundizar en él. Los empiristas lógicos creían que el análisis de las teorías científicas

desde un punto de vista lógico-axiomático sería clave para conseguir avances definitivos en filosofía

de la ciencia. Y en cierto modo puede decirse que su aportación resultó clave, pero casi siempre por el

modo en que se pudo demostrar las limitaciones e inadecuación de los postulados empiristas.

Como vimos, ya en matemática la axiomatización llega sólo después de que se haya dado un

intenso desarrollo teórico. Esto vale también para las ciencias naturales, pero aquí de modo aún más

intenso debido a la complicación que aporta la rica interacción entre teoría y experiencia, entre

modelos y datos. La mecánica clásica ha podido axiomatizarse bien en el siglo XX, siendo así que

esta disciplina nace en el XVII y estaba completamente desarrollada (desde el punto de vista del

físico, quizá no para el lógico) hacia 1900. Lo más importante, a este respecto, es que las teorías

científicas en desarrollo no son sistemas cerrados, sino sistemas abiertos que sufren transformaciones

múltiples: incorporación de nuevos conceptos, nuevos principios, nuevas aplicaciones,

reestructuraciones, etc. En cambio, un sistema axiomático es siempre, necesariamente, un sistema

cerrado: alcanza una enorme precisión y un cierto grado de intemporalidad, pero lo logra al precio de

una rigidez absoluta. (Si introducimos nuevos símbolos, o nuevos axiomas, ya no se trata del mismo

sistema axiomático.)

23

Como aquí nos interesa la actividad científica, la ciencia en acción, resulta que el modelo

axiomático (pese a todas sus virtudes) no puede satisfacernos. No quiere esto decir que la axiomática

sea inútil; al contrario, acercarse a una teoría en desarrollo planteando la cuestión de cómo se podría

axiomatizar, siempre da lugar a perspectivas interesantes y a una comprensión más profunda. Pero lo

cierto es que para comprender la actividad científica necesitaremos modelos de análisis de las teorías

más flexibles que el modelo axiomático.

Los problemas que surgen de tomar como única referencia los sistemas axiomáticos ya fueron

señalados hace décadas por los críticos del empirismo lógico. Una contribución muy importante en

este sentido fue la de Stephen Toulmin, en diversas obras ya desde 1953; su crítica al modelo

axiomático está planteada por ejemplo en las famosas Actas del Simposio de Urbana en 1969:

Una ciencia típica, lejos de formar un sistema lógico completo, permanece como tema vivo y activo,

como campo de desarrollo de la investigación, gracias a sus fallos lógicos y a sus inconsistencias; su

real carácter atípico, no sistemático, no axiomático, es lo que genera la verdadera prosecución de los

problemas. (‘Postcriptum’ de Toulmin a Suppe [1979], 667).

Recientemente, el historiador de la física Jed Buchwald ha expresado la misma idea de una manera

aún más llamativa:

Las ciencias vivas no se dejan encerrar en generalizaciones exactas y definiciones. El intento de

capturar un cuerpo de conocimiento vibrante en una estructura lógica precisa produce un tipo de

información acerca del aquél muy similar a la que la disección de cadáveres nos da sobre la conducta

animal: muchas cosas que dependen de la actividad se pierden. … Podríamos decir que la axiomática

y las definiciones son los mausoleos lógicos de la física.20

Muchos filósofos han concluido, por estas razones, que debían abandonar completamente la

perspectiva axiomática. Pero esto es una reacción exagerada, lo que los ingleses llaman “tirar el bebé

con el agua del baño”. Desde luego que la actividad teórica del científico es más rica y flexible, más

imprecisa y cambiante que lo que nos sugiere la perspectiva axiomática. Pero no demos olvidar que

esa actividad tiene siempre como uno de sus objetivos afinar los conceptos y principios teóricos,

sistematizarlos y aclararlos hasta el punto en que puedan ser axiomatizados.

Así, pese a sus limitaciones, la aproximación axiomática tiene mucho que enseñarnos. ¿Qué

aspecto tendría una teoría física axiomatizada? Recordemos que, en el caso de las matemáticas, para

axiomatizar una teoría necesitamos un marco lógico (casi siempre la lógica de primer orden) dentro

20 Buchwald, ‘Notas sobre conocimiento inarticulado, experimentación y traducción’, Theoria (2002).

24

del cual se formularán los axiomas y las definiciones, se demostrarán los teoremas. En casos

avanzados (por ejemplo al axiomatizar la teoría de espacios vectoriales21) habrá que basarse no sólo en

la lógica elemental, sino también en otras teorías matemáticas que se presuponen como ya elaboradas

y disponibles (en el ejemplo, la teoría axiomática de los números reales22). Al axiomatizar una teoría

física, esta última es siempre la situación: como base o marco se emplea una o varias teorías

matemáticas, que a su vez se basan en la lógica elemental. Así que una teoría científica axiomatizada

siempre depende de teorías presupuestas. Por ejemplo, la teoría electromagnética presupone la teoría

de espacios vectoriales.

Aprovechando las posibilidades de expresión (formulación) que ofrecen el marco lógico y las

teorías presupuestas, se introducen a continuación una serie de nociones teóricas básicas, y se

postulan una serie de axiomas que determinan las relaciones entre las nociones básicas. En esto, la

situación es totalmente análoga a la axiomatización de una teoría matemática. Veamos un ejemplo: en

el siglo XIX se consiguió una buena comprensión del comportamiento de los gases empleando la

teoría cinética de los gases, que es de naturaleza probabilística. Intuitivamente, la idea es que un gas

consiste en un enorme número de moléculas que se desplazan libremente en todas las direcciones del

espacio, cada una con su velocidad propia y cambiante, y que chocan (elásticamente) entre sí y con las

paredes del recipiente. Entre las nociones básicas se incluye la de “molécula”, y los axiomas

estipularán que las moléculas de cada gas tienen una masa fija, así como propiedades relativas a la

velocidad de las moléculas, su modo de choque, etc.

Pero lo característico de una teoría científica como ésta es que podemos emplear sus postulados

para explicar y predecir el comportamiento de los gases reales, con un buen grado de aproximación.

Todavía no hemos aclarado de qué manera se produce la conexión entre la teoría abstracta y los

fenómenos reales. Este es un problema sumamente interesante y sobre el que se ha vertido mucho

tinta. Los empiristas lógicos hicieron una propuesta famosa al respecto, cuyos problemas y

limitaciones son muy instructivos. Según ellos, el lenguaje de la teoría axiomática debía tener dos

niveles claramente distintos: habría un lenguaje teórico, como el que hemos puesto de ejemplo en el

párrafo anterior, pero también habría un lenguaje observacional que ligaría directamente con lo

observable. Es una idea que parece de sentido común, y que de un modo u otro habían considerado

muchos científicos de siglos anteriores. Por eso es especialmente importante que el análisis cuidadoso

de dicha idea haya planteado dificultades insalvables: como veremos, decir “lenguaje observacional”

es casi una contradicción en los términos.

Pero empecemos poniendo algún ejemplo; volvamos a los gases. El físico que hace experimentos

con gases tiene medios para medir la presión o la temperatura de éstos, pero desde luego no puede

medir las velocidades de todas las moléculas y conocer cómo cambia cada una en el tiempo. Por eso

21 Recordemos que magnitudes físicas como las fuerzas o las aceleraciones son vectores.

22 O en general la teoría de cuerpos (en el sentido matemático del término).

25

la teoría cinética es probabilística: el comportamiento del gas se explica en términos de la “velocidad

cuadrática media” de las moléculas, una idealización que nos ofrece una buena aproximación a lo que

sucede en el gas real “a grandes rasgos”, siempre que el gas no esté en condiciones muy especiales.

(Similarmente, los coches se diseñan para un “automovilista medio”, y pueden resultar inadecuados

para personas concretas si sus capacidades físicas o psíquicas se alejan de la media.) Los empiristas

lógicos proponían que nociones como la de “presión” o la de “temperatura” vendría a ser de nivel

observacional, y que la teoría científica debe contener siempre unos principios puente (también

llamados reglas de correspondencia) que establecen la conexión entre las nociones teóricas y las

nociones observacionales. En el caso de la teoría cinética, los principios puente utilizan el concepto de

velocidad cuadrática media para establecer cuál será la presión y la temperatura de un gas ideal.

Utilizando esas ideas, fue posible demostrar que en condiciones normales se cumplirán leyes como la

de Boyle-Mariotte (conocida desde el siglo XVII): el producto de presión y volumen permanece

siempre constante, siempre y cuando la temperatura del gas sea constante.

Todo esto está muy bien, y desde luego no hay nada que objetar en el ejemplo de la teoría cinética

de los gases. Su caso muestra muy bien qué papel desempeñan las idealizaciones en la explicación

científica. Pero sí resulta objetable la interpretación que daba el empirismo lógico de esa situación,

aun si se interpreta su enfoque de la manera más favorable. Desde luego, los conceptos de “presión” y

“temperatura” no son puramente observacionales, por más que se correspondan con elementos claros

y fácilmente reconocibles de nuestra experiencia. La clarificación de los conceptos más básicos de

calor y temperatura fue un proceso muy complicado de desarrollo de la teoría física, que ocupó varias

décadas en los siglos XVII al XIX. Así que, en realidad, la formulación anterior de la teoría cinética

emplea como teoría presupuesta una teoría elemental del calor y la temperatura. Pero esto sería

compatible en principio con el empirismo lógico: el ejemplo de presión, temperatura, etc. sería sólo

un símil, un ejemplo sugestivo pero no estricto. Sin embargo, “idealmente” sería posible construir un

lenguaje observacional puro, cuyos términos remitieran directamente a observaciones simples.

La búsqueda de ese lenguaje ideal de observaciones es ya muy antigua (hitos importantes fueron

los trabajos de Mach en el XIX o de Carnap en el XX), pero nunca ha dado buenos resultados. La

cuestión llegó a tal punto que, en 1958, N. R. Hanson planteó una crítica radical y sostuvo que todos

los términos de las teorías físicas tienen una “carga teórica”, por lo que la idea de un lenguaje

observacional puro es quimérica. Más aún, Hanson continuaba diciendo que toda observación, por

simple que parezca, es “una empresa cargada de teoría”: el punto de vista del observador, su modo de

categorizar los fenómenos, y las teorías elementales en que se basa la fabricación de sus instrumentos

y el modo de usarlos en cada experimento, compondrían una barrera de teoría imposible de atravesar.

No hay observación pura. Ahora bien, estas ideas se han repetido tantas veces, y se han defendido con

tanto ardor, que conviene someterlas una vez más a escrutinio.

26

Que no existe un lenguaje observacional puro, es un resultado aceptado hoy por todos los filósofos

de la ciencia. La raíz de la cuestión es relativamente fácil de comprender. El lenguaje se emplea

siempre para agrupar una diversidad de fenómenos bajo una denominación única: tiene siempre

carácter sintético. “Gato” no designa un fenómeno simple, desde luego, sino una clase muy amplia de

seres vivos (ciertamente interrelacionados), a cada uno de los cuales podemos observar en actividades

y actitudes muy diversas. Es fácil advertir que, para determinar si algo es un gato o no, no basta en

absoluto con una observación simple: en ocasiones puede hacer falta una larga serie de pruebas. Pero

lo mismo –y más– pasa con los electrones y otras partículas elementales: los fenómenos concretos que

identificamos con la presencia y los efectos, no ya del “electrón”, sino de la simple “electricidad” son

muy diversos entre sí. Así las cosas, un lenguaje observacional puro sería completamente inútil para la

práctica humana, científica o no científica: cada fenómeno concreto requeriría un término propio y

distinto de cualquier otro fenómeno casi idéntico.23

En resumen, la comunicación, el lenguaje científico y la teorización tienen como requisito

imprescindible la existencia de una categorización básica de los fenómenos con los que se trabaja. Es

lo que Kuhn llamaba, en sus últimos trabajos, la taxonomía básica que los científicos aplican al campo

de fenómenos que estudian: por ejemplo, en la química de laboratorio, la distinción entre sustancias

elementales, compuestos, y mezclas. Las “categorías taxonómicas” no son, ni mucho menos,

arbitrarias, pero sin duda es cierto que pueden cambiar en procesos de fuerte cambio conceptual

(revoluciones científicas). Con lo cual, resulta que no hay un nivel de lenguaje tan puro y

“observacional” que no cambie al darse un cambio revolucionario.

También los empiristas lógicos aceptaron la validez de esas críticas. Hempel ya no habla en su

manual de términos “observacionales”, sino de “términos antecedentemente disponibles” o, en breve,

términos antecedentes. La idea de que existen términos del lenguaje que son un correlato directo de

observaciones puras fue uno de los dogmas más confundentes que el giro lingüístico aportó al

empirismo.24 Pero no menos confundente ha sido la conclusión, avalada también por el giro

lingüístico, de que esas conclusiones que hemos establecido acerca del “lenguaje observacional” valen

igualmente para la observación. Este es un tema complicado, sin duda, que está lejos de haber

encontrado una explicación completa. Volveremos a él en el tema siguiente, y veremos entonces que

parte del problema viene ya de la idea empirista de observación. Pero –pese a Wittgenstein, Hanson y

todo el celebrado giro lingüístico– sigue siendo conveniente y convincente el distinguir entre lo que se

observa y la interpretación de lo observado. Esta es una distinción de sentido común, ciertamente,

pero no hay buenas razones filosóficas ni científicas para considerarla superada y totalmente errónea.

23 Probablemente la idea quimérica de Carnap fue estimulada por su creencia (errónea) de que la teoría de conjuntos es simple

lógica: esperaba definir los correlatos de términos observacionales como conjuntos de fenómenos simples interrelacionados. 24 Hoy hay empiristas como van Fraassen que han eliminado ese dogma por completo de su epistemología.

27

Convendrá poner un ejemplo concreto de la historia de la física que puede ilustrar muy bien lo que

tengo en mente. Elijo el caso de los famosos experimentos de Hans Christian Oersted (1820) que

pusieron de manifiesto el efecto electromagnético: que el paso de una corriente eléctrica provoca

efectos magnéticos a su alrededor. La razón de elegir este caso resulta clara: si hay una carga teórica

inducida por las teorías o los paradigmas, debe ser tanto mayor cuanto más alejados entre sí (más

“inconmensurables”) sean éstos. Oersted y otros físicos de su época eran partidarios de la

Naturphilosophie alemana, un “paradigma” inspirado por el idealismo de Schelling que pretendió

desbancar radicalmente al enfoque newtoniano. Entretanto, Ampère y otros físicos del momento que

trabajaron sobre el tema eran continuadores del “paradigma” newtoniano. En toda la historia de la

física no se encuentra un contraste mayor entre paradigmas enfrentados: aquí cambiaba la metafísica,

la actitud hacia la matematización, el modo de experimentar y la metodología, etc. Curiosamente, el

caso de Oersted y Ampère nos pone frente a una clarísima carga teórica del lenguaje básico, pero no

es posible advertir ningún fenómeno de carga teórica de la observación.

Oersted habla de que el efecto electromagnético se produce cuando en el hilo metálico se produce

el “conflicto eléctrico”, mientras que Ampère sigue hablando de la “corriente” eléctrica. La diferencia

es esencial, porque el “conflicto” de Oersted es el fruto de la tensión dinámica entre fuerzas polares

opuestas, siguiendo un esquema muy schellingiano, mientras que la “corriente” de Ampère se ajusta

al modelo estándar de la física newtoniana del momento.25 Así que el lenguaje básico empleado para

comunicar las observaciones está cargado de teoría, y desde luego los intentos de interpretación y

explicación del fenómeno eran muy diferentes entre sí. Pero Ampère y Oersted no tuvieron ningún

problema en reconocer que los experimentos efectivamente daban resultados como los que afirmaba

el contrario. Los experimentos y los resultados de Oersted recorrieron toda Europa, al margen de

“cambios de paradigma”, y se convirtieron en bien común de los “electricistas” (como se decía

entonces) en cuestión de semanas. Cosa bien distinta sucedió con sus interpretaciones y sus teorías. Y

exactamente lo mismo puede decirse de los resultados Ampère frente a sus teorías.

Hace ya tiempo que los historiadores de la física vienen señalando cómo la actividad experimental

y la actividad teórica tienen, en muchas ocasiones, un buen grado de autonomía. En la historia

encontramos grandes revoluciones conceptuales que apenas han afectado a los procedimientos de

experimentación y medición; ejemplo clásico es la teoría de la relatividad especial. También

encontramos grandes cambios “revolucionarios” en la actividad de laboratorio que no implican

automáticamente cambios teóricos; un ejemplo puede ser el intenso desarrollo de la espectroscopia en

el siglo XIX. Por fin, hay casos en los que el cambio teórico y el cambio experimental van de la

mano; caso típico es la revolución química de Lavoisier. Pero es un error grave de los epistemólogos

pensar que esta última es la única posibilidad.

25 La expresión es de Heilbron. Ver por ejemplo su __.

28

Todo lo anterior sugiere que, tal como tiende a sugerir el sentido común, es necesario diferenciar la

observación (o la percepción) del lenguaje observacional. Pero a la vez hay que reconocer que la

percepción no es un proceso simple e inmediato, como querría el empirismo, sino un proceso

cognitivo de alto nivel. De manera que el proyecto de estudiar a fondo la percepción y su papel en la

ciencia es eso: un proyecto, y desde luego será complejo y requerirá una aproximación multidisplinar.

Hablaremos algo más en el tema siguiente.

Por fin, hay dos conclusiones que parecen claras de todo el asunto del supuesto “lenguaje

observacional”. La primera es que la idea clave del giro lingüístico –traducir todo problema filosófico

a un problema de lenguaje, y considerarlo sólo bajo este aspecto– no puede ser satisfactoria para la

epistemología. Esta es una conclusión importante, y, si es así, se debe a que –pese a lo que parecen

preferir muchos filósofos– el lenguaje no es una instancia última y autosuficiente. La segunda es algo

que hemos dejado implícito antes, pero que conviene enfatizar. La actividad teórica de los científicos,

tal como la conocemos, recurre siempre y de una manera esencial a nociones teóricas de algo nivel. Se

emplean conceptos que no responden inmediatamente a lo observable ni son reducibles a lo

observable. O sea, se postula la existencia de objetos y procesos no observables, que sirven para dar

cuenta de los fenómenos que experimentamos. Las fuerzas a distancia de Newton no son observables,

desde luego, sino sólo se reconocen por sus efectos (postulados en la teoría); incluso los átomos

fueron sólo entes inobservables durante casi toda su larga historia, hasta finales del XIX.

Los más interesados en una posible eliminación de los inobservables y de las nociones teóricas son

los empiristas. Pero ya los empiristas lógicos hubieron de aceptar muy pronto que dichas nociones son

imprescindibles para la actividad científica. También los empiristas más sofisticados (un Quine o un

van Fraassen) aceptan esta conclusión. Pero sigue habiendo debate respecto a si debemos interpretar

esas nociones de las que hablan las teorías en un sentido realista o bien según la concepción

instrumentalista.

Este debate es muy viejo: ya los astrónomos en tiempos de Copérnico (s. XVI) discutían si la

corrección empírica de sus modelos del movimiento planetario quería decir –o no– que los planetas

“realmente” se mueven así; los químicos del XIX tuvieron intensos debates sobre si la idea del átomo

y de los pesos atómicos eran simples herramientas, instrumentos para predecir y hacer manejable la

gran diversidad de datos experimentales, o algo más que eso; y los mismos debates se pueden plantear

hoy acerca de los quarks en física cuántica, etc. En dos palabras, hay que decir que tanto el realismo

ingenuo como el instrumentalismo absoluto son insostenibles, pero afortunadamente la cuestión no es

escoger entre esas dos posturas extremas. Las opciones admisibles se sitúan entre el realismo “crítico”

de un Popper, y el instrumentalismo “constructivo” de un van Fraassen. En la práctica diaria, estas dos

posiciones no se diferencian demasiado; considerando la comunidad científica como grupo, opino que

es natural y deseable que haya científicos de orientación realista y otros de orientación empirista: las

dos tendencias han sido muy provechosas, en distintos momentos, para el avance del conocimiento

29

científico. ¿Por qué habríamos de empeñarnos en “normalizar” o estandarizar a los científicos? Las

diferencias individuales son naturales y necesarias en toda actividad humana. Por lo demás, todo

indica que la polémica filosófica de fondo es literalmente interminable.

5. Complejidad de las predicciones: hipótesis y supuestos auxiliares. La tesis de Duhem. El

enfoque semántico: modelos y subestructuras empíricas.

Llegados a este punto, debemos volver de nuevo a la cuestión (tratada en el tema 2) de las relaciones

entre teoría y experiencia. Ya sabemos que el criterio más importante de aceptabilidad de una teoría

científica es su adecuación empírica; en palabras de Popper, que la teoría supere con éxito todos

nuestros intentos de falsación. Pero un análisis más detallado de cómo se obtienen las predicciones

muestra que la contrastación de teorías científicas tiene sus límites.

Intentemos contrastar un principio científico importante: por ejemplo, la ley de inercia, que fue

esencial para el desarrollo de la mecánica durante el siglo XVII. Sólo es posible contrastarla

directamente de una manera, observando un cuerpo físico (o un sistema físico) aislado de manera casi

perfecta. Pero un cuerpo o un sistema de este tipo no está a nuestro alcance, ni observando desde la

superficie de la Tierra, ni observando desde un satélite artificial. Idealmente, habría que observar un

cuerpo moviéndose por el espacio vacío, a enorme distancia de cualquier otro cuerpo; pero

¡necesitamos un observador y el sistema sobre el que este se encuentre! Nadie ha podido nunca

contrastar la ley de inercia directamente, sólo ha sido contrastada conjuntamente con otros principios

teóricos de la mecánica.

Pero la situación es todavía peor: los principios teóricos de la mecánica, esas leyes tan generales,

no tienen por sí mismos ninguna consecuencia empírica. Para que tengan consecuencias empíricas

contrastables, hay que añadirles mucha información particular, lo que los físicos llaman condiciones

iniciales: las condiciones en que se encuentra, en un momento dado, el sistema físico en el que se va a

producir (natural o experimentalmente) el fenómeno que observaremos. Una contrastación muy

importante de la mecánica de Newton fue, por ejemplo, el descubrimiento del planeta Neptuno. Para

predecir algo acerca de la posición y el movimiento de Neptuno, hay que añadir a los principios de la

mecánica celeste (las famosas tres leyes de Newton y la ley de gravitación universal) datos acerca de

la posición, las masas y las velocidades de –como mínimo– el Sol, Neptuno y también Urano. Estas

son las condiciones iniciales. En un momento dado, los cálculos de la órbita de Neptuno pueden dar

malos resultados simplemente porque el “dato” o, mejor dicho, la estimación que se tiene de la masa

de Urano no es muy buena. Corregida y mejorada esa estimación, los problemas desaparecen.

Entenderemos mejor aún la complejidad del asunto considerando cómo se descubrió Neptuno. A

mediados del XIX, los astrónomos se encontraron con que sus modelos teóricos de la órbita de Urano

no encajaban bien con las observaciones. La teoría de Newton tenía problemas de adecuación

empírica. ¿Un caso de refutación? No lo vieron así. Como esta teoría funcionaba tan bien en tantos

30

otros casos, y había superado tantas contrastaciones, pensaron que el defecto no estaría en los

principios teóricos básicos, sino más bien en algún detalle particular del modelo teórico. ¿Y si hubiera

otro planeta desconocido, más allá de Urano, cuya atracción gravitatoria influyera lo suficiente en éste

como para provocar las desviaciones que se habían observado? Este fue el supuesto adicional que

hicieron el inglés Adams y el francés Leverrier en 1845, independientemente uno del otro. Sus

cálculos permitieron, efectivamente, que los telescopios encontraran en 1846 un nuevo planeta; con

ello se reajustaron los modelos newtonianos y las observaciones.26

Tras el descubrimiento de Neptuno, nos damos cuenta de que el modelo para Urano empleado

antes de Adams y Leverrier presuponía, implícitamente, que la órbita de Urano sólo estaba afectada

de manera importante por el Sol y los planetas conocidos. Tal como los dos astrónomos analizaron la

situación, este supuesto implícito era el culpable de los desajustes entre observaciones y predicciones.

Su análisis resultó correcto.

Los ejemplos anteriores muestran que una predicción errónea no siempre es achacable, ni mucho

menos, a los principios teóricos de la teoría T considerada. Puede deberse a que los mal llamados

“datos” que usamos en el cálculo, o sea, las condiciones iniciales (CI) (que en realidad son

estimaciones obtenidas a partir de los datos empíricos vistos a la luz de la teoría) son incorrectas.

Puede deberse también a que falle algún supuesto adicional (SA) presupuesto en nuestros modelos, el

cual puede ser explícito o incluso implícito. Si representamos la situación con un esquema lógico muy

simplificado, tenemos:

(T ∧ SA ∧ CI) → P.

Al encontrarnos que los datos arrojan ¬ P, tenemos certeza de que ¬ (T ∧ SA ∧ CI). Pero no tenemos

ni idea de cuál de estos diferentes elementos es responsable del error. ¡Y recordemos que cada sigla

representa, en realidad, la suma de varios o muchos elementos de ese tipo!

Recordemos además que una teoría científica avanzada suele presuponer en su formulación otras

teorías ya conocidas. La predicción dependerá de la suma de estas teorías, y no sólo de la teoría que

principalmente centra nuestra atención, es decir, la que queremos contrastar. Teniendo todo esto en

cuenta, comprenderemos la enorme complejidad que tiene la contrastación de cualquier teoría

interesante. En realidad podríamos estar hablando de –digamos– 2 teorías, 15 supuestos adicionales

(más un número indeterminado de supuestos implícitos) y 50 elementos de condiciones iniciales. Un

total de 67 piezas, cada una de las cuales (o más de una) pueden ser responsables del desajuste.

El físico francés Pierre Duhem llamó la atención sobre esta situación hace ya casi un siglo.

Afirmó, con razón, que la metodología científica no nos ofrece ninguna regla clara y simple para

saber qué elemento tiene la culpa de una falta de adecuación empírica. Esto se debe a que “un

26 Urano y Neptuno están muy lejos uno de otro: si tomamos la distancia Tierra–Sol como unidad astronómica (UA), la distancia

de Urano al Sol es de 19,2 UA, y entre Urano y Neptuno hay 10,8 UA. Pero los dos tienen masas importantes, 14,6 y 17,3 veces la

31

experimento de física nunca puede condenar a una hipótesis aislada, sino solamente a todo un sistema

teórico”. No hay ningún método para localizar al responsable de una contrastación negativa, y sólo el

“buen sentido” del científico, sobre la base de su conocimiento experto y enciclopédico de la teoría y

las experiencias, puede orientarle. Téngase en cuenta que será muy importante el conocimiento

experto, enciclopédico, de las contrastaciones previas de la teoría (pueden ser miles), de cómo se han

estimado las condiciones iniciales y hasta qué punto cada una de esas estimaciones es fiable, etc.

Además, claro, será importante la “intuición” del científico acerca de qué supuestos adicionales

pueden ser necesarios, o en su caso de qué aspectos de la teoría conviene retocar.

Duhem dio un paso más, estableciendo la llamada tesis de Duhem.27 Consideró una consecuencia

natural de la situación que acabamos de describir. No hay métodos que nos indiquen que un elemento

concreto del entramado teórico falla, sino que el científico sólo depende de su “buen sentido” de

experto. Si hay algún aspecto de la teoría vigente que el científico se resista mucho a modificar, nada

puede forzarlo a hacerlo, sobre todo si sus colegas muestran la misma resistencia. El caso más

interesante sería que todos los científicos, por ser miembros de la especie humana, tendieran a

concebir la realidad bajo un cierto punto de vista (que puede ser parcialmente erróneo). Ante una

refutación, tendrían que introducir cambios, pero podrían reajustar otras partes de la teoría, sin

cambiar ese punto de vista (quizá erróneo) que prefieren; o bien reajustar esta hipótesis predilecta sólo

en parte, pero sin abandonarla del todo. La consecuencia es que nadie puede garantizar que una cierta

hipótesis científica no sea, al menos en parte, una simple convención humana.

Esa misma idea la venía ya defendiendo otro gran científico francés, Henri Poincaré, desde hacía

años. Como sabemos, las teorías físicas presuponen y se basan en teorías matemáticas, concretamente

en la geometría. Poincaré pensaba que la elección de la geometría de Euclides no se debía a ninguna

necesidad (ni racional ni empírica), sino a nuestra elección: ninguna geometría es verdadera ni falsa, y

si elegimos la de Euclides es por convención, por comodidad. Andando el tiempo, Poincaré detectó la

presencia de otras convenciones en la física, como es el caso (ya mencionado) de la ley de inercia o 1ª

ley de Newton, y también de nuestros criterios de medición del tiempo. Así, se habla del

convencionalismo como un punto de vista importante en filosofía de la ciencia, que sería retomado

décadas después por W. V. Quine, e implícitamente por muchos otros filósofos de la ciencia.

Es importante aclarar cuál es la tesis clave del convencionalismo. Algunos tienden a dar una visión

caricaturizada de esta posición, diciendo que el convencionalista está a favor de las hipótesis ad hoc, y

que afirma que principios básicos de la ciencia como la ley de inercia son puras convenciones.28 Lo

primero es falso, lo segundo es impreciso. Ningún convencionalista importante (ni Poincaré ni Quine)

de la Tierra, respectivamente; y además, al estar ambos lejos del Sol, la atracción de éste es pequeña (recordemos que decrece con el cuadrado de la distancia). Por eso la atracción entre ambos planetas tiene efectos notables sobre sus órbitas.

27 A veces se designa como tesis de Duhem-Quine, pero el propio Quine ha dicho que con esto se le hace más honor del que

merece. Aquí hacemos caso a Quine.

32

ha defendido las hipótesis ad hoc. En realidad, el convencionalista argumenta que hay razones

profundas por las que resulta imposible diferenciar lo que hay de empírico (o de realista) en las

hipótesis científicas, y lo que puede haber en ellas de convencional. Y respecto a la ley de inercia, sin

duda tiene algún contenido empírico, ya que –en tanto parte de la mecánica newtoniana– está

magníficamente contrastada. Pero ya sabemos que la ley, por sí sola, no puede ser contrastada; y si

nos preguntamos hasta qué punto es convencional, y hasta qué punto es realista, resulta imposible dar

una contestación definitiva. Propiamente hablando, esta es la tesis clave del convencionalismo: que

nada puede impedir la existencia de aspectos convencionales en las teorías científicas, y que es

imposible trazar una distinción tajante entre lo que tienen de convencional y lo que tienen de realista

(o de empírico).

Buena parte de lo que llevamos dicho en este apartado tiene que ver con la idea del holismo. Esta

palabra sirve simplemente para referirse al hecho de que los principios teóricos por sí solos no son

contrastables, y que su relación con la experiencia pasa a través de la totalidad (holos, en griego) de la

teoría. Mejor dicho, y recopilando todo lo visto en este apartado: lo que se enfrenta a la experiencia es

una teoría científica, junto con las teorías presupuestas por ella, y las estimaciones de las condiciones

iniciales relevantes (sin olvidar los posibles supuestos auxiliares implícitos). Del holismo en la

relación entre teoría y experiencia se derivan las complicaciones de la metodología que hemos estado

revisando.

6. Sistemas conceptuales abiertos y cerrados. Las teorías en desarrollo: principios teóricos,

modelos y ejemplares.

Según vimos más arriba, el ideal de la teoría axiomatizada está demasiado lejos de lo que

encontramos en la práctica científica. Cuando los científicos están desarrollando su conocimiento, sus

ideas teóricas y sus programas de investigación, no trabajan con teorías axiomáticas, sino con

herramientas conceptuales más flexibles. Por tanto, necesitamos algún esquema que nos pueda servir

para analizar en qué consiste una teoría científica, cuando está en desarrollo y no finalizada.

Utilizando una idea del lógico italiano Cellucci, podemos decir que la diferencia entre ambas

situaciones es la siguiente: una teoría axiomatizada es un sistema cerrado, mientras que la teoría en

desarrollo es un sistema abierto.29 Téngase en cuenta que el sistema axiomático está definido de una

vez y para siempre: tiene un lenguaje determinado, unos axiomas determinados, y por tanto equivale a

una colección de teoremas dada de una vez y para siempre. Esta extraordinaria precisión se paga al

precio de la inflexibilidad, porque cualquier cambio en el lenguaje o en los presupuestos significa que

estamos cambiando todo el sistema (me refiero a cambios reales, no a una simple definición, que no

28 El mismo Popper, cuando critica el convencionalismo en su famoso libro La lógica de la investigación científica, está

tergiversando esta posición y argumentando contra un hombre de paja. 29 C. Cellucci, Le ragioni della logica, Roma, Laterza, 1998.

33

es otra cosa que la introducción de una abreviatura). Por eso es adecuado decir que es un sistema

cerrado.

Ni siquiera los matemáticos suelen trabajar con sistemas cerrados. Al enfrentarse a problemas

nuevos, a menudo introducen nuevos conceptos y nuevos principios que les permiten dominar y

comprender esas situaciones problemáticas a las que se enfrentan. Ese proceso conduce no pocas

veces a nuevos sistemas axiomáticos; y el proceso de desarrollo continúa… Una situación análoga,

aunque todavía más compleja por la interrelación entre teoría y experimentación, se da en las ciencias

naturales.

Así que los científicos y los matemáticos, en su práctica, se las ven con sistemas abiertos. Pero que

nadie piense que esto significa que el desarrollo de las teorías es algo etéreo, inefable, imposible de

analizar, inaccesible a la racionalidad humana. Semejante conclusión oscurantista no está en absoluto

justificada por la constatación anterior. Lo que necesitamos es algún modo de representarnos en qué

consiste el cuerpo de teoría, moldeable y en desarrollo, con el que trabajan los científicos.

A continuación presento un esquema de análisis que se inspira en varias tradiciones de la filosofía

de la ciencia. No por simple eclecticismo, sino porque creo que, si queremos ser fieles a la práctica

científica, necesitamos considerar varios tipos de elementos. Mi propuesta tiene muchas similitudes

con las ideas de Toulmin hace ya décadas; también con lo que discutió T. Kuhn en la ‘Postdata’ de La

estructura de las revoluciones científicas. Pero hay modificaciones importantes: mi propuesta es,

creo, más clara y simple que la de Kuhn, lo que sobre todo se debe a que estamos concentrando

nuestra atención en la actividad teórica (dejando la actividad experimental, y la relación entre ambas,

para más adelante) y estamos obviando los aspectos más vagos y vaporosos de los famosos

“paradigmas” kuhnianos.

En primer lugar, los científicos trabajan con elementos de carácter lingüístico o simbólico, a los

que llamaremos principios teóricos. Es el caso, en la teoría de Newton, de las famosas tres leyes del

movimiento y la Ley de Gravitación Universal. O es el caso, en otras teorías físicas

(electromagnetismo, relatividad, cuántica) de las ecuaciones fundamentales. Pero lo mismo sucede en

ciencias naturales distintas como puede ser la biología: los principios básicos que caracterizan el

proceso de “evolución por selección natural” son los principios teóricos del evolucionismo biológico.

A veces los principios teóricos se formulan en lenguaje matemático, como pasa en los casos famosos

de f = m · a (la 2ª ley de Newton), o de e = m · c2 (la famosa consecuencia de la mecánica relativista

de Einstein, o relatividad especial). A veces, en el desarrollo de la ciencia, se formulan en lenguaje

natural –ligeramente perfeccionado y precisado por el empleo de conceptos y términos nuevos,

propios de la ciencia–, como sucedió con la mencionada teoría evolutiva hasta los años 1930.

Pero ya hemos visto que las teorías necesitan incluir muchos más elementos, mucha más

información, para tener implicaciones empíricas: para explicar fenómenos o para predecirlos. Así que

necesitamos algún elemento en nuestro análisis que suministre esta información adicional. Al

34

desarrollar una teoría, los científicos van acumulando una gran cantidad de “datos” acerca de aspectos

del mundo real que resultan especialmente relevantes, a la luz de los principios teóricos. Por ejemplo,

los newtonianos se dedicaron a estimar las masas de los planetas y los satélites, etc., y también a

medir el valor numérico de la célebre constante de Newton, G, que aparece en la Ley de Gravitación

Universal. El resultado es una auténtica enciclopedia de “datos”, que podemos llamar una base de

“datos”. Escribo siempre esta palabra entre comillas, para recordaros que el lenguaje –incluso el

lenguaje de los científicos– es polisémico: aquí no estamos hablando de datos en el sentido que para

nosotros es más importante: datos de observación o de experimentación, sino en realidad de aquello

que antes llamamos condiciones iniciales. (Podríamos decir que la teoría incluye una ‘enciclopedia de

condiciones iniciales’, pero la expresión parece rara, un tanto pedante.)

Ahora bien, debemos recordar que los principios teóricos a menudo presuponen el contenido de

otras teorías, y que sólo conjuntamente con estas dan lugar a una representación de los fenómenos que

interesan al científico. De esta forma, combinando principios teóricos y otras teorías, se obtienen

modelos teóricos, modelos que pretenden representar ciertos tipos de fenómenos reales. Los modelos

de una teoría satisfacen siempre los principios teóricos generales de ella (y a menudo algún otro

principio, de carácter más específico o más particular); pero los modelos son mucho más ricos en

contenido que los simples principios teóricos. Aprender a elaborar estos modelos, a utilizarlos para

representar fenómenos, a razonar y calcular partiendo de dichos modelos, es una parte esencial del

aprendizaje científico. Para aprender una teoría, nunca ha bastado con saberse de memoria los

principios teóricos, y ahora entendemos un poco mejor por qué.

Pongamos dos ejemplos tomados de la teoría newtoniana. Entre sus modelos teóricos encontramos

los de tipo sistema solar, que pueden aplicarse a entender las órbitas de los planetas en torno al Sol,

pero también las órbitas de los planetas en torno a cualquier otra estrella, o las órbitas de los satélites

de Júpiter en torno a éste. Encontramos también modelos teóricos completamente distintos, como son

los modelos del comportamiento del péndulo, etc. Cuando empleamos uno de estos modelos y le

añadimos toda la información de condiciones iniciales necesaria (información que extraemos de la

base de “datos”), obtenemos por fin un candidato a representar un fenómeno concreto. Sobre esta base

resulta posible por fin realizar predicciones y llevar a cabo una contrastación de la teoría.

Hubo un tiempo en que los filósofos de la ciencia no tenían en cuenta la importancia de los

modelos teóricos. En aquella época (la de Carnap y Popper) se intentaba analizar las teorías científicas

sólo en términos de enunciados y de sus relaciones lógicas elementales. Esto es lo que se ha llamado

la concepción enunciativa de las teorías científicas, y resultaría adecuada si tuviéramos que hablar de

teorías axiomatizadas, pero es claramente demasiado rígida e inflexible para que sea útil en relación a

la práctica científica.

Curiosamente, cuando se vio la necesidad de introducir también modelos, enseguida surgieron

puristas que propusieron entender todo lo importante únicamente en términos de modelos. “¿Que

35

tenemos que hablar de modelos? Pues hablemos sólo de modelos”. Es lo que se ha llamado la

concepción semántica (formal) de las teorías científicas, o también la concepción estructural. Este

punto de vista tiene sus virtudes, pero sólo desde un punto de vista muy abstracto, el propio de un

matemático o un lógico puro. De nuevo, empeñarse en reducirlo todo a un único tipo de elemento es

una postura demasiado rígida e inflexible. (Un ejemplo de las virtudes es la elegante definición de

“adecuación empírica” –vía isomorfismos– que da van Fraassen en su libro La imagen científica;

pero cuando se reflexiona sobre lo absolutamente abstracta que es esta definición, y sobre lo lejana

que queda de la práctica científica, ya no resulta tan claro que haya una ganancia.)

Como puede verse, el enfoque que propongo aquí combina elementos de la concepción enunciativa

y de la concepción semántica (formal), y lo hace no por eclecticismo, sino –como he intentado

aclarar– por razones internas. Pero hay además otro elemento que me parece necesario tener en

cuenta, y es quizá la aportación principal de Kuhn. Me refiero a la idea de “paradigma”, pero no en el

sentido vago y general, sino en el concreto de ejemplo paradigmático, caso o problema resuelto

particular que es un modelo a seguir de teoría–en–aplicación. Igual que hizo Kuhn en su ‘Postdata’,

para evitar equívocos nos referiremos a estos casos de teoría–en–aplicación con el nombre de

ejemplares.

¿Qué es, más concretamente, un ejemplar? En cierto modo, puede parecer algo superfluo: es un

modelo particular de un cierto fenómeno (por tanto, combina modelos y principios teóricos con

información sobre “datos” de condiciones iniciales) que ha resultado especialmente exitoso en su

contrastación, es decir, desde el punto de vista de su adecuación empírica. Un caso obvio es el modelo

newtoniano de nuestro sistema solar, que los físicos fueron refinando desde los tiempos de Newton,

pasando por los de Laplace, etc. Alguien podría pensar que, desde un punto de vista lógico, no hay

necesidad de destacar la presencia de estos ejemplares. Pero Kuhn tenía razón al decir que, en el

desarrollo de las teorías científicas, estos casos paradigmáticos o ejemplares son muy importantes.

Sirven de punto de apoyo, o mejor, punto de referencia constante en el desarrollo de la ciencia: son

fundamentales a la hora de aprender a hacer ciencia, y el investigador los tiene muy en cuenta al

enfrentarse a problemas nuevos. Los problemas nuevos se tratan por analogía con los ejemplares: el

caso nuevo se intenta resolver del mismo modo, pero a menudo harán falta cambios más o menos

importantes en los detalles; cambios que nadie puede especificar de antemano, sino que deben ser

elaborados creativamente por el científico.

Recordemos que, como dijo Kuhn, cuando se adopta un nuevo punto de vista científico siempre

hay en él algo de realización satisfactoria (hay ejemplares convincentes), pero también hay mucho de

promesa de éxitos futuros. La tarea de los científicos durante la etapa que él llamó de “ciencia

normal” no es más que hacer efectiva esta promesa, aclarando nuevos fenómenos al resolver nuevos

problemas (algunos muy complejos). En este proceso dinámico y creativo, los casos o problemas ya

resueltos –especialmente los que son paradigmáticos: los ejemplares– tienen una importancia

36

cognitiva muy especial para el científico. Así pues, si no hay motivos lógicos para destacar el papel de

los ejemplares, sí que abundan los motivos tanto cognitivos como históricos.

Antes de abandonar este tema, un último comentario aunque sea telegráfico. Los modelos

científicos que se proponen para casos particulares nunca son absolutamente precisos. El error, pero

un error limitado y –en principio– controlable, es parte fundamental de las teorías científicas. Las

fuentes de error están tanto en el trabajo experimental, que nunca puede ser perfecto, como en el

trabajo teórico: los cálculos son a menudo sólo aproximados, se basan en supuestos simplificadores,

etc. Simplificar es la única manera humana de comprender los fenómenos, y lo cierto es que da muy

buenos resultados. La importancia del error, de las aproximaciones, de la simplificación, es la razón

de que digamos que los modelos científicos sólo aspiran a representar bien la realidad “en

determinados respectos” (no todas las facetas del fenómeno) y “hasta cierto grado” (no con una

quimérica precisión absoluta). De hecho, se han desarrollado amplias teorías del error, que permiten a

los científicos tener más en cuenta y minimizar los efectos de la inevitable presencia de este factor.

Como dice Morin, para entender mejor el conocimiento humano hay que tener muy en cuenta los

riesgos del error y la ilusión; son temas que ya han salido varias veces en este curso, y continuarán

apareciendo.

7. Límites de validez de las teorías científicas. Aplicaciones, incertidumbre y riesgo.

Toda la metodología de la ciencia descansa en el principio de la primacía de los datos experimentales:

la experimentación es el juez último de la validez de las teorías. Además, hoy se acepta unánimente la

idea del falibilismo: que las teorías hoy aceptadas pueden siempre ser reemplazadas en el futuro, que

nunca se alcanza una situación de estabilidad duradera. Ambas ideas conducen a la conclusión de que

toda teoría científica encuentra límites a su validez. Las fronteras dentro de las cuales resulta

plenamente fiable son las del campo de fenómenos respecto a los cuales se han podido hacer un gran

número de observaciones y experimentos de calidad. Al aplicar la teoría fuera de esas fronteras, se

está extrapolando, y siempre cabe la posibilidad de que su validez en esos casos sea limitada.

Ahora bien, desde el punto de vista de la sociedad en general –sobre todo en los últimos dos

siglos– lo que más importa de la ciencia no es su valor intrínseco como conocimiento, sino las

aplicaciones y los desarrollos tecnológicos a que da lugar. Este es el sentido de la conocida expresión

I + D, investigación y desarrollo, donde se sobreentiende investigación científica y desarrollo

tecnológico. (La última moda, impulsada en España por el gobierno del PP, es hablar de I + D + i,

donde la última letra se refiere a innovación industrial.) Cuando se habla de “aplicación” de las

teorías científicas, normalmente se está haciendo referencia a la tecnología, o también al empleo de

conocimientos científicos para analizar situaciones que no son “de laboratorio”, sino “de la vida real”

(pensad en las pruebas de DNA que se hacen hoy en los juicios).

37

Es importante decir que el modo en que las teorías se aplican en el campo de la tecnología no es

tan simple como a menudo se piensa. Mucha gente cree que “todo lo importante” está en la teoría, de

manera que el teórico es capaz de prever todos los aspectos relevantes del artefacto o la técnica que se

va a desarrollar. La situación suele ser más compleja: el ingeniero tiene que añadir muchos detalles

basados en su conocimiento de los materiales, o de los diseños más apropiados en cada circunstancia,

o de las normas de seguridad que se han ido adoptando por común acuerdo. (Un ejemplo sencillo: a

nadie se le ocurre construir un edificio con columnas del menor tamaño y resistencia aceptables según

los cálculos teóricos; los buenos profesionales siempre trabajan muy por encima de los mínimos.) Así

que la ingeniería tiene su enciclopedia de conocimientos particulares, relativos a materiales, diseños,

etc., que van más allá del conocimiento del científico.

Hay quien piensa que la aplicabilidad tecnológica de las teorías es un argumento decisivo a favor

de su verdad, a favor del realismo. Pero este argumento sólo sería concluyente si la aplicación de las

teorías siguiera el esquema más simplista que hemos criticado antes. Cabe pensar, como hace la

filósofa Nancy Cartwright, que, al diseñar sus artefactos, los ingenieros utilizan su conocimiento

especializado para fabricar dispositivos muy particulares que permiten reproducir cosas semejantes a

los resultados de laboratorio. Desde este punto de vista instrumentalista, la teoría puede extrapolarse a

esas situaciones tecnológicas concretas que el ingeniero ha sido capaz de crear aplicando toda su

habilidad. Pero esto no significa que pueda extrapolarse a cualquier fenómeno, “del mundo real”, del

tipo que supuestamente explica la teoría. (O sea, a fenómenos a los cuales un realista pensaría que la

teoría describe y explica bien, sin ninguna duda.)

Estas ideas de Cartwright parecen especialmente adecuadas a las ciencias de laboratorio, las que

continuamente trabajan con experimentos. La aplicación de la teoría no sería otra cosa que traspasar

resultados obtenidos en situaciones técnicas muy concretas (con los instrumentos y los experimentos

del laboratorio) a otras situaciones técnicas muy concretas: los aparatos cuidadosamente ingeniados y

“apantallados” de influencias incómodas, que producen los ingenieros. [Conviene indicar que, pese a

su antirrealismo con respecto a las leyes científicas, Cartwright y otros autores de su tendencia

encuentran motivos para ser más realistas con respecto a los objetos de los que hablan los científicos:

átomos, electrones, etc.]

Aceptemos por tanto que hay límites para la validez de las teorías. Esto nos conduce a la

conclusión de que, en la aplicación de las mismas, podemos encontrarnos con diversos grados de

incertidumbre. Y el manejo de situaciones en las que está presente la incertidumbre debe seguir reglas

especiales, sobre todo se debe aplicar un principio de prudencia.

38

Lecturas adicionales:

P. Duhem, La théorie physique, son objet et son structure, Paris, 1906; Paris, Vrin, 1981. (= The aim

and structure of physical theory, 1954.)

Euclides de Alejandría, Elementos (Madrid, Gredos, 1991). Se recomienda leer el “Libro I”, que

establece 48 teoremas, siendo el penúltimo el teorema de Pitágoras.

B. van Fraassen, La imagen científica, Barcelona, Paidós, 1996.

T. S. Kuhn, “Posdata: 1969”, en La estructura de las revoluciones científicas (México, FCE, 1975).

C.U. Moulines, Exploraciones metacientíficas, Madrid, Alianza, 1982.

— ed., La ciencia: estructura y desarrollo, Madrid, Trotta, 1993.

E. Nagel, La estructura de la ciencia, Buenos Aires, Paidós, 1968.

B. Pascal, “Del espíritu geométrico”, en Obras (Madrid, Alfaguara, 1981), pág. 278–292.

H. Poincaré, Ciencia e hipótesis, Espasa, colección Austral.

W. V. Quine, “Dos dogmas del empirismo”, en Desde un punto de vista lógico (Barcelona, Ariel,

1962).

A. Tarski, “Sobre el método deductivo”, Cap. VI de Introducción a la lógica y a la metodología de

las ciencias deductivas (Madrid, Espasa-Calpe, 1968).

R. Torretti, “El método axiomático”, en Moulines, La ciencia: estructura y desarrollo, op. cit.

1

4. La experimentación y sus problemas.

El enfoque de la actividad científica planteado en este curso se basa en tomar en serio la siguiente

idea: la experimentación es tan importante como la teorización, y el conocimiento científico sólo

puede entenderse si analizamos la interacción entre ambas actividades. Es hora pues de estudiar las

características y problemas de la experimentación.

1. Centralidad y problematicidad de la base empírica. La base empírica de las ciencias tiene un papel esencial – no es necesario enfatizarlo– y es a fin de

cuentas lo que confiere su especificidad al conocimiento científico. Como decía el gran físico Richard

Feynman: The principle of science, the definition, almost, is the following: The test of all knowledge is experiment. Experiment is the sole judge of scientific ‘truth’.

30

Esta es una convicción empirista, si se quiere decir así, y en esa medida podemos identificarnos

plenamente con el espíritu del empirismo (aunque cabría matizar lo de “sole judge”, “único juez”).

Pero hay un problema: las epistemologías empiristas van más allá de esa convicción básica,

introduciendo una serie de elementos adicionales que acaban constituyendo un estorbo. Buen índice

de esta situación es que los empiristas del siglo XX prácticamente no han estudiado la

experimentación científica. Si estoy en lo cierto, la principal causa de esta pequeña paradoja es que

sus convicciones epistemológicas les han incapacitado para plantear el problema correctamente. Al

reducir a priori el proceso de adquisición de datos a la recepción de impresiones por un sujeto–mente,

se hace inevitable prescindir de casi todos los aspectos de la práctica experimental real.

Pero las cosas no han estado mucho mejor entre los oponentes del empirismo. De hecho, un lugar

idóneo para comenzar a discutir este tema es la famosa Lógica de la investigación científica de

Popper. Entre los problemas capitales que plantea Popper está por supuesto el “problema de la base

empírica” [1959, 42–43 y cap. 5], pero de facto se convierte para él en un problema casi intratable.

Las proposiciones básicas que expresan resultados empíricos son, según Popper, el resultado de una

convención, de un acuerdo entre los científicos, ya que si exigiéramos que nos las demuestren, nos

veríamos llevados a un regreso infinito [1959, 101]. Además, Popper coquetea con la idea de que

estas proposiciones básicas no son independientes de las ideas teóricas, sino que tienen una cierta

carga teórica. Esta idea, que Popper no llegó a desarrollar, condujo a resultados que se pueden

calificar de absurdos en manos de seguidores suyos como Lakatos. Como puede verse, estamos en las

30 Feynman, Leighton & Sands, The Feynman Lectures on Physics, Addison-Wesley Pub. Co., 1963, p. 1.

2

antípodas del empirismo: para los empiristas, los datos eran frutos absolutamente seguros de la

observación, mientras que los conceptos teóricos eran sospechosos; para Popper, los conceptos

teóricos son absolutamente necesarios y son lo único bien establecido, mientras que los llamados

‘datos’ son algo muy inseguro y discutible. Dice textualmente:

La base empírica de la ciencia objetiva, pues, no tiene nada de «absoluta»; la ciencia no está cimentada sobre roca: por el contrario, podríamos decir que la atrevida estructura de sus teorías se eleva sobre un terreno pantanoso, es como un edificio levantado sobre pilotes. Estos se introducen desde arriba en la ciénaga, pero en modo alguno hasta alcanzar ningún basamento natural o «dado». [1959, 106]

Entre la confiada declaración de Feynman, y el carácter escurridizo y convencional de la base

empírica de que habla Popper, media un abismo. Si las cosas son como las pintan Popper y sus

seguidores, resulta difícil explicar por qué los científicos se comportan como dice Feynman, y qué

tipo de garantías especiales puede darnos el conocimiento científico. Poniéndonos un poco radicales,

y aceptando plenamente la carga teórica de los datos, no se ve cómo puede haber diferencias entre

ciencia y metafísica.

Sin duda, es un mérito de Popper haber captado bien las dificultades a las que abocaba su

planteamiento, y haberlas recogido honestamente sin intentar ocultarlas (aquí hace honor a las normas

que él mismo proponía para los científicos). La cuestión es si podemos salvar esas dificultades, y

cómo. Una clave está en reconocer que la fuente principal de las dificultades de Popper es su enfoque

puramente lógico-lingüístico de las cuestiones epistemológicas. Si todo en ciencia es cuestión de

enunciados, y el único modo de justificar un enunciado es mediante la lógica deductiva, entonces está

claro que los enunciados básicos o empíricos no pueden justificarse: sólo pueden aceptarse por

convención. (Popper se tranquilizaba poniendo ejemplos de cómo “en la práctica” los científicos no

encuentran difícil llegar a estos acuerdos convencionales; pero este argumento pragmático no tiene

ningún valor para la teoría de la ciencia.) La conclusión es que, para un tratamiento adecuado de la

“base empírica”, resulta especialmente importante ir más allá de ese tipo de enfoque. Para analizar

cómo los datos, los resultados empíricos o los “enunciados básicos” de Popper, son obtenidos

mediante la actividad experimental, es imprescindible discutir las bases biológicas, cognitivas y

técnicas del conocimiento científico. Sólo así podremos afrontar con tranquilidad el problema de la

experimentación.

Claro está que aquí surgen dudas de si estamos preparados para desarrollar este tipo de

planteamiento con un mínimo de pregnancia y detalles, o si más bien el intento de abordar esa

cuestión es prematuro. Pero ello sólo podrá evaluarse a la vista de los resultados; me permito citar a

Popper y Novalis: “sólo quien lance pescará”.

El resultado de las tradiciones filosóficas que se manifiestan en los empiristas (y parcialmente en

Popper) fue que se planteó el desarrollo de la ciencia como una cuestión de la interacción entre teoría

y datos de observación. En esta dicotomía, que a primera vista parece tan clara, se olvida todo lo

3

relativo a la actividad experimental u observacional concreta: el despliegue de instrumentos y

técnicas, la actividad física desarrollada por los científicos, ya sea en los laboratorios o en el trabajo

de campo, etc. Además, con aquella dicotomía se hace pensar que los datos, los resultados, se

obtienen de manera directa e inmediata como fruto de una acción simple y epistemológicamente

privilegiada: observar.31

Además, esos enfoques clásicos indujeron a pensar en la experimentación como algo de carácter

puntual, discontinuo: como si cada dato científico fuera el resultado de un único experimento y

pudiera obtenerse en un solo intento. Hay que decir que, a menudo, los propios científicos han

fomentado esta simplificación, que desde el punto de vista filosófico y epistemológico es fatal.

Veremos que todos los puntos anteriores son erróneos, y en particular plantearemos que la

experimentación es un proceso dinámico, y que cada dato sólo puede ser el resultado de toda una serie

de experimentos (una investigación experimental). Es necesario, en este sentido, hablar de procesos

de formación de datos.

A fin de cuentas, toda una serie de tendencias filosóficas y científicas se fueron apoyando

mutuamente hasta producir lo que hemos llamado teoreticismo. Con este término nos referimos a la

tendencia –clásica en filosofía de la ciencia– a privilegiar los aspectos teóricos del conocimiento sobre

cualquier otro de sus rasgos, de modo que toda la actividad científica era interpretada desde el punto

de vista de la elaboración de conceptos y la teorización. De esa tendencia se deriva la inclinación a

reformular cualquier cuestión o problema de la filosofía de la ciencia en términos exclusivamente

conceptuales o teóricos. Correlativamente, lo empírico tendía a ser considerado como algo situado en

los márgenes,32 los resultados experimentales eran objeto de una simplificación y estilización

sistemática, y los procesos propios de la actividad experimental desaparecían de la reflexión

metodológica.33

2. Instrumentos: la dimensión técnica de la ciencia. El modo más eficaz de superar los prejuicios de nuestra tradición epistemológica, yendo más allá de

los empiristas y los falsacionistas, bien puede ser poner énfasis en la instrumentación, en la dimensión

técnica de la actividad experimental. Quienes más atención han dedicado a estos aspectos de la

ciencia son toda una serie de autores que han realizado estudios históricos y sociales, desde

historiadores pioneros como Holmes y Heilbron, hasta sociólogos como Collins y Pickering. Al entrar

en estas aguas, nos encontramos con la fuerte polémica en torno a la “construcción social” del

conocimiento, que ha tenido lugar durante los últimos 20 años. Esto complica las cosas, pero a la vez

31 Esto es algo que Popper criticaba con toda razón, lo que constituye otro mérito de su enfoque.

32 Piénsese por ejemplo en la célebre imagen de la ciencia como un “campo de fuerzas” lógico-lingüístico cuya línea de frontera

es lo empírico, imagen propuesta por Quine en 1951. 33 Sobre este tema y los que siguen, ver mi artículo con J. Ordóñez, ‘Hacia una filosofía de la experimentación’, Crítica: revista

hispanoamericana de filosofía Vol. 34 (Diciembre 2002), nº 102, 47–86.

4

hay que pensar que todo avance sólido que realicemos en el análisis de los factores cognitivos

implicados en la actividad experimental, será un avance en dos frentes: hacia la clarificación del

problema del que hemos partido, y hacia la elaboración de una filosofía de la actividad científica que

supere las tendencias sesgadas del sociologismo.

Pues bien, en este punto del tema bastará discutir algunos ejemplos para mostrar cómo, no sólo la

experimentación sensu strictu, sino también lo que es propiamente observación, depende y ha

dependido esencialmente de instrumentos. Si volvemos a ejemplos de trabajo experimental que se han

discutido previamente, como los trabajos de Galileo con péndulos y planos inclinados, o los de

Newton con prismas, nos encontramos con que aún en estos estadios primitivos del desarrollo

científico la situación es la descrita. La utilización de telescopios y microscopios fue una de las

mayores novedades en la Revolución Científica del siglo XVII, y aquí se trata de pura observación

(pensemos en las observaciones de la Luna, de los satélites de Júpiter, de los anillos de Saturno, de las

fases de Venus, de los cometas).34 Pero es observación mediada por instrumentos técnicos, y todo el

desarrollo de la astronomía ha dependido de una complejidad cada vez mayor en la tecnología de esos

instrumentos. Así se acaba llegando a los telescopios y otros detectores instalados en satélites (como

el Hubble o el Cobe), a los grandes despliegues de radiotelescopios, a los microscopios electrónicos o

los que aprovechan diversos efectos cuánticos, etc. (Hemos visto ejemplos de todo esto en una

presentación realizada en clase.)

La ciencia del último siglo es cada vez más dependiente de la instrumentación y la alta tecnología;

entre el ojo que observa y lo observado hay una capa cada vez más gruesa, una mediación técnica

cada vez más complicada. Pensemos en casos como pueden ser los experimentos de Thomson con

tubos de vacío que le permitieron descubrir el electrón, o las imágenes del DNA por difracción de

rayos X que condujeron al modelo de la doble hélice, o el empleo de aceleradores de partículas,

detectores de neutrinos, etc. Hoy cabe decir que no hay ningún dato observacional que la ciencia

registre sin recurrir a instrumentación muy compleja y sofisticada (si no me equivoco, las posibles

excepciones representarán porcentajes estadísticamente despreciables). Tampoco hay ningún dato,

ningún resultado experimental que no sea el fruto de un trabajo colectivo: detrás de cada dato hay toda

una red de experimentadores que han participado en elaborarlo y precisarlo, en criticarse mutuamente

las prácticas experimentales empleadas, etc.

Otra idea que nuestra tradición hace plausible, pero que (como afirmación general) resulta errónea,

es que los procesos de observación son más simples que los de experimentación. Veamos dos

ejemplos de gran importancia histórica. En 1919, los miembros de la Royal Society obtuvieron la

conclusión de que la teoría general de la relatividad (TGR, que es la teoría einsteiniana de la

34 Otros casos importantes de observación pura nos los ofrecen las múltiples investigaciones relacionadas con termómetros,

barómetros, telescopios, y un larguísimo etcétera que va mucho más allá de los límites de la física: dos ejemplos escogidos a

5

gravedad) era correcta. La base empírica para esta afirmación fueron datos obtenidos al observar

estrellas que aparecen visualmente muy cerca del Sol, durante un eclipse total de éste. Estos datos

fueron obtenidos por científicos británicos en dos expediciones simultáneas, a __ y __. Basta que

pensemos por un momento en la complejidad logística y organizativa de estas expediciones, la

cantidad de gente implicada, el despliegue de telescopios necesario, el dinero empleado, etc. El

resultado de todo este despliegue de medios, y de una intensa discusión de los resultados que se

obtuvieron (ver más abajo), fue un “simple” dato de observación. Podríamos poner muchos otros

ejemplos similares, y muy anteriores.

Cien años antes, en 1820, el físico danés Hans Christian Oersted realizó un famosísimo

experimento en el que mostraba la existencia de efectos electromagnéticos, esto es, que el paso de una

corriente eléctrica por un hilo causa efectos magnéticos en torno a éste. Dos “fuerzas” de la

naturaleza, hasta entonces distintas, resultaban estar interconectadas. Los datos de Oersted son

experimentales, pero para obtenerlos basta con instrumentos que cualquiera puede conseguir y

disponer en su casa: una pila de cierta intensidad, un hilo conductor, y una aguja imantada. Se trata

de un experimento de sobremesa, como muchos otros de los que se realizaron en el siglo XIX. Lo más

delicado del instrumental era la bateria o pila, que necesitaba ser potente. En cuestión de semanas,

decenas de científicos por toda Europa repetían el experimento de Oersted; en cambio, las

observaciones en eclipses solares requieren una planificación y un despliegue de medios que las

ponen fuera del alcance de una persona normal. (Otros ejemplos del mismo tipo, aunque de más

complicación, pueden ser los experimentos de Roentgen que le permitieron descubrir los rayos X, o

los de Thomson que le llevaron al descubrimiento del electrón; ambas cosas sucedieron poco antes de

1900.)

Ya sabemos que las teorías científicas son falibles, especialmente cuando se trata de teorías de

muy algo nivel; pero también los resultados empíricos son falibles. La posibilidad de que un “dato”

sea erróneo es tanto mayor cuanto más novedosas sean las técnicas de experimentación u observación,

y cuanto más se intente precisar detalles que están en los límites de la capacidad de los instrumentos.

Aquí ocurre lo mismo que en cualquier observación realizada sin más auxilio que el de nuestros

sentidos: muchos de nosotros no podemos precisar, a una distancia importante, si el animal que vemos

es (digamos) un gato o un perro; muchos científicos de 1700 no podían ver los detalles que

Leeuwenhoeck lograba observar con sus microscopios minúsculos y su increíble vista (y habilidad).

Hay personas que son capaces de distinguir dos notas que se diferencian sólo en un cuarto de tono

(diferencia que no aparece nunca en la música occidental), mientras que otros desafinan cantando una

canción cualquiera. No es extraño que, cuando los científicos quieren precisar qué es eso que se

intuye en los límites de visión de un instrumento, puedan llegar a hablar de cosas imaginarias: canales

vuelapluma son los estetoscopios que emplean los médicos para escuchar los latidos del corazón, y los sismógrafos que registran los movimientos de la corteza terrestre, en especial terremotos.

6

construidos por los marcianos, o procesos de formación de las células que microscopios más potentes

revelarán que no existen.

Los datos que maneja un teórico no son, sin más, los resultados que se obtuvieron en el

laboratorio: son una interpretación de dichos resultados a la luz de experiencias previas, el

conocimiento de los instrumentos y sus posibles sesgos y deficiencias, teorías estadísticas de la

corrección de errores, etc.35 La manipulación técnica nunca alcanza a ser perfecta, de manera que los

resultados siempre muestran alguna variabilidad; pero el dato que se obtiene es único, y hay una serie

de métodos muy sofisticados que permiten juzgar la fiabilidad de los datos, refinarlos, etc.

Dicho esto, y puesto que he mencionado antes la “confirmación” de la TGR que hizo

mundialmente famoso a Einstein, llevándole a ocupar las portadas de los periódicos con titulares

como “Newton desbancado” en 1919, conviene que comentemos algo más. Quienes han revisado las

actas de las discusiones de la Royal Society en las que se decidió dar la razón a Einstein, llegan a la

conclusión de que los resultados observacionales que se habían obtenido no eran bastante claros como

para afirmar que la predicción de la TGR quedaba confirmada. Eran datos ambiguos, insuficientes,

pero el interés del asunto y las presiones del momento llevaron a decidir democráticamente el

resultado. ¿Fraude? No tanto, pero sí, desde luego, un apresuramiento y un riesgo innecesarios. Si

hubiera sido fraude, se habría descubierto en las muchas otras observaciones similares que se han

hecho posteriormente, y que cada vez han confirmado las predicciones de TGR con mayor nitidez.

Fue una suerte para los astrónomos que no hubieran tenido que desdecirse de lo afirmado en 1919

(como ha pasado en tantas otras ocasiones, con la fusión fría, con la “quinta fuerza”, etc.). Hubiera

quedado muy mal, después del enorme impacto mediático que tuvo la decisión inicial.

3. Una tipología elemental de experimentos.

Otra idea tradicional que hay que desmentir es la siguiente: que los datos son siempre cuantitativos,

que el científico experimental se dedica siempre a medir. Esta idea fue muy impulsada por el

positivismo, pero hace aparecer la parte como el todo. Los fabricantes de instrumentos de principios

del siglo XVIII nos acercan a una visión más correcta. Estos hombres anunciaban sus productos

distinguiendo, fundamentalmente, dos categorías: instrumentos “matemáticos” e instrumentos

“filosóficos”. Los nombres, claro está, nos resultan confundentes, pero basta analizar un poco la

clasificación para que podamos traducirlos a nuestros lenguaje: los instrumentos “matemáticos” sirven

para medir (recordemos que entonces se pensaba en la matemática como ciencia de las cantidades),

mientras que los instrumentos “filosóficos” se limitaban –y no es poca cosa– a poner de manifiesto

fenómenos nuevos, nunca antes observados. El que se usara ese adjetivo no resulta extraño, si

tenemos en cuenta que lo que hoy llamamos “ciencia” se llamaba entonces “filosofía natural”.

35 Asuntos como el de las teorías del error son muy importantes metodológicamente y muy delicados, pero se trata de un tema

demasiado complejo para discutirlo aquí.

7

El astrolabio era un instrumento “matemático” que inventaron los musulmanes: servía para medir

los ángulos que fijan la posición en el cielo de un astro cualquiera en un momento dado. La

astronomía era el campo en el que más se habían desarrollado este tipo de instrumentos de medición,

los cuadrantes, los telescopios con rejillas, etc., pero ya la brújula es un instrumento de medir. Por

otro lado, el mismo telescopio fue, hasta bien entrando el XVIII, un instrumento meramente

“filosófico”: permitía ver cosas nuevas como los satélites de Júpiter o los anillos de Saturno, pero

todavía no se había perfeccionado hasta el punto de permitir mediciones precisas. También los

microscopios eran “filosóficos”, descubrían todo un mundo de detalles y criaturas minúsculas que

excitó la curiosidad y la imaginación de tantos hombres. Otros instrumentos de este tipo eran las

bombas de vacío, etc.

Como muestra el caso de microscopios y telescopios, no está escrito en el destino de los

instrumentos que sean meramente cualitativos o bien permitan mediciones. Muy a menudo se empieza

por una cosa y se acaba en la otra. Incluso aquellos instrumentos del XVII que, por simplificar,

llamamos termómetros o barómetros (donde el sufijo –metro indica medición), empezaron siendo

instrumentos puramente cualitativos, que ponían de manifiesto fenómenos novedosos. Sólo tras

investigar sistemáticamente estos fenómenos e introducir aclaraciones conceptuales al respecto

(teorías), fue posible emplearlos para medir. Así que, en rigor, sólo a partir de cierto momento

deberíamos hablar de barómetros, y habría que inventar una palabra nueva (quizá “baroscopio”) para

el instrumento “filosófico” anterior.

Esto sugiere que, en una tipología elemental de experimentos, hay que distinguir entre

experimentos cualitativos y cuantitativos. Lo más importante del experimento de Oersted fue el

fenómeno cualitativo que ponía de manifiesto, por más que fuera muy fácil refinar el experimento

para hacer mediciones. Puede parecer que con esa distinción no hemos ganado mucho, pero

recordemos hasta qué punto la idea de que los datos deben ser cuantitativos ha condicionado el

desarrollo de las ciencias humanas y sociales (psicología, sociología). Siguiendo la receta positivista,

estas ciencias han buscado a menudo su legitimidad en la magia de los números: lo importante era

medir algo, aunque no se supiera bien qué se estaba midiendo, o no fuera central para los fenómenos

que supuestamente interesaban. Hacia 1960, cuando le invitaron a hablar ante científicos sociales,

Kuhn sintió la necesidad de aclarar cuál es la función de la medición en las ciencias físicas,

insistiendo en que la experiencia y los experimentos no cuantitativos, que preceden a la medición, han

sido determinantes para la formación de conceptos y la elaboración de leyes.36 La investigación

cualitativa permite a menudo captar o vislumbrar relaciones en los fenómenos, sobre las que podemos

luego teorizar, y que podemos –en su caso– confirmar con investigaciones empíricas más precisas,

cualitativas y cuantitativas.

36 Ver su libro La tensión esencial, cap. .

8

Pero en su artículo Kuhn apenas hablaba de los experimentos cualitativos. Desde nuestro punto de

vista, el haberlos ignorado ha tenido un profundo efecto en la filosofía de la ciencia, porque (al menos

en el caso de la física) los experimentos cualitativos han sido una parte fundamental de los procesos

de formación de conceptos (que son parte indispensable de los procesos de formación de datos). Un

ejemplo sencillo es el de la distinción entre calor y temperatura, que no fue el producto de ninguna

elaboración de hipótesis en el vacío. Por el contrario, fue ante todo el resultado de largas y delicadas

series de experimentos cualitativos. Sólo después de haber establecido distinciones como ésa y otras

relacionadas, fue posible tener una comprensión inicial de lo que hacía un termómetro, a partir de la

cual fue convertido en instrumento de precisión. Sólo después de haber acuñado esos conceptos, fue

posible elaborar hipótesis teóricas en el campo de la teoría del calor y proceder a la matematización de

esta rama de la física. Estamos en el mundo de la carga experimental de los conceptos teóricos,

simétrico de la célebre carga teórica de la experimentación. Que normalmente sólo se insista en la

segunda, y se olvide la primera, es un efecto más del teoreticismo.

La imagen tradicional del experimento –que se encuentra en autores como Popper [1935, 101–03]

y todavía en van Fraassen [1980, 98–100]– es la de que sólo cabe realizar experimentos a la luz de las

preguntas y los conceptos determinados por una teoría. Frente a esto, Hacking y Franklin37 han

resaltado una y otra vez que la experimentación puede tener una vida propia, independiente de la

teoría. El tema vuelve a encontrarse, tematizado muy explícitamente, en los trabajos de Steinle sobre

las prácticas experimentales de Ampère y Faraday.38 En una palabra, se debe diferenciar entre

experimentación exploratoria y guiada (por una o más teorías). Si la tradición filosófica sólo tuvo en

cuenta la experimentación guiada, se debió en buena medida a su tendencia a reflexionar sobre ramas

de la ciencia completamente desarrolladas. Y es que la experimentación exploratoria se encuentra

principalmente en las primeras fases de desarrollo de una ciencia, cuando se está muy lejos de

conceptos y principios teóricos bien desarrollados y adecuados. Pero esto no quiere decir que

semejante experimentación sea poco importante desde el punto de vista epistemológico: antes al

contrario.

Siempre que se encuentra un nuevo dispositivo experimental, y más aún cuando se inventa algún

nuevo instrumento, tiene lugar una intensa actividad de carácter exploratorio. Se trata simplemente de

probar lo que puede hacerse con el nuevo experimento o dispositivo, de variar las circunstancias

imaginativamente y ver qué pasa. Un ejemplo simple nos lo daría el estudio primitivo de la

electricidad: una vez comprendido el fenómeno de la conducción eléctrica, quienes se interesaron por

él realizaron múltiples pruebas con todo tipo de materiales a mano; un resultado inevitable de este

juego exploratorio fue la distinción entre materiales conductores y no conductores. En diversos

trabajos, Steinle ha analizado los desarrollos exploratorios que diversos científicos dieron al

37 Véase Franklin [2002] y Hacking [1996], cap. 9.

38 Véase Steinle [2002].

9

descubrimiento por Oersted del fenómeno electromagnético. Su dispositivo experimental sumamente

simple (una aguja imantada, una batería o pila potente, y un hilo conductor) fue transformado y

variado de cien maneras.

Pero lo verdaderamente importante es la contribución que la exploración experimental realiza

al desarrollo de nuevos conceptos. Sin ir más lejos, la simple variación del lugar de la aguja con

respecto al hilo hizo patente que el efecto electromagnético parecía distribuirse circularmente en torno

al hilo, lo cual planteaba graves dificultades al enfoque físico tradicional en la línea de Newton y

Laplace, y en cambio conecta directamente con ciertos aspectos geométricos del concepto de campo.

Nótese además que para este resultado no es necesaria una cuantificación y medición precisa.

Frente a ello, la experimentación guiada emplea diseños experimentales cuidadosamente previstos

en función de las teorías relevantes. En general los experimentos que implican mediciones de alta

precisión –que a menudo son tomados (sesgadamente) como prototipo de la experimentación en

general– son fruto de la experimentación guiada. Pero hay que introducir dos precisiones: primero, las

relaciones entre teoría y experimento son de múltiples tipos, lo que conlleva que la categoría de

«experimentación guiada» –pese a su utilidad– resulte todavía demasiado burda. Segundo, y se trata

de un matiz importante, habitualmente toda investigación experimental (nos referimos a una serie de

experimentos ligados) incluye una buena dosis de trabajo exploratorio, es decir que probablemente

convendría considerar lo exploratorio y lo guiado como dos fases interactivas de la investigación

experimental.

Las dos distinciones que hemos planteado conducen, al cruzarlas, a una clasificación cuatripartita

de los tipos de experimentos. De hecho, es posible encontrar ejemplos de cada uno de los cuatro tipos.

Experimentos hacia los que llamó la atención Hacking, como los de Davy con el gas emitido por algas

subacuáticas y los realizados por Bartholin con el cristal de espato de Islandia, son buenos ejemplos

de experimentación cualitativa exploratoria.39 El célebre experimento de Oersted, en el que estableció

el efecto electromagnético, nos da un ejemplo de experimentación cualitativa guiada –y de hecho

guiada por una teoría atípica, una doctrina dinámica de las fuerzas físicas inspirada en Kant y

Schelling–.40 Para ejemplos de experimentación cuantitativa exploratoria, pueden verse los casos

estudiados por Steinle [2002], o la enorme cantidad de ejemplos ofrecidos por el desarrollo de las

investigaciones espectroscópicas en la segunda mitad del XIX, investigaciones que produjeron una

inmensa cantidad de datos precisos, inexplicables entonces.41 Por fin, el caso de la experimentación

cuantitativa guiada es casi el único sobre el que han reflexionado tradicionalmente los filósofos de la

39 Véase Hacking [1996, 180–84]. Bartholin advirtió en 1669 que los cristales de espato (calcita) traídos de Islandia producían

una doble refracción: un texto se veía doble al observarlo a través del cristal. 40 Si hemos de creer a Oersted, su descubrimiento no fue en absoluto un caso de serendipia, como a menudo se lo presenta. Véase

[Snelders 1990] y [Oersted 1998]. 41 Cabría considerar además el caso de Galileo con sus planos inclinados, pero aquí lo que tenemos más bien son experimentos

cuantitativos guiados por una teoría absolutamente errónea, y las dificultades subsiguientes para reconcebir los fenómenos de modo acorde con los datos. Hay una presentación elemental en Drake [1980, 58–63].

10

ciencia, y aquí se encuentran ejemplos tan conocidos como los experimentos de Millikan sobre la

carga del electrón, o las expediciones francesas del XVIII a Laponia y a Perú para medir la constante

G newtoniana.

4. Procesos de formación de datos y estrategias de validación de resultados.

Podemos ahora volver a plantear el problema general de cómo se obtienen resultados experimentales.

Lo primero que hay que decir es que los “datos” son más bien lo contrario de lo que sugiere la

etimología del término: lejos de ser algo dado (datum) en un proceso de observación que sería

automático y siempre fiable, conviene pensar que los datos son tan producto de largas elaboraciones

como las teorías mismas. Más aún, me parece imprescindible hablar de procesos de formación de

datos (análogamente a los procesos de formación de conceptos que discutieron Hempel y otros). Los

procesos de formación de datos son largos, complejos, comunitarios y tentativos; también aquí hay

que hablar de que el conocimiento científico es falible y, por tanto, siempre está sometido a revisión.

Solo se obtiene un resultado fiable al final de esos procesos de formación e interpretación; muy raras

veces hay resultados inmediatos e indiscutibles. Por esto hay que hablar de procesos, y por eso las

viejas ideas acerca de la observación son tan discutibles.

La vieja idea del método hipotético-deductivo, interpretada en plan teoreticista, sugería que los

científicos proponen hipótesis y teorizan durante largo tiempo, hasta que por fin consiguen una

predicción precisa; entonces, hacen un experimento y observan el resultado; tras haber confirmado o

refutado la predicción, continúa el proceso de teorización. Pero es esencial tener en cuenta que los

procesos de formación de datos no son automáticos ni instantáneos: no se trata nunca de un

experimento aislado en el que uno se limita a observar. La actividad experimental ocupa en todas las

ciencias más tiempo y recursos que la actividad teórica. Y no se realizan experimentos aislados, sino

procesos de investigación integrados por series de experimentos. Tener esto en cuenta es esencial para

entender la formación de datos.

En los procesos de formación de datos se ponen en práctica ciertas estrategias de validación

de resultados, que han sido analizadas por autores como Hacking y Franklin.42 Analizaremos a

continuación algunas estrategias básicas. Ante todo, hay que insistir en que estas estrategias son

características de la actividad experimental del científico. Algunos autores parecen pensar que las

estrategias de validación sólo estarían justificadas si cada una de ellas puede formalizarse y

justificarse en base a criterios formales.43 Pero la formalización lógica es algo propio de la actividad

teórica, no de la actividad experimental. Desde mi punto de vista, hay que verlo al contrario:

42 Ian Hacking, Representar e intervenir [1996], Allan Franklin, The neglect of experiment [1986], ‘Física y experimentación’

[2002]. 43 Es el caso de algún sociólogo, como Collins, que precisamente emplea la inexistencia de criterios formales como base para

afirmar que existen círculos viciosos en el proceso experimental, y que sólo los factores sociológicos llevan a una consolidación de ciertos resultados como ‘válidos’.

11

precisamente porque son algo característicamente empírico, y no son reducibles a lo teórico, es por lo

que las estrategias de validación de resultados realmente enriquecen la actividad científica y se

convierten en una fuente importantísima de conocimiento. La salud de la empresa científica depende

de la interacción entre actividad teórica y experimental: si una de ellas fuera reducible a la otra, esa

interacción no aportaría novedades.

Un análisis bastante pormenorizado de estrategias puede encontrarse en los trabajos de

Franklin (en castellano, [2002]). Aquí me limitaré a señalar tres estrategias básicas y características.

La importancia que tienen consiste en que permiten diferenciar lo que es verídico en los resultados

empíricos y lo que son “artefactos” producidos por los instrumentos y los procesos de

experimentación. Recordemos que los instrumentos experimentales producen artefactos: los

imperfectos telescopios que usaron Galileo y sus contemporáneos producían imágenes con distintas

“aberraciones” como la aparición de franjas de color y la deformación de las figuras. Pero basta la

propia práctica de la experimentación y la observación para aprender a descartar las distorsiones y

quedarse con lo verídico. Así pues, la idea de artefacto –y la vieja experiencia de que las

manipulaciones experimentales pueden producir artefactos más que imágenes reales– son

fundamentales para todo lo que sigue. Obtener resultados fiables es casi lo mismo que aprender a

descartar artefactos y discernir lo verídico.

El primer criterio de fiabilidad puede enunciarse así:

1. La convergencia entre resultados o representaciones que, o bien son de tipos distintos, o

bien tienen orígenes instrumentales y procedimentales diversos.

Más adelante veremos ejemplos de esta y las otras estrategias, extraídos de los experimentos que

realizó Newton con prismas. Hacking pone ejemplos tomados del empleo de miscroscopios para

observar células. Hay muchos tipos de microscopios: los más viejos son los ópticos, aunque ya en esta

categoría existen varios tipos (de polarización, de luz ultravioleta, de fluorescencia, de contraste de

fase, de interferencia); en el siglo XX han surgido los microscopios electrónicos, también de múltiples

tipos, los de efecto tunel, etc. Cada tipo de microscopio emplea un proceso físico diferente para

obtener una imagen, procesos que no tiene prácticamente nada en común entre ellos. Pero esos

procesos diferentes producen configuraciones visuales muy similares, poniéndo de relieve ciertas

estructuras: los corpúsculos que forman la célula, como por ejemplo los cromosomas en el núcleo, o

simplemente los glóbulos rojos en cualquier muestra de sangre. La convergencia entre esas

representaciones o resultados es clave para que lleguemos a convencernos de que realmente estamos

viendo estructuras de la célula. (La razón de esto es que, si se tratara de artefactos, sería inexplicable

que se obtuvieran los mismos artefactos con métodos y procesos francamente diferentes.)

La segunda estrategia pone de relieve que la actividad experimental consiste en intervenir, actuar

físicamente sobre los fenómenos, interactuar con ellos, y no meramente observar. Nuestra capacidad

12

de manipular los objetos o los fenómenos, de actuar sobre ellos y controlarlos, es otro de los

elementos clave para llegar a resultados empíricos fiables. El segundo criterio de fiabilidad consiste

en:

2. La coherencia entre las intervenciones planificadas por el experimentador y los

resultados, coherencia que pone de manifiesto el logro de capacidades de control, de

interferir causalmente en los objetos o fenómenos observados.

Hacking pone como ejemplo los numerosos casos en que se inyectan fluidos en determinadas partes

de las células para resaltar la presencia de un orgánulo: cuando al microinyectar se obtienen los

efectos esperados (abultamiento, etc.), esto indudablemente lleva al resultado de que el orgánulo es

real, y no un artefacto. Algo relacionado con esto se ha hecho familiar desde que las televisiones

ilustran las noticias sobre clonación con imágenes de microagujas que penetran la pared de una célula

para succionar o para depositar un núcleo. El argumento, en este caso particular, sería el siguiente: la

imagen del núcleo es un rasgo verídico de las células, y no un artefacto experimental, entre otras cosas

porque podemos manipular los núcleos de un modo análogo a como manipulamos tantas otras cosas

(los ingredientes de cocinar, pongamos por caso).

Un tercer criterio, añadido por Franklin, es éste:

3. Los rasgos propios de la imagen o el fenómeno observado pueden otorgar validez a

ciertos resultados y promover una determinada interpretación.

Un hermoso ejemplo de esto nos lo da el descubrimiento de las lunas de Júpiter que realizó Galileo.

Ya sabemos que su telescopio era muy imperfecto: producía manchas de color y deformaciones,

numerosos artefactos. Así las cosas, ¿por qué pensar que los puntitos de luz que se veían alrededor de

Júpiter eran verdaderas “lunas”, satélites de ese planeta? La respuesta está en cómo se comportaban.

Galileo pensó al principio que eran estrellas, pero enseguida pudo observar que no se comportaban

como estrellas normales. Así que volvió una y otra vez a enfocar su telescopio hacia Júpiter, varias

noches consecutivas, hasta que llegó a pensar que tenían que ser lunas. Como vemos, el resultado se

obtiene sólo tras una serie de observaciones, una verdadera investigación experimental. Si hubieran

sido estrellas, Júpiter las habría dejado atrás en su movimiento de traslación; pero no: acompañaban a

Júpiter, y podían verse tanto a un lado de este como al otro, y a veces no se veían. Esta extraña danza

tenía fácil explicación: eran satélites que daban vueltas en torno al planeta, pasando de un lado al otro,

y estando a veces detrás del planeta. Comportamientos tan regulares era imposible que se debieran a

artefactos producidos por el telescopio. Como se ve, las propias características del fenómeno

limitaban drásticamente las interpretaciones posibles. (Algo semejante sucedió también en los

experimentos que permitieron descubrir el electrón.)

13

4. La “carga teórica” de la observación: alcance y límites.

En el proceso de diseño de un experimento y en la interpretación de los resultados desempeña un

papel muy importante lo que se llama teoría del instrumento, el modelo (teórico) que pretende

representar de manera fiel los procesos relevantes del funcionamiento de los aparatos y de su

interacción con los fenómenos que se estudian. Esto desde luego complica las cosas en el proceso de

la investigación: sería más simple si todo se pudiera hacer con observación directa. Pero, contra lo que

se suele decir, que haya una teoría del instrumento no significa sin más que hay una carga teórica de

los datos. La tesis de la “carga teórica de la observación” está muy extendida, pero no está establecida

con solidez, y además hay que complementarla con otras tesis.

En muchos casos esa teoría del instrumento tiene poco que ver con la teoría de los fenómenos que

se pretende estudiar: por ejemplo, para estudiar las células se utiliza el microscopio electrónico; pero

la teoría física del microscopio electrónico es, en todo lo esencial, independiente de las teorías de la

biología celular. Pero además, el mensaje de todo lo que hemos dicho en las secciones anteriores es

que los motivos para fiarse de los resultados que se obtienen con un instrumento son, en buena

medida, algo que depende de los propios criterios de validez experimental, y no de la verdad o

falsedad de la teoría del instrumento. Hay un ejemplo clásico sobre el que llamó la atención Hacking:44

la teoría de cómo funcionan los microscopios fue incorrecta hasta los trabajos de Abbe hacia 1873,

pero el modo en que los experimentadores usaban el microscopio no cambió entre antes y después de

Abbe. Aunque la teoría del instrumento era incorrecta, en la práctica experimental se había aprendido

a distinguir entre rasgos realistas de la imagen y artefactos. (Lo que sí permitieron los trabajos de

Abbe fue mejorar los instrumentos, prever cuales eran sus límites de perfeccionamiento, etc.)

Aparte de contribuciones relevantes de Kuhn y del mismo Popper, el autor que más contribuyó a

difundir esa idea de la carga teórica fue N. R. Hanson en su libro Patrones de descubrimiento (1958).

Hanson se dirigía principalmente contra la distinción neopositivista entre términos teóricos y términos

observacionales. Ya hemos hablado de esto: los argumentos de Hanson son decisivos respecto al

llamado “lenguaje observacional”, pero sin embargo no establecen nada claro ni mucho menos

irrebatible a propósito de los resultados de observación y experimentación. De ser cierta, la tesis de

Hanson dificulta sobremanera entender la especificidad del conocimiento científico y convierte

declaraciones como las de Feynman en un panfleto. La versión que ofrece Lakatos –llevando a sus

últimas consecuencias las declaraciones de Popper– dice que contrastar una hipótesis es enfrentar dos

teorías entre sí, la teoría-foco (cf. tema 3) y la teoría que suministra los datos. Esto invita a todo tipo

de conclusiones paradójicas, desde identificar la ciencia con la metafísica (ya que también la historia

de la metafísica es un asunto de teorías enfrentadas con teorías, todas ellas ligadas con la experiencia

de un modo indirecto y vago), hasta –como bien sabemos– estimular las concepciones sociologistas.

44 Hacking [1996], cap. 11.

14

Para superar las ideas recibidas respecto a la carga teórica, es importante ir más allá de las

concepciones empiristas clásicas, y en particular más allá del giro lingüístico. Es obvio que, si

aceptamos el principio fundamental del giro lingüístico, y añadimos la tesis (que he aceptado

explícitamente) de que el lenguaje tiene siempre un cierto grado de carga teórica, la conclusión de

Hanson es inevitable. Pero cito a van Fraassen:

En algunos casos tenían razón al pensar que varias perplejidades filosóficas, malinterpretadas como problemas ontológicos y epistemológicos, eran realmente, en el fondo, problemas acerca del lenguaje. … Pero esto únicamente significa que ciertos problemas pueden ser dejados de lado cuando estamos haciendo filosofía de la ciencia, y categóricamente no significa que los conceptos filosóficos deban ser todos y cada uno explicados lingüísticamente. Los positivistas lógicos y sus herederos fueron demasiado lejos en el intento de convertir los problemas filosóficos en problemas acerca del lenguaje. En algunos casos su orientación filosófica tuvo efectos desastrosos en la filosofía de la ciencia. (La imagen científica [1980], p. 18)

45

Cabría añadir toda una serie de consideraciones más teóricas y científicas acerca de la posibilidad de

una carga teórica de la observación, teniendo en cuenta la base biológica y cognitiva de la percepción

humana. Pero esto va más allá de lo que podemos tratar al nivel introductorio al que nos situamos en

este curso.

Particularmente, me gusta establecer conclusiones respecto a este famoso asunto, no a base de

argumentos epistemológicos a priori, sino empleando estudios de casos. El caso de las primeras

investigaciones electromagnéticas en el siglo XIX –el descubrimiento clave de Oersted y los

desarrollos de Ampère– es muy apropiado para ilustrar tanto el alcance positivo de los argumentos de

carga teórica como sus limitaciones. La diferencia entre las cosmovisiones de Oersted (seguidor de la

Naturphilosophie de Kant y Schelling) y la de Ampère (formado en la tradición físico-matemática de

Laplace) era máxima, por lo que cabría esperar que los efectos de carga teórica fueran extremos.

Hemos visto en clase, con calma, varios aspectos de este caso. En realidad, encontramos una carga

teórica en el lenguaje empleado: donde Ampère habla de “corriente” eléctrica, Oersted usa “tensión”,

y la diferencia se entiende bien recurriendo a sus respectivos “paradigmas”. Pero no hay ningún

problema con respecto a los resultados experimentales, un experimentador acepta y reproduce los del

otro, y la traducción entre sus lenguajes resulta bien simple. No hubo tampoco problemas graves de

inconmensurabilidad, aunque sí interpretaciones muy distintas de los fenómenos.

Para terminar el tema, hay que dar una idea de la multiplicidad de interrelaciones en que pueden

llegar a encontrarse teoría y experimento. Para ello puede seguirse la magnífica exposición de

Franklin en la última parte de su artículo ‘Física y experimentación’ [2002] (aunque sus ejemplos

tienden a ser demasiado sofisticados). Franklin escribe: El experimento desempeña muchos papeles en la ciencia. Uno de sus papeles importantes es contrastar teorías y suministrar la base para el conocimiento científico. También puede requerir una nueva teoría, ya sea mostrando que otra aceptada es incorrecta, o exhibiendo un fenómeno nuevo que necesita explicación. El experimento puede darnos pistas sobre la estructura o la forma matemática de una teoría, y puede suministrar evidencia a

45 Véanse también los comentarios de Hacking [1996], cap. 10, y los de Moulines en La ciencia: estructura y desarrollo [1993].

15

favor de la existencia de las entidades involucradas en nuestras teorías. Por último, puede también tener una vida propia, independiente de la teoría. Los científicos pueden investigar un fenómeno simplemente porque parece interesante. Esto, a su vez, suministrará evidencia a explicar por una futura teoría. … un solo experimento puede desempeñar varios de estos papeles a la vez.

Ahora bien, diversos filósofos y sociólogos han planteado problemas y dudas escépticas con respecto

a la validez y objetividad de los datos experimentales. Entre las objeciones más célebres están el

argumento del “regreso del experimentador” (Collins, Changing order [1992]), la tesis de la

plasticidad formulada por Pickering (‘Living in the material world’ [1989], The mangle of practice

[1995]), y por supuesto la famosa tesis de la carga teórica de la observación (Hanson, Patrones de

descubrimiento [1958]). No es posible, en un curso introductorio, revisar todos estos argumentos y

problemas, pero sí me parece esencial discutir en detalle la última tesis, y responder al menos en un

punto a Collins. Estos dos puntos son el objeto de los dos siguientes apartados.

Consideremos el “regreso del experimentador” en el que insiste Collins, y que viene a reducirse a

lo siguiente. En la práctica de la replicación de experimentos, dice Collins, nos encontramos

habitualmente con un círculo vicioso: se obtendrá el resultado válido cuando se emplee un buen

aparato (esto es, un dispositivo experimental que funciona correctamente), pero el aparato se juzga

bueno cuando produce resultados esperados, incluyendo el “resultado válido”. Habría muchos

aspectos de este argumento que discutir (cf. Franklin [2002] y otros trabajos suyos citados ahí), pero

aquí importa sobre todo destacar un presupuesto de toda la discusión de Collins en torno a los

resultados experimentales.

Los físicos teóricos y los filósofos de la ciencia tradicionales han hecho mucho por darnos una

imagen completamente esquematizada y perversamente aligerada de lo que es la actividad

experimental. Como si el trabajo del experimentador fuera poner a punto un único diseño

experimental que debería establecer de forma concluyente un dato concreto, y que se propondría a los

demás científicos para someterlo a réplicas exactas. Los estudios de sociólogos e historiadores como

Collins y Schaffer han mostrado hasta qué punto las cosas no son así, pero a la vez han sacado buen

provecho de esa trivialización exagerada. En mi opinión, es imposible alcanzar una comprensión

adecuada de la actividad experimental mientras no se atienda más a la complejidad de la

experimentación y a la dinámica propia de los procesos de formación de datos. La experimentación

tiene su propia dinámica compleja, exactamente igual que la teorización.

Una idea clara con respecto a todo esto, que puede fácilmente ser transmitida a alumnos en un

curso introductorio, es la siguiente: en los procesos de formación de datos intervienen series

completas de experimentos, juzgadas y evaluadas según estrategias de validación características. Sólo

tras haberse alcanzado un veredicto estable (aunque pueda ser revisable) acerca de los resultados,

16

acabado el proceso de formación de datos, es posible pergeñar esos experimentos idealizados, simples

y decisorios que se exponen en trabajos teóricos y manuales introductorios.

Como en otros puntos, es conveniente emplear casos reales para transmitir y desarrollar esa tesis.

Ejemplos muy clásicos podrían encontrarse en Faraday, pero ya el ejemplo más simple de la

experimentación óptica de Newton, discutido anteriormente, ofrece un caso ideal en el que ilustrar

nuestro enfoque. De hecho, en su primer artículo sobre el tema (1672) Newton cometió el error de dar

una presentación demasiado aligerada y esquematizada de sus resultados sobre la composición de la

luz (probablemente por efecto de su formación matemática y teórica). Él mismo parece haber

aprendido bien la lección, porque la presentación que hace en la Óptica (1704) es muy distinta: el

resultado clave ya no se presenta como fruto de un único experimento decisorio, sino tras haber

analizado una serie de 10 experimentos que se complementan y apoyan mutuamente. Analizar este

caso ofrece oportunidades magníficas para exponer la dinámica de la actividad experimental y

estudiar las estrategias de validación de Hacking y Franklin.

Otro punto que ayuda a clarificar los estudios detallados sobre la actividad experimental, es la

intervención de supuestos teóricos en el desarrollo de la misma. Pero esto no debe utilizarse como

argumento en favor del teoreticismo, porque lo análogo resulta del estudio detallado de la actividad

teórica (donde interviene de manera esencial resultados experimentales). Por ejemplo, la formación de

los conceptos de línea de fuerza y campo en la obra de Faraday muestra constantemente la

intervención de resultados experimentales en su desarrollo. Por ello, mi conclusión es que la

experimentación y la teorización, aún disponiendo cada una de ciertas estrategias epistemológicas

propias y características, son actividades interdependientes y no jerarquizadas. En la dinámica de la

investigación científica ambas aparecen interrelacionadas en un proceso de una complejidad bastante

notable. Creo que esta complejidad del trabajo científico es lo que ha confundido hasta ahora a los

analistas filosóficos, que han pretendido cortar el nudo gordiano ofreciendo imágenes mucho más

simples: las del empirismo y el teoreticismo, ninguna de las cuales alcanza a suministrar un modelo

suficiente del fenómeno que se pretende estudiar.

Referencias:

Drake, S. [1980] Galileo. Madrid, Alianza, 1983. Para más detalles, véase su Galileo at work (New

York, Dover, 1995).

Franklin, A. [2002] Física y experimentación, Theoria 17 (2002) nº 44: 221–242.

Ferreirós, J. y J. Ordóñez, ‘Hacia una filosofía de la experimentación’, Crítica: revista

hispanoamericana de filosofía Vol. 34 (Diciembre 2002), nº 102, 47–86.

Hacking, I. [1996] Representar e intervenir. Barcelona, Paidós/UNAM. (Original de 1983.)

17

Kuhn, T. S. [1961] La función de la medición en la física moderna, en La tensión esencial, México,

FCE/CONACYT, 1982.

Newton, I. [1672] Letter to Mr. Oldenbourg on light and colours, en (entre otros) S. Horsley, ed.

Opera quae exstant omnia, London, 1779–1785, vol. IV. Reimp. Stuttgart, Frommann, 1964.

—— [1704] Óptica, ed. C. Solís. Madrid, Alfaguara, 1977.

Oersted, H. C. [1998] Selected scientific works, eds. K. Jelved, A. D. Jackson, O Knudsen. Princeton

Univ. Press.

Pickering, A. [1989] Living in the material world, en Gooding, Pinch, y Schaffer, The Uses of

Experiment [1989].

Popper, K. R. [1935] La lógica de la investigación científica, Madrid, Tecnos, 1962 (trad. de la 2ª

edición inglesa, 1959).

Schaffer, S. [1989] Glass works: Newton’s prisms and the uses of experiment, en Gooding, Pinch &

Schaffer [1989].

Snelders, H. A. M. [1990] Oersted’s discovery of electromagnetism, en A. Cunningham & N. Jardine,

eds. Romanticism in the sciences, Cambridge Univ. Press, 1990, p. 228–40.

Steinle, F. [2002] Challenging established concepts: Ampère and exploratory experimentation,

Theoria 17 (2002) nº 44: 291–316.

18

TEMA 6. Las matemáticas y su papel en la ciencia.

Discusión introductoria acerca de los fundamentos de las matemáticas, la naturaleza del

conocimiento matemático, y el papel de las matemáticas en la configuración de las ciencias. He

aquí un borrador que resume lo que se discutió en clase:

1. Comenzamos analizando la famosa discusión sobre los fundamentos de las matemáticas a

comienzos del siglo XX: la “crisis de fundamentos” en la que se enfrentaron el logicismo, el

formalismo y el intuicionismo. Buena parte del problema tenía que ver con los principios básicos de la

teoría de conjuntos: axiomas como el del Infinito (existe un conjunto infinito al menos, el conjunto de

todos los números 0, 1, 2, …) y el axioma de Elección (que discutimos brevemente). Estos principios

postulan la existencia de ciertos conjuntos infinitos, y no eran aceptados por todos los matemáticos;

llamamos constructivistas a los matemáticos que rechazan tales afirmaciones (el “intuicionismo” es

un tipo de constructivismo, su versión más famosa, elaborada por Brouwer).

Un grupo de matemáticos, encabezados por Russell, trataron de defender que los principios básicos

de la teoría de conjuntos son verdades lógicas. Esta posición, que dice que la matemática se reduce a

la lógica, se llama logicismo. Pero las verdades lógicas deben ser independientes de cómo sea el

mundo, deberían ser principios sumamente generales sin carga ontológica. Como vimos en clase con

detalle, los axiomas discutibles de la teoría de conjuntos no pueden considerarse verdades lógicas.

Estos principios son, pues, ‘verdades’ hipotéticas, supuestos fundamentales que están a la base de

las matemáticas (hipo-tesis), pero que no podemos considerar verdades necesarias. Por cierto: no son

principios que nadie se haya sacado de la manga arbitrariamente, sino que están estrechamente

relacionados con el análisis que hace la matemática moderna del continuo.46 Y el continuo es una

característica básica de los modelos del mundo físico…

Vimos también cómo surgieron en 1900 una serie de paradojas (especialmente la paradoja de

Russell, también la de Cantor) que arrojaron dudas sobre la coherencia o consistencia lógica de la

teoría de conjuntos. Consistencia significa no-contradictoriedad; todos los matemáticos (y los físicos)

están de acuerdo en que una teoría que incluye contradicciones no es admisible en matemáticas. El

46 Decimos que una recta es un continuo de puntos, y vimos en clase la diferencia entre “densidad” y “continuidad”. Todo este tema fue aclarado en su momento por Dedekind y Cantor, que propusieron una teoría rigurosa de los números reales. (Los números reales – formados por los racionales o fracciones, y además los irracionales: por ejemplo, √2, √7, π – son precisamente los números que hacen falta para poder asignar un número a cada punto de la recta.) También el espacio tridimensional es un continuo de puntos, y la física analiza el tiempo como un continuo de instantes. Pero, curiosamente, los resultados de la física cuántica arrojan dudas sobre si el mundo físico “realmente” es continuo… (el cuanto h de Planck muestra una discontinuidad fundamental, el carácter discreto de las interacciones).

19

problema de las paradojas se sumó al problema de las críticas constructivistas, dando lugar a esa

situación de “crisis” que hubo entre 1905 y 1930.

Discutimos brevemente el sistema axiomático de Zermelo, que mostró cómo era posible

axiomatizar la teoría de conjuntos. Los axiomas de Zermelo incluían aquellos principios discutibles

que vimos más arriba, pero al menos se pudo mostrar que evitaban todas las paradojas conocidas. 100

años después, el sistema de Zermelo (conocido como ZFC) sigue siendo utilizado y admirado,

estando de acuerdo los matemáticos en que casi seguro es consistente.

2. Como hemos visto, el logicismo no duró mucho tiempo como una opción viable: los axiomas de

las matemáticas hacen afirmaciones con contenido (“dicen” cosas acerca del mundo) y por tanto no

son simples verdades lógicas, ni verdades necesarias. Los constructivistas, con Brouwer a la cabeza,

trataron de reemplazar la matemática normal por una alternativa más cierta y segura: al no emplear los

principios conjuntistas, pretendían evitar supuestos inciertos y mantenerse cerca de la verdad y de lo

intuitivo. Pero la matemática de Brouwer se ve obligada a renunciar a buena parte del contenido de la

matemática moderna, supone una mutilación del edificio de las matemáticas. Vimos en clase que la

división entre constructivistas y “modernos” sigue existiendo, pero que la mayoría de los matemáticos

no son constructivistas.

Un famosísimo matemático, Hilbert, trató de terciar en todo este asunto, dando una respuesta a los

constructivistas y “eliminando de la faz de la tierra las dudas escépticas sobre las matemáticas”.

Propuso el célebre programa de Hilbert, que consistía en formalizar cada teoría matemática, analizar

formalmente su lógica y la estructura deductiva de esa teoría, para demostrar de manera finita que

cada teoría matemática es consistente. Vimos cómo esto resulta posible porque la formalización de la

teoría convierte en asunto sintáctico y puramente combinatorio (por tanto, asunto finito) todo lo que

tiene que ver con la estructura deductiva de la teoría (aunque la teoría “hable de” el infinito).

El programa de Hilbert se desarrolló mucho, y ha dado lugar a una rama importante de la lógica, y

a la teoría de la computación. Suele asociarse con él la idea de formalismo: la tesis de que la

matemática no es más que un conjunto de sistemas formales; o al menos la justificación de las teorías

matemáticos mediante demostraciones formales de consistencia. Hilbert llegó a decir incluso que la

“existencia” de un objeto matemático se reduce a la consistencia: si la teoría que habla del objeto es

consistente (no contradictoria), eso basta para decir que el objeto ‘existe’.

Sin embargo, en 1931 Gödel hizo la contribución más importante: demostró sus dos teoremas. 1)

El teorema de incompletud de Gödel prueba que los sistemas formales considerados por Hilbert son

incompletos, o sea, que no todas las verdades matemáticas enunciables con los símbolos del sistema

son demostrables. Esta es una limitación esencial de los sistemas formales. 2) El segundo teorema

demuestra que la consistencia de los sistemas formales considerados por Hilbert no puede demostrarse

por medios ‘aritméticos’, ni en particular por medios finitos.

20

Esto dio el golpe de gracia al programa de Hilbert. La teoría axiomática de Zermelo, y muchas

otras teorías matemáticas, se quedaron sin justificación formal. Y sin embargo, siguen siendo la base

de las matemáticas.

3. Todo esto sugiere que la matemática moderna no es un simple “cuerpo de verdades”, ni se basa

estrictamente en lo cierto y lo necesario. Aunque algunas partes elementales de las matemáticas

consistan en puras certezas (lo que sabemos de los números: 7+5 = 12, o que existen infinitos

números primos), la matemática avanzada se basa en hipótesis. Esto plantea un problema filosófico

fundamental, y afecta a la comprensión de los modelos que emplea la física, etc.

4. Todo ello, y otros argumentos (ver los apuntes), muestra que las matemáticas no consisten en

verdades analíticas, y que la diferencia entre las matemáticas y las ciencias naturales no coincide con

la distinción entre lo formal y lo empírico.

1

top related