introducción a la filosofía de la ciencia parte ii
TRANSCRIPT
1
Notas del Curso
FILOSOFÍA DE LA CIENCIA
Parte II
Profesor José Ferreirós Reproduzco a continuación las Notas preparadas para el curso 2002/03 que impartí en la Facultad de
Filosofía de la Universidad de Sevilla. Quiero dar las gracias a los alumnos de Sevilla, que recibieron mis
clases y me estimularon con sus dudas y sus preguntas. En algún momento tuve intención de preparar un
manual introductorio sobre la base de estos apuntes, pero en este momento prefiero darlos a conocer tal cual
están, pues dudo que encuentre el tiempo y las ganas para revisarlos y desarrollarlos. Ojalá sirvan para
introducir a los lectores interesados en este campo.
El enfoque que he seguido se aleja un tanto de los que son más habituales. En aquel año de 2002 decidí
organizar mis explicaciones de manera temática y suprimir intencionalmente la exposición según escuelas
en orden cronológico. Pero, a la vez, los temas elegidos reflejaban mis propias preferencias, de manera que
el lector puede echar en falta ciertas temáticas que otros priorizan: tal ausencia es, como digo, intencional.
© José M. Ferreirós Domínguez, 2002
3
3. Teorías matemáticas y científicas.
1. Lo analítico y lo sintético: contra la distinción entre ciencias “formales” y “empíricas”.
Los manuales más habituales de filosofía de la ciencia comienzan aclarando que van a estudiar sólo
las “ciencias empíricas”, dejando a un lado las llamadas “ciencias formales”. Esta distinción se
presenta a menudo como si fuera obvia, pero lo cierto es que está lejos de tener una justificación
sólida. En parte, la distinción responde al hecho de que hay ciertas diferencias importantes entre los
métodos de las ciencias naturales y los de las matemáticas: en matemáticas no hay experimentos de
laboratorio, no se trabaja directamente con fenómenos del mundo real. Pero, aun suponiendo que esto
fuera totalmente claro,1 no bastaría para aislar tajantemente unas ciencias de otras, sobre todo porque
los métodos de las matemáticas se emplean también en las ciencias naturales, cuando los científicos
teorizan. Lo peor del caso es que los nombres “formal” y “empírico” están muy cargados de
connotaciones que, como veremos, oscurecen mucho más de lo que aclaran.
Quienes han intentado justificar a fondo la distinción formal/empírico, lo han hecho al estilo de
Wittgenstein en su Tractatus logico-philosophicus. Aquí se dice (prop. 6.2 y siguientes) que la
matemática “es un método lógico” que consiste fundamentalmente en trabajar con ecuaciones y
realizar en ellas sustituciones. Ya antes se ha manifestado que la lógica sólo contiene tautologías, y
que por tanto los enunciados de la lógica “son las proposiciones analíticas” y “no dicen nada” acerca
del mundo (6.1 y 6.11). Como acertadamente resume Wittgenstein, desde este punto de vista las
proposiciones matemáticas “no expresan ningún pensamiento” (6.21). Se trata de una manera de
pensar que tiene cierto atractivo y que influyó muy poderosamente en el Círculo de Viena, por
ejemplo en Carnap. Como puede verse, lo característico de las “ciencias formales” (lógica y
matemáticas) se expresa diciendo que tratan sólo de tautologías, de proposiciones analíticas. Por
desgracia, es un planteamiento totalmente incorrecto e insostenible, como se ha revelado en el
desarrollo posterior de la filosofía de la ciencia.
Para verlo, necesitamos primero que nada aclarar los términos “analítico” y “empírico” (o
sintético). La idea aparecía ya en Leibniz de un modo muy claro, y luego en Hume, hasta que Kant
dio las definiciones que más solemos citar:
Def. (provisional). Un enunciado es analítico cuando el concepto expresado por el predicado está ya
contenido en –es implicado por– el concepto expresado por el sujeto.
1 No lo es, porque también en matemáticas hay experimentación (piénsese hoy en el empleo de simulaciones por computador),
aunque los prejuicios tradicionales tendieron a oscurecer ese hecho.
4
Ejemplos serían enunciados como “todo cuadrado tiene cuatro ángulos”, y también “todo cuerpo es
extenso” (porque, según Kant, el concepto de cuerpo incluye ya el atributo de ser extenso). En
cambio, enunciados como “en todo triángulo la suma de sus ángulos es 180º” o “todo cuerpo es
pesado” no simplemente explicitan el significado del sujeto, sino que aumentan nuestro conocimiento.
A este tipo de enunciados los llama Kant “sintéticos”, si bien muchos autores del XX los identifican
directamente como “empíricos”. [Aquí hay un detalle importante: para Kant, una parte importante de
los enunciados sintéticos no son empíricos; volveremos a esto luego, pero el hecho es que Carnap y
otros no aceptan esta tercera posibilidad en la que insistía Kant.]
Como vemos, los enunciados analíticos no dicen nada nuevo, no aumentan nuestra información (al
menos en principio: quizá le digan algo nuevo a una persona concreta, pero sólo porque no se había
parado a reflexionar sobre el concepto expresado por el sujeto). En cambio, los enunciados sintéticos
aumentan nuestra información, dicen cosas acerca del mundo, expresan verdaderos pensamientos.
Esto tiene una consecuencia que señalaba siempre Leibniz: las verdades analíticas son necesarias,
porque su opuesto (p.e. un cuadrado que no tenga cuatro ángulos) es imposible; en cambio, las
verdades empíricas son contingentes, y su opuesto es posible al menos desde el punto de vista lógico.
La definición que propuso Kant tiene un problema grave, y es que al basarse en la vieja lógica de
Aristóteles resulta demasiado limitada y no puede aplicarse a los casos interesantes en ciencia.2 La
lógica aristotélica no sirve para analizar enunciados en los que aparezcan relaciones, ni tampoco
enunciados de una cierta complejidad. Por dar un ejemplo sencillo: ¿qué hacemos con la proposición
“si a es un número natural y un cuadrado, entonces √a es un número natural”? ¿o incluso con una
proposición más mundana como “si Mengano es primo de Fulano, entonces Fulano es primo de
Mengano”? ¿o con “La obra del príncipe de los ingenios es la obra de Cervantes”? Estos (al menos el
primero y el tercero) son casos de enunciados analíticos, pero no se les puede aplicar la limitada
definición de Kant.
Este problema lo vio ya Frege hace 120 años, y le dio solución en su libro Los fundamentos de la
aritmética, recogiendo muy bien el espíritu de las ideas de Kant y Leibniz:
Def. Un enunciado es analítico si, empleando solo simples definiciones de los términos que aparecen
en él, es posible reducirlo a una ley lógica, o sea, transformarlo en un enunciado lógicamente válido.
Empleando nada más que el significado estándar de “príncipe de los ingenios”, y las definiciones de
cuerpo (según Kant), de cuadrado, y de número cuadrado, sin más que sustituirlas en las frases de
2 Un caso interesante sería la primera ley de Newton: “Todo cuerpo, que no esté bajo la acción de fuerzas
impresas (externas), persevera en su estado de reposo o de movimiento rectilíneo uniforme”. Para analizar la lógica de este enunciado no basta “todo A es B”, sino que deberíamos usar algo así como: ∀x (Cx ∧ ¬∃y Fyx →
5
arriba, obtenemos: “Toda sustancia extensa es extensa”, “Toda figura plana de lados rectilíneos y
cuatro ángulos iguales tiene cuatro ángulos”, “La obra de Cervantes es la obra de Cervantes”, y por
último “Si a es un número natural y existe otro número natural b tal que b2=a, entonces b es un
número natural”. En todos los casos hemos enunciados que son casos particulares de puras leyes
lógicas. (Ejercicio: verificad los detalles de estas transformaciones.)
Una vez que tenemos la definición refinada que dio Frege, la idea de proposición analítica parece,
pues, muy clara y fácil. Y acabamos de dar buenos ejemplos de verdades analíticas. ¿Cuál es entonces
el problema con esa idea? En último término, los problemas derivan simplemente de un supuesto
tácito que hacían Leibniz, Hume, Wittgenstein y Carnap: suponían que el conjunto de las verdades se
divide nítidamente en dos partes, una consistente en enunciados analíticos, y la otra consistente en
verdades empíricas. Suponían que todas las verdades que no son analíticas, son puramente empíricas,
sin que haya una tercera posibilidad.3 Pero esto no es en absoluto admisible. Veamos por qué.
Quine escribió en 1951, desde un punto de vista estrictamente empirista, un artículo en el que
afirmaba que la dicotomía tajante entre verdades empíricas y analíticas no era más que un “dogma”,
un “metafísico artículo de fe” para Carnap y sus seguidores.4 El trabajo causó sensación y lanzó a
Quine a la fama. La estrategia que siguió para argumentar es algo que seguramente conocéis a través
de los cursos de filosofía del lenguaje. Planteaba dificultades a la noción de sinónimo, por lo que
atacaba sobre todo ejemplos como el del “príncipe de los ingenios” que hemos dado más arriba.
¿Cómo sabemos que con esa expresión denotamos precisamente a Cervantes? Se trata de un problema
empírico, y Quine mostraba que a menudo este tipo de problemas resultan oscuros y nada bien
planteados, intratables empíricamente.5 Pero sus argumentos no servían tanto para casos como los
anteriores del cuadrado y de √a (casos que atacaba más bien desde otro punto de vista, en conexión
con el problema del “holismo”, del que hablaremos más adelante).
Aquí no nos interesa tanto entrar en repetir o comentar los sutiles argumentos de Quine, como ligar
la cuestión más directamente con los enunciados centrales de las teorías matemáticas y científicas.
Estas teorías nos muestran a las claras que hay “verdades” que no son ni analíticas ni meramente
empíricas, con lo que el problema de todo esto asunto es precisamente suponer que hay una dicotomía
sencilla, cuando en realidad hay al menos tres clases de enunciados. Y la tercera clase parece
especialmente relevante en las ciencias. La matemática nos ofrece ejemplos muy claros y directos de
enunciados no analíticos ni empíricos. Pensemos en la teoría de conjuntos, que como se sabe ofrece
una base suficiente para desarrollar casi toda la matemática actual, si no toda. Entre otras cosas,
Rx ∨ MRUx), donde C representa el concepto de cuerpo, R el de reposo, MRU el de movimiento rectilíneo uniforme, y Fyx es la relación ‘y ejerce una fuerza sobre x’.
3 Como podeis advertir, Kant no cayó en esta simplificación exagerada, pero su propuesta también encuentra problemas.
4 W. V. O. Quine, Dos dogmas del empirismo, en Desde un punto de vista lógico.
5 Surgía aquí ya el famoso asunto de la “indeterminación de la traducción”, que luego discutió con gran detalle en Palabra y
objeto.
6
usando la teoría de conjuntos podemos definir N, el conjunto de los números naturales. Pero N es un
conjunto infinito, y por eso (entre otras razones) la teoría de conjuntos requiere un axioma que
garantiza la existencia de conjuntos infinitos, llamado axioma de infinitud. No daré aquí la versión
formal del axioma, para evitar complicaciones, sino que basta quedarnos con la idea informal:
postulamos que hay un conjunto con infinitos elementos.
¿Es esto una verdad empírica? Sin duda no, de hecho la física de partículas parece decirnos que
sólo hay una cantidad finita de elementos simples en el Universo, e incluso se ha estimado su número,
resultando que debe ser menor de 10100 (un 1 seguido de cien 0). ¿Es entonces una verdad analítica?
Parece muy dudoso e incluso increíble que lo sea: ¿acaso la existencia de tales conjuntos puede ser un
asunto de simple lógica y definición? La lógica no sabe demostrar la existencia de nada en particular,
y menos algo tan complicado como un conjunto infinito.6 Ese axioma, supuesto que sea verdadero
acerca del mundo, dice mucho de él y sin duda expresa un pensamiento (contra lo que decía
Wittgenstein). Para confirmar nuestras sospechas, hay una corriente de matemáticos que rechazan la
matemática infinitista, y consideran que ese supuesto axioma es injustificable. Esta afirmación
implica que no es analítico. (Por cierto: “Si algo no es justificable a priori, entonces no es analítico”
es una proposición analítica, entendiendo que “a priori” no quiere decir aquí más que “de modo
puramente lógico, usando solo definiciones”.)
Los ejemplos del mismo tipo se pueden multiplicar. Quien conozca la teoría de conjuntos sabrá lo
que es el axioma de elección, caso obvio de una proposición que no es analítica, ni tampoco empírica
(el propio Russell no se atrevía a considerarlo como un verdadero axioma). Pero incluso si
prescindimos de los conjuntos y nos quedamos con los simples números, pasa lo mismo. En el caso de
los números reales, el axioma de continuidad es cualquier cosa menos analítico.7 ¿Y qué pasa si nos
restringimos a lo más simple y elemental, los números naturales? Aquí, con una insistencia realmente
increíble, vuelve a pasar lo mismo: el axioma de inducción no puede tampoco verse como una
proposición analítica; ya Poincaré (hace un siglo) tuvo el buen ojo de fijar su atención en este asunto.
(El axioma de inducción dice que si 1 tiene una cierta propiedad P, y si del hecho que un número n
cualquiera tiene P se sigue que n+1 también es P, entonces todos los números tienen la propiedad P.)
Así pues, cuando utilizamos ciertas ideas y lenguaje matemáticos para analizar fenómenos reales,
como sucede en todas las ciencias, no estamos simplemente empleando algo analítico o tautológico,
algo transparente. Los enunciados de la matemática, contra lo que dice el Tractatus, expresan
pensamientos. Ya sólo esto es bastante para sacar la conclusión de que la distinción entre ciencias
6 En lógica con identidad se puede demostrar que existe al menos una cosa: ∀x (x=x), pero eso es lo más a que se llega.
7 Ese axioma solo puede verse como empírico si estamos dispuestos a analizar los números (al modo de Frege en sus últimos
años) como subproductos de la geometría, y si además le concedemos a Newton que el espacio es una cosa real, un algo sustancial. No podemos, en un curso como este, entrar en el dificilísimo tema que es la filosofía del espacio y el tiempo, pero recordemos que la posición contraria a Newton, que se llama relacional y fue defendida por Leibniz, no solo es la habitual hoy en matemáticas, sino también la que parece abonar la teoría de la relatividad.
7
“formales” y “empíricas” es una engañifa. Esa falsa dicotomía nos impide ver y pensar problemas
muy importantes y profundos en filosofía de la ciencia. Pero aún hay más.
También en el campo de la física nos encontramos con proposiciones que no son analíticas ni
empíricas. Ejemplos claros y de todos conocidos son las leyes de Newton, especialmente la primera
(ver nota más arriba) y la segunda, que se suele resumir en la fórmula f = m·a. El caso es que estos
importantes enunciados no pueden verse como simples proposiciones empíricas (hablaremos de esto
un poco más adelante), ni tampoco como estipulaciones del significado de conceptos como el de
fuerza. Son en parte empíricas y en parte estipulativas, pero desde luego dicen cosas acerca del
mundo.
Pensemos en la primera ley de Newton, que habla del estado de reposo y de movimiento rectilíneo.
Los físicos dicen que esta ley delimita la clase de los sistemas inerciales, sistemas cuyo estado de
movimiento no requiere explicación. Autores como Aristóteles y como el propio Kepler pensaban que
si un cuerpo está en movimiento en línea recta y a velocidad uniforme, tiene que ser porque actúa
alguna causa. En cambio, Descartes y Newton plantearon como axioma que el movimiento rectilíneo
uniforme (MRU) es algo –en cierto modo– “del mismo tipo” que el reposo, un estado de los cuerpos
que no necesita causas (fuerzas) externas para darse. Desde luego, semejante afirmación no es
analítica: no basta acudir al significado de “cuerpo en MRU” para deducir lógicamente que esos
cuerpos no están bajo la acción de fuerzas externas. Pero, como ya veremos, resulta también que no es
posible idear ningún experimento que sirva para contrastar la verdad de la primera ley de Newton,
como una afirmación aislada. Así que no es un enunciado analítico ni empírico.
*
Si abandonamos la dicotomía analítico/empírico, y aceptamos también que la peculiaridad de las
matemáticas no la convierte en algo separado de las ciencias naturales, entonces ya no hay ninguna
razón para mantener la distinción entre ciencias formales y ciencias empíricas. Más aún, si ciencias
como la física dependen de enunciados como la primera y la segunda leyes de Newton, entonces está
claro que no son ciencias “meramente empíricas”. Por eso decíamos antes que la distinción confunde
mucho más de lo que aclara.
¿Cómo hay que entender entonces lo que aporta la matemática? Desde el punto de vista que
desarrollamos en este curso, podemos decir simplemente que la matemática es una parte esencial (y
llena de contenido) de la actividad teórica de las ciencias. Por eso este es el capítulo apropiado para
decir algo al respecto. Y lo primero que conviene aclarar, por la importancia que tiene en la
matemática actual, pero también por la importancia que ha tenido históricamente para la filosofía, es
la cuestión del método axiomático. Luego hablaremos también de la contribución que realizan los
matemáticos al explorar, analizar y refinar modelos teóricos posibles de los fenómenos reales.
8
2. La axiomatización de teorías: nociones primitivas y axiomas, definiciones y
demostraciones. Funciones de la axiomatización: sistemas formales y estructuras
El método axiomático fue una gran invención de los griegos, una novedad metodológica que resultó
extraña a muchas otras culturas.8 El principal modelo de aplicación del método axiomático fue,
durante más de dos mil años, el libro Elementos de Geometría de Euclides (c. 300 a.C.). También hay
reflexiones filosóficas muy importantes sobre la ciencia y el método axiomático en el Organon de
Aristóteles, y concretamente en el libro llamado Analíticos segundos. Pero aquí voy a preferir no
hablar de Aristóteles, porque su posición tiene matices filosóficos que la hacen especial y que la
separan del método axiomático moderno.
La forma en que Euclides había establecido la geometría mediante el método axiomático estableció
un modelo de ciencia que tuvo enorme repercusión durante toda la época moderna. Ejemplos de su
importancia y de la huella que dejó se encuentran en las principales obras de Kepler, Galileo,
Descartes, Hobbes, Spinoza, Newton y Leibniz, por nombrar sólo unos pocos.
Para describir en qué consiste la axiomática, podemos hacerlo siguiendo un orden ideal, puramente
lógico, o bien un orden histórico-genético. Vamos a empezar en el segundo estilo, describiendo cómo
y por qué surgen los sistemas axiomáticos.
En la práctica, el método axiomático sólo puede aplicarse cuando un campo del conocimiento está
bastante desarrollado en el sentido siguiente. Se dispone de un cuerpo de ciencia que está poco
organizado, pero en el que conocemos una gran cantidad de resultados (proposiciones), expresados
mediante una gran cantidad de conceptos distintos. En esa situación, nos interesará sistematizar
nuestro conocimiento, analizar cuáles son las interrelaciones entre las partes, discriminar aquello que
podría llamarse lo esencial de lo que podríamos considerar secundario.
Los griegos aprendieron que todos esos objetivos se pueden lograr estableciendo un orden o
encadenamiento deductivo entre las proposiciones que forman el cuerpo de conocimiento. Su
descubrimiento más importante fue que era posible establecer algunas proposiciones de ese cuerpo, de
una manera que no dejaba lugar a dudas, deduciéndolas o demostrándolas sobre la base de otras
proposiciones más simples o más fáciles de aceptar. Así, algún miembro de la escuela pitagórica
demostró el llamado “teorema de Pitágoras” sobre la base de verdades más simples acerca de
triángulos y cuadrángulos:
Diagrama de la famosa demostración que da Euclides del
teorema de Pitágoras. (Libro I de los Elementos, proposición
48)
8 Por ejemplo, a los chinos (a pesar de toda su sofisticación y sus conocimientos matemáticos, entre ellos el propio teorema “de
Pitágoras”) les costó mucho entender cuál era la intención de Euclides.
9
Como puede verse, es totalmente diferente del teorema en su
formulación algebraica moderna:
AB2 + CA2 = BC2
(Esta fórmula trabaja con números, Euclides trabajaba con
figuras.)
Descubrieron así que bastaba aceptar algunas proposiciones acerca de triángulos, para llegar a la
conclusión de que el cuadrado construido sobre la hipotenusa es igual a la suma de los cuadrados
sobre los catetos. Esto último era una consecuencia lógica de lo primero.
Una persona ingenua podría pensar que este método debería aplicarse a todas las proposiciones de
la ciencia. Todas y cada una de ellas deberían ser demostradas a partir de otras verdades. Pero basta
pensarlo un minuto para darse cuenta de que este proceder resulta imposible: si la proposición 1 se
demuestra gracias a la 2, y la 2 gracias a una tercera, y la 3 gracias a una cuarta, y así
sucesivamente… ¡nunca alcanzamos un punto de partida, un principio, sino que nos vemos remitidos
al infinito! Esto es algo que los geómetras griegos tenían claro, y que Aristóteles explica con toda
claridad en sus Analíticos.
Como dijo Pascal, tal proceder ideal quizá sea adecuado a Dios (un ser infinito), pero se trata de un
camino imposible para los hombres. Pero esto no debe llevarnos al extremo opuesto, a no buscar
ninguna demostración. No: el camino intermedio consiste en buscar algunas proposiciones de partida,
que llamaremos axiomas, y que intentaremos reducir al número más pequeño. Dichas proposiciones
se aceptan como válidas sin demostración, pero todo lo demás será estrictamente deducido o
demostrado a partir de los axiomas. Cada proposición que logremos demostrar de esa manera, se
llamará un teorema.
Al llevar a la práctica en detalle esta idea, los griegos se dieron cuenta de que también era
necesario reducir los muchos conceptos que uno estaba empleando al principio. Descubrieron que la
mayor parte de estos conceptos podían ser definidos en términos de otros conceptos más simples.
Análogamente a lo que pasa con las proposiciones (que analizamos hasta aislar unos pocos axiomas, y
dejar todo lo demás como teoremas), así pasa también con los conceptos. Después de analizarlos,
encontramos que la mayor parte pueden considerarse como nociones definidas, pero que unos pocos
han de aceptarse como punto de partida para poder empezar. Estos conceptos se llaman nociones
10
básicas o primitivas y se aceptan como conocidos sin definición, mientras que todo lo demás será
estricta y lógicamente definido.9
Las definiciones lógicas o matemáticas no “crean” nada nuevo: nos limitamos a describir algo con
toda precisión (en último término mediante las nociones básicas) y a darle un nombre. Así, en
geometría tenemos las nociones básicas de punto, recta y plano; todo lo demás puede aclararse en
términos de estos tres conceptos.10 Ejemplo:
DEFINICIÓN DE TRIÁNGULO. Dado un plano y tres puntos A, B, C en el plano, que no estén sobre la
misma recta, sabemos (por un axioma) que los puntos pueden unirse dos a dos mediante tres rectas;
llamamos triángulo a la porción del plano que está limitada por los tres segmentos de recta AB, BC y
CA.
Vistas así las cosas, queda claro que el concepto de triángulo puede tratarse como una noción
definida: lo que es un triángulo puede establecerse sin recurrir a nada más que las nociones primitivas
y los axiomas. Más tarde, en definiciones posteriores que introduzcan conceptos más complejos (por
ejemplo, el de tetraedro), podremos utilizar dentro de su definición el concepto de triángulo o
cualquier otro que ya haya sido introducido previamente.
Así, igual que hay cadenas de demostraciones, también las definiciones aparecen encadenadas.
Pero la manera en que procedemos nos garantiza que todos los conceptos definidos son eliminables,
en el sentido de que cualquier proposición de la geometría podría expresarse sólo en términos de
puntos, rectas y planos, sin usar ningún otro concepto. (En casi todos los casos, esto sería muy
engorroso, no entenderíamos lo que estamos diciendo; pero se trata de una limitación nuestra
psicológica, no lógica.) De manera análoga, los teoremas de una ciencia axiomatizada no crean ni
introducen nada nuevo: se limitan a establecer y hacer explícito algo que estaba ya contenido
(lógicamente, aunque de manera implícita) en los axiomas.
El hecho es que los sistemas axiomáticos de la matemática siempre aparecen después de que se
haya empezado a trabajar con ideas y resultados de un cierto campo: los matemáticos, en la práctica,
nunca han trabajado de un modo puramente lógico, si esto significa comenzar por las nociones básicas
y los axiomas. Aunque resulte curioso, en los casos más importantes han transcurrido cientos de años
antes de que se formulara una axiomatización satisfactoria. Antes de Euclides, los griegos llevaban
unos 200 años haciendo geometría. Los números reales se empezaron a utilizar seriamente hacia
1600, pero las ideas clave de su sistema axiomático no aparecieron más que 270 años más tarde. Y el
caso más llamativo es el de los números naturales, que se han empleado durante al menos 10.000 años
sin axiomatizarlos.
9 Uno de los defectos de los Elementos de Euclides es que no trató suficientemente bien este tema de las nociones primitivas y las
definidas. Así, parte de lo que llama “definiciones” al principio del libro, no hacen más que nombrar las nociones básicas y dar de ellas explicaciones vagas y difusas. Las verdaderas definiciones vienen luego.
10 Estoy simplificando: hacen falta además algunas relaciones básicas, como la relación de estar un punto sobre una recta.
11
Vale la pena que nos detengamos en este ejemplo. Todos sabemos lo que son los números
naturales 1, 2, 3… y sabemos bastantes cosas acerca de ellos. Por ejemplo, conocemos que todo
número natural se puede descomponer en un producto de factores primos (un ejemplo cualquiera: 630
= 2 · 32 · 5 · 7); a esa proposición se le llama el teorema fundamental de la aritmética, por su enorme
importancia en la teoría de los números. Sabemos cómo se opera con los números sumando,
multiplicando, etc., y que estas operaciones tienen ciertas propiedades como la conmutativa (a + b =
b + a), la asociativa (a + (b + c) = (a + b) + c), etc. También se conocen desde hace mucho tiempo
otras propiedades de los números. Euclides demuestra muchas de ellas en algunas partes de los
Elementos; por ejemplo, demuestra rigurosamente y de un modo muy elegante que existen infinitos
números primos (que dada una cantidad cualquiera de números primos, siempre existe otro más).
Todo este cuerpo de conocimiento se puede presentar en forma axiomática, aunque curiosamente los
hombres hemos conocido los números naturales durante miles de años, sin que se sintiera la necesidad
de axiomatizarlos. Seguramente la razón es que su teoría y sus propiedades resultaban tan claras, que
no se sentía esa necesidad, pero el caso es que hacia 1890 dos matemáticos, Dedekind y Peano,
mostraron cómo caracterizar axiomáticamente los naturales.
El concepto de número primo, que hemos estado mencionando, resultó ser una noción definida:
todos sabemos que un número natural es primo si sólo es divisible exactamente (sin resto) por 1 y por
sí mismo. Tenemos pues una idea de cómo definir “primo”, pero para ello necesitamos emplear la
noción de “dividir exactamente”. Si lo pensamos, veremos que también ésta es una noción definida: a
divide exactamente a b si y sólo si existe otro número, c, tal que a · c = b. Continuando la reflexión de
esta manera, podemos llegar a la conclusión que extrajeron Dedekind y Peano: para los números
naturales, basta emplear como nociones primitivas o básicas la del primer número (que denotamos
con el símbolo 1) y la del sucesor de un número (que denotamos escribiendo una prima: n´). Entre los
axiomas de Dedekind–Peano encontramos requisitos que son tan simples como estos:
2) Todo número tiene un sucesor. ∀x∃y (y = x´)
4) Dos números distintos no pueden tener el mismo sucesor. ∀x∀y (x´=y´ → x=y)
También hay algún axioma más complicado y delicado, como el axioma de inducción (que ya se
mencionó hace unas páginas). Alguien puede preguntarse: ¿y dónde quedan los conceptos de suma y
de producto? Es fácil definirlos sobre la base de la noción de sucesor, mediante un expediente
ingenioso (lo que se llama una “definición recursiva”), en dos partes:
a) n + 1 = n´
b) n + m´ = (n + m)´.
Con estas dos condiciones, queda perfectamente aclarado lo que es la suma de dos números, y de un
modo análogo (sobre la base de la noción de suma) se define el producto. De los axiomas de
Dedekind–Peano se puede extraer toda la aritmética de los naturales, incluyendo las propiedades de
las operaciones, el teorema fundamental citado arriba, y muchas cosas más.
12
En resumen, un sistema axiomático es el resultado de someter a un análisis lógico cuidadoso las
proposiciones de un cuerpo de conocimiento. Al final logramos extraer algo así como la esencia de
todo ese conocimiento, que son las nociones básicas y los axiomas (“esencia” en el sentido de la
perfumería: los axiomas son algo así como un pequeño frasquito que contiene “en potencia” todo el
perfume de la teoría). Sobre esa base, todo lo demás se obtiene mediante aplicaciones de principios
lógicos. De esta manera se va desarrollando una estructura definicional y una estructura
demostrativa, que despliegan todo el contenido del cuerpo de conocimientos. Desde luego, encontrar
una demostración o una buena definición es muy difícil y requiere mucho ingenio, pero seguirlas y
comprobar que están bien hechas es una tarea simple.
No hay que pensar que lo único que se logra de esta manera sería una especie de placer sádico,
propio de aquellos a los que les gusta someterlo todo a control lógico. Antes de axiomatizar, no
sabíamos bien cuáles eran las relaciones entre unos teoremas y otros, entre unas partes de la teoría y
otras. No podíamos saber tampoco si éramos conscientes de todos los axiomas o principios que se
presuponen en la teoría. (Por ejemplo, David Hilbert hizo explícitos un buen número de axiomas que
no aparecían en los Elementos de Euclides, algunos de los cuales son realmente importantes; una
presentación muy rigurosa de la geometría apareció en 1899 en el libro de Hilbert, Fundamentos de la
geometría.) Y aún hay otros frutos más sofisticados que se obtienen al axiomatizar; sobre esto puede
aprenderse mucho en la obra de Tarski citada más abajo.
*
Vamos ahora a considerar las cosas desde el punto de vista puramente lógico. Para establecer su
sistema axiomático, Euclides empleaba tres cosas: “definiciones”, “nociones comunes” y
“postulados”. Ya hemos visto antes que su modo de usar las “definiciones” es muy poco preciso,
como sabían bien los matemáticos y filósofos modernos (Pascal, Leibniz, y otros). En cuanto a lo que
Euclides llamaba “nociones comunes”, son principios que tienen carácter lógico, o que corresponden
a una teoría muy general de las cantidades (magnitudes). Su terminología no nos resulta hoy útil, pero
sigue siendo cierto que necesitamos tres tipos de cosas: un marco lógico (si quereis, análogo a las
“nociones comunes”), nociones primitivas (análogo a algunas de las “definiciones” de Euclides), y
axiomas (análogo a los “postulados”).
El sistema axiomático se construye sobre una base lógica, que en matemáticas es siempre la lógica
de primer orden (que estudiásteis en 2º). La lógica de primer orden contiene todos los principios
lógicos que son necesarios para formular los axiomas, para definir nuevos conceptos, y para
demostrar los teoremas matemáticos. Pero las nociones de la lógica no son nociones de la geometría
ni de ninguna otra ciencia particular: son “comunes” a todas las disciplinas, igual que sus principios o
leyes son “principios comunes”.
Esa base lógica se enriquece introduciendo nuevos predicados o relaciones, que se corresponden
exactamente con las nociones primitivas. (Por ejemplo, P(x) puede representar que x es un punto, y
13
R(x) puede representar que x es una recta.) Además, se postulan como premisas para todo el sistema
algunas proposiciones formuladas en el lenguaje lógico enriquecido con las nociones primitivas: son
los axiomas. Por ejemplo, un axioma geométrico dice que, dados dos puntos, existe una recta que los
une. Para expresarlo, empleamos la relación básica ES(x,y), que leeremos: ‘el punto x está sobre la
recta y’. Podemos escribir:
P(x) ∧ P(y) → ∃z [R(z) ∧ ES(x,z) ∧ ES(y,z)].
Esto es un axioma y dice exactamente que, si x e y son puntos, entonces existe una recta z tal que x e
y están sobre z. El siguiente es el famoso axioma de las paralelas (escribo parte en palabras para
simplificar, aunque por supuesto todo puede y debe ponerse en símbolos lógicos).
Sean x un punto, y una recta que están en el mismo plano, entonces
¬ES(x,y) → ∃z [R(z) ∧ ES(x,z) ∧ ¬C(y,z)]
{faltaría escribir además: “y z está en el mismo plano”}.
La parte en símbolos –he usado C(y,z) para el predicado: “la recta y corta a la recta z”– se lee: si x no
está sobre y, entonces existe una recta z, sobre la que está el punto x, tal que y no corta a z en ningún
punto. (Revisad que entendéis por qué lo escrito en símbolos puede leerse así.)
Ahora, a partir de los axiomas vamos obteniendo teoremas cada vez más complejos, en un
encadenamiento deductivo. Cada paso de la demostración de un nuevo teorema no es más que la
aplicación de alguna regla deductiva de la lógica, o la aplicación de un axioma (también puede ser la
aplicación de un teorema deducido anteriormente). A la vez, vamos introduciendo conceptos cada vez
más complejos, en un encadenamiento de definiciones. La construcción de un nuevo concepto no es
más que aplicar construcciones lógicas sobre la base de nociones primitivas o bien de conceptos
definidos anteriormente. (Muchas veces estas construcciones presuponen la verdad de alguna
proposición, pero esta proposición será siempre, o bien un axioma, o bien un teorema demostrado
anteriormente.)
Veamos otro ejemplo de sistema axiomático: la aritmética de Dedekind–Peano. De nuevo, aquí
tenemos un marco lógico, nociones primitivas y axiomas. El marco lógico es el mismo que antes, la
lógica de primer orden, pero naturalmente las nociones primitivas y los axiomas son distintos (¡por
algo es otra teoría!). Las nociones primitivas que necesitamos, en una presentación totalmente
rigurosa son: la constante 1, la función sucesor s(x), y los conocidos signos de operación + y · (de
momento, estos signos no “quieren decir” nada: son los axiomas los que les asignan un cierto
contenido). En lugar de presentar el sistema de una forma totalmente rigurosa, me limitaré a dar los
axiomas tal como los planteó Peano:
14
1) 1 es un número natural.
2) Todo número tiene un sucesor. ∀x∃y (y = x´)
3) 1 no es sucesor de ningún número natural. ∀x ¬(x´=1)
4) Dos números distintos no pueden tener el mismo sucesor. ∀x∀y (x´=y´ → x=y)
5) Si 1 tiene una cierta propiedad P, y si del hecho que {P(1) ∧ ∀x [P(x) → P(x´)]} → n tiene P se sigue que su sucesor n´ también tiene P, entonces ∀xP(x) todos los números tienen la propiedad P.
Si esto fuera un curso de fundamentos de la matemática o de lógica matemática, tendríamos que
aclarar más cosas, porque la formulación que dio Peano no acaba de precisar todas las sutilezas del
asunto. (Peano trabajó sus axiomas entre 1889 y 1898, pero la lógica matemática no estuvo totalmente
madura hasta los años de 1920.)
* *
El desarrollo del método axiomático en los últimos dos siglos es lo que ha conducido a la lógica
contemporánea. Esto se debe a que, poco a poco, se fue tendiendo a expresar todas las demostraciones
en un lenguaje simbólico, para asegurarse de que todos los axiomas y todos los principios deductivos
que se empleaban habían quedado explícitos (para asegurarse de que nada quedaba “fuera de
control”). En esto se interesaron especialmente Frege y Peano hacia la década de 1880, y se vieron
llevados a analizar los principios deductivos de la lógica, creando la lógica simbólica o lógica
matemática. (Frege la llamó “ideografía” o “lenguaje conceptual”.)
Ya antes de esto, el método axiomático había llevado a descubrimientos nuevos y sorprendentes,
como que existen sistemas de geometría no euclideos. En el caso más simple, se trata de sistemas
axiomáticos de geometría totalmente rigurosos y lógicamente perfectos, en los cuales no se cumple el
famoso axioma de las paralelas (postulado V de Euclides; ver arriba). Fue una gran novedad que
resultó difícil de aceptar para los matemáticos, los científicos y los filósofos. Hasta entonces se creía,
ingenuamente, que sólo hay una geometría conceptualmente posible, y que es precisamente la misma
que la geometría del mundo físico. No es de extrañar que la matemática fuera el refugio de los
racionalistas, porque parecía un caso en el que lo puramente racional encajaba a la perfección con lo
real.
Al descubrir que hay geometrías alternativas, radicalmente distintas entre sí, pero todas ellas
consistentes y aceptables matemáticamente, fue obligado sacar una conclusión importante. Las teorías
axiomáticas no son cuerpos de verdades, porque si la geometría euclidea es verdadera (del mundo
físico) automáticamente las demás geometrías tienen que ser falsas. Kant todavía pensaba que los
axiomas “son principios sintéticos a priori, en cuanto que son inmediatamente ciertos” y evidentes
(Crítica de la razón pura, B 760). Pero este ya no es el significado de la palabra “axioma” en la
15
matemática actual. Axioma es simplemente una proposición que se toma como base o premisa de un
sistema deductivo, y que por tanto no es demostrable en ese sistema.
El descubrimiento de las geometrías no euclideas fue relativamente fácil desde el punto de vista
matemático: no había grandes dificultades técnicas en el tipo de cálculos, etc. que hicieron falta. Pero
la mayoría de los matemáticos tardaron unos 40 años en tomarse la cosa en serio. La razón, creo, es
que el paso resultaba muy difícil desde el punto de vista conceptual o filosófico. Exigía aceptar que
los principios y los teoremas matemáticos no son automáticamente verdades acerca del mundo, y esto
constituía una ruptura muy fuerte con toda la tradición, desde Platón a Kant, desde Euclides a
Descartes, Newton y Euler. Por eso, este desarrollo reciente de la axiomática es también un modelo de
la nueva concepción del conocimiento matemático y del conocimiento científico que se ha establecido
en el siglo XX: abrió el camino hacia el falibilismo.
Un detalle más: no hay nada sagrado en los axiomas que se emplean en un sistema deductivo
particular, porque siempre es posible axiomatizar de varias maneras. El mismo cuerpo de teoría puede
reducirse a varios conjuntos de nociones primitivas y de axiomas diferentes. La misma proposición
que era un axioma en cierta axiomatización, puede ser un teorema en otra. En la práctica, se escogen
los axiomas que parecen más claros o más fáciles de explicar, o bien los que resultan ser más
cómodos a la hora de desarrollar la teoría demostrando teorema a teorema.
* * *
Cuando el método axiomático moderno, basado en la lógica simbólica, estuvo totalmente
desarrollado, fue necesario distinguir de una manera muy estricta entre sintaxis y semántica. La
sintaxis de un sistema deductivo es un lenguaje puramente formal, que debemos hacer explícito sin
atender al significado de los símbolos. Damos una lista de todos los símbolos (lógicos y no-lógicos)
que van a formar parte del lenguaje, y determinamos una serie de reglas de formación de expresiones.
Estas reglas nos permiten formar todas y cada una de las expresiones lícitas del lenguaje formal,
incluyendo las proposiciones, y entre ellas los axiomas y los teoremas (también las proposiciones
falsas, en el sentido de ser negaciones de teoremas). Se trata de reglas mecánicas, que puede aplicar (y
también verificar) un hombre o un computador.
Para que pueda hablarse de sistema deductivo, tiene que haber también un conjunto exhaustivo de
reglas de deducción. Estas forman parte del sistema lógico que sirve como base para la
axiomatización (y las habéis estudiado en 2º). Se trata también de reglas mecánicas, ya que el
planteamiento es puramente formal o sintáctico. Las teorías axiomáticas son sistemas deductivos. Por
eso se puede programar un computador para que demuestre teoremas mecánicamente.
Así, desde el punto de vista sintáctico, cada proposición de una teoría axiomática no es más que
una ristra de símbolos, que o bien se ha especificado de antemano (axioma) o bien se puede obtener
de los axiomas por medio de las reglas de deducción, al cabo de una cantidad finita de pasos
16
deductivos (teorema).11 Y la teoría completa no es más que la totalidad de las proposiciones (axiomas
y teoremas) demostrables de esa manera.
A los matemáticos, obviamente, les interesan los sistemas deductivos que pueden interpretarse en
términos de números, o figuras, o funciones, o conjuntos, o estructuras, o… Para poder hablar de
interpretación, hay que pasar a la perspectiva semántica (y aquí nos sentimos ya más en casa, porque
la mente humana normalmente trabaja sobre significados); pero hablamos de la semántica de sistemas
deductivos, no de semántica en el sentido habitual. Esto fue la gran creación del lógico polaco Alfred
Tarski, y aquí se introducen nociones nuevas como son las de “modelo” y “verdad”.
Un modelo de un sistema deductivo es una estructura (ya sea real o matemática) que satisface
todos los axiomas del sistema. Una vez que sabemos que una estructura es modelo de un sistema
deductivo (es decir, que los axiomas son satisfechos en ella), sabemos también que todos los teoremas
del sistema son verdaderos en esa estructura. De cada teoría axiomática se pueden ofrecer siempre
varios modelos distintos. Muchas veces la teoría ha sido desarrollada pensando en un modelo
concreto, pero más adelante se descubre que otra estructura muy distinta también puede considerarse
como un modelo del mismo sistema. En la práctica, esto puede ahorrarnos mucho trabajo, y
constituye una de las grandes ventajas de trabajar axiomáticamente.
Considerar modelos es útil por muchas otras razones. En particular, a menudo es fundamental para
estudiar las propiedades que tienen los sistemas axiomáticos como tales; esto es el objeto de la
metateoría, que estudia cada teoría axiomática considerándola como un todo (por así decirlo, “desde
fuera”). Hay tres propiedades metateóricas que deben ser conocidas para todos vosotros: consistencia,
independencia y completud.
Un sistema es consistente si no da lugar a contradicciones, esto es, si no es puede demostrarse en el
sistema ninguna contradicción (la conjunción de una proposición y su negación: p ∧ ¬p). Como la
base lógica que empleamos es la lógica de primer orden, en cuanto un sistema es inconsistente resulta
inservible, porque automáticamente es posible demostrar en él todas las proposiciones que admite la
sintaxis del lenguaje.12 El sistema lo admite todo, o sea, no dice nada concreto. Pues bien, basta que
exista un solo modelo para saber que el sistema axiomático es consistente. ¿Por qué? Si el sistema es
inconsistente, es posible demostrar en él una contradicción, y esa contradicción sería verdadera en el
modelo. Pero ninguna estructura real o matemática hace verdadera una contradicción.13 Luego el
sistema es consistente.
Por desgracia, nadie ha podido demostrar fuera de toda duda que las teorías matemáticas más
básicas (la teoría de los números reales, o la de los conjuntos) sean consistentes. Nadie que las haya
11 Las demostraciones formales no pueden ser infinitas. ¡Tampoco ningún matemático ha presentado nunca una demostración
informal que fuera infinita! 12 Como decían los medievales: ex contradictione quodlibet, de una contradicción se sigue cualquier cosa.
13 Tranquilo, Hegel, no te pongas nervioso. Pero lo cierto es que las contradicciones sólo pueden existir en nuestras teorías y
nuestras opiniones (mejor dicho, en la relación entre éstas y la realidad), no “ahí fuera”.
17
estudiado en detalle espera que resulten ser inconsistentes, pero creo que tampoco ningún matemático
actual espera ver una demostración de este hecho en su vida. Nosotros debemos alegrarnos de ello,
porque a fin de cuentas significa que sigue habiendo trabajo para la filosofía de la matemática: la
justificación del conocimiento matemático no puede darla la propia matemática (contra lo que creía
Hilbert y trató de demostrar con el famoso “programa de Hilbert”).
La independencia es una propiedad del conjunto de los axiomas de un sistema. Se dice que los
axiomas son independientes si ninguno de ellos es demostrable a partir de los restantes, si ninguno
puede convertirse en un teorema. De nuevo hay una relación entre esto y los modelos. Para demostrar
que un axioma es independiente, no hace falta revisar todas las demostraciones formales a partir de
los demás (¡imposible hacer esto!); basta mostrar una sola estructura que sea un modelo de los
restantes axiomas, pero no sea modelo del axioma en cuestión. Este método fue utilizado por Hilbert
en 1899 con su sistema de geometría.
Por fin, la completud es la propiedad del sistema deductivo, en virtud de la cual los axiomas y las
reglas deductivas bastan para obtener todos los resultados del cuerpo de conocimiento tratado.14
¿Cómo se puede saber si el sistema es completo? En algunos casos muy sencillos basta un análisis a
nivel sintáctico, pero casi siempre es necesario recurrir a la semántica, a los modelos. El austriaco
Kurt Gödel demostró en 1930 que la lógica de primer orden (pura, sin ningún principio ni axioma
adicional) es un sistema completo. Pero al formular axiomas dentro de esa lógica, el resultado que
obtienen los matemáticos es normalmente un sistema deductivo incompleto (como sucede con la
aritmética de Peano, o la teoría de conjuntos axiomática, o el sistema axiomático de los números
reales). Este importante resultado se conoce como el primer teorema de incompletud de Gödel, quien
lo demostró en 1931.15
El teorema de incompletud de Gödel establece que los cuerpos de conocimiento que interesan a los
matemáticos incluyen más proposiciones que las demostrables dentro de un sistema deductivo formal.
Establece una limitación muy importante respecto a lo que puede lograr la formalización, lo que
pueden dar de sí los sistemas formales. Pero no se trata de ninguna paradoja extraña, y mucho menos
de una paradoja respecto a la mente (se han dicho bastantes tonterías a propósito de los resultados de
Gödel).
3. Más allá de lo cuantitativo: condiciones y características de la modelización matemática.
14 La descripción que acabo de dar es un tanto imprecisa. Estrictamente, hay que hablar de “completud sintáctica” o de
“completud semántica”, y son dos cosas distintas. 15 Sobre este tema hay un buen capítulo en el libro de Daniel Quesada, La lógica y su filosofía, y, desde un punto de vista muy
distinto, la cuestión aparece en una novela magnífica del griego A. Doxiadis: El tio Petros y la conjetura de Goldbach.
18
Consideraremos a continuación cuál es el papel que desempeña la matemática en los modelos teóricos
de la ciencia. Algunos epistemólogos clásicos de gran importancia han expresado la idea de que toda
ciencia digna de ese nombre debe estar matematizada. Podemos encontrar la idea en Comte, pero ya
antes Kant lo dijo así: “Yo sostengo que en toda teoría particular de la naturaleza sólo puede haber
tanta ciencia propiamente dicha como matemática se encuentre en ella”.16 Y lo cierto es que el
enfoque matemático ha demostrado una enorme versatilidad, habiéndose empleado para elaborar
modelos y obtener conclusiones en todas las ciencias naturales (física, química, biología) y humanas
(economía, sociología, psicología). Es bien sabido que Kepler y Galileo lo explicaban diciendo que el
lenguaje matemático de la geometría es el único adecuado a la comprensión del “gran libro de la
naturaleza”: Dios es geómetra, como –según algún autor antiguo– explicaba Platón.
Sin embargo, siempre ha habido autores, normalmente de tendencias metafísicas o místicas
(Goethe, Schelling, Heidegger), que han sospechado que la matematización implicaba una cierta
tergiversación, una visión torcida de las cosas. ¿Qué puede haber de cierto en esto? Tradicionalmente
se asocia la matemática a la cuantificación; ¿es la obsesión cuantificadora el pecado capital del
hombre moderno? ¿Y cómo puede explicarse la sorprendente efectividad de la matemática en el
análisis de los fenómenos? Vayamos por partes.
Esencialmente, hay dos tipos de modelos matemáticos: los de naturaleza geométrica, que desde
hace tres siglos incorporan la sofisticación conceptual y calculística del análisis matemático;17 y los de
naturaleza aritmética o, más en general, los modelos conjuntistas. Vamos a ver algunos ejemplos, lo
más sencillos posible. Pero antes conviene decir que, con la geometría analítica, tenemos en realidad
una combinación de modelos geométricos y modelos aritméticos (me refiero aquí a la aritmética de
los números reales, no simplemente los naturales). Esta combinación nos ofrece una increíble
capacidad de análisis y flexibilidad, porque –según convenga– podemos recurrir bien a considerar la
situación geométricamente, o bien a interpretarla y calcularla analíticamente. (Lo mismo sucede en la
matemática actual con los modelos conjuntistas, que siempre admiten ser geometrizados
introduciendo consideraciones topológicas; tema que, obviamente, nos queda muy grande en este
curso.) La mayor parte de los ejemplos que veremos a continuación nos muestran ese juego de idea y
vuelta entre lo geométrico y lo aritmético.
Un caso muy simple de modelización geométrica es la que han empleado los astrónomos desde los
tiempos de Eudoxo y Platón: se trataba de explicar los movimientos de los planetas mediante modelos
que empleaban sólo movimientos circulares (círculos, epiciclos) y con velocidades uniformes. Esto
llevó a desarrollos muy sofisticados con Ptolomeo y Copérnico, pero en último término resultó
16 Principios metafísicos de la ciencia de la naturaleza, Prefacio, p. 31. Por esta y otras razones, Kant sacaba la conclusión de
que, mientras la mecánica es una verdadera ciencia, la química es más bien un arte sistemático y no una ciencia. Por supuesto, hoy esta idea no es sostenible.
17 El análisis comprende el cálculo infinitesimal y todos los desarrollos teóricos asociados a él. Antes de esa época, la teoría de
proporciones suministraba posibilidades de análisis en cierto modo análogas.
19
insatisfactorio frente a observaciones muy detalladas. Por eso Kepler acabó abandonando el
movimiento circular por el elíptico (1ª Ley de Kepler: los planetas recorren elipses en torno al Sol), y
reemplazando las velocidades constantes por velocidades que variaban según una ley simple (2ª Ley
de Kepler: las áreas barridas por el segmento Sol–planeta en tiempos iguales son siempre iguales).
Con Kepler se había obtenido un triunfo inmenso en la comprensión matemática del Universo.
Antes de esta época, quizá se podía dudar de que los fenómenos naturales realmente se ajustaran a
leyes matemáticas precisas. La creencia de Kepler en esa idea tenía una base metafísica y religiosa.
Pero después de Kepler –y Galileo– había buenas razones de hecho (el impresionante grado de
concordancia de los cálculos matemáticos basados en esas leyes y modelos con las observaciones más
precisas) para creer en aquella idea, al margen de la postura metafísica o religiosa de cada cual.
Sin embargo, en otro sentido los modelos geométricos de Kepler y la tradición astronómica son
poco sorprendentes: las posiciones y los movimientos de los planetas (algo que tiene un referente
espacial) se representan espacialmente mediante la geometría; si pudiéramos situarnos en un punto de
vista adecuado (cosa técnicamente imposible hasta hoy) llegaríamos a ver realmente las trayectorias
elípticas que ideó Kepler. Pero la verdadera potencia del pensamiento matemático se revela en otros
casos, en los cuales se emplean modelos geométricos para representar y analizar cosas cuya naturaleza
no es espacial. Curiosamente, la práctica de este procedimiento es tan habitual que ni siquiera nos
paramos a pensar en lo que tiene de sorprendente.
Un buen ejemplo se encuentra en algo tan sencillo como la ley de Galileo para la caída de los
cuerpos cerca de la superficie de la Tierra. Como todos sabemos, la ley se puede expresar
algebraicamente así: s = ½ g · t2, donde g es la aceleración de la gravedad terrestre (aunque Galileo
nunca la formuló de este modo, sino mediante la geometría y la teoría de proporciones). Además,
todos sabemos cómo representar la situación geométricamente en un plano con coordenadas
cartesianas: entonces la curva que determina el espacio s recorrido por el cuerpo es una parábola que
pasa por el origen. Ahora bien, pensemos por un momento en lo que hemos hecho al trazar esta figura
geométrica: representamos en un eje de coordenadas el espacio total recorrido en cada momento, y en
el otro eje representamos el paso del tiempo. Si hay algo que no sea espacial, esto es el tiempo, pero lo
estamos representando espacialmente.18
Otro ejemplo similar y aún más sencillo, pese a ser del siglo XX, es la ley de Hubble, que muestra
(en términos aproximados) la velocidad de recesión o alejamiento de las galaxias por relación a su
distancia con respecto a nosotros. Como se sabe, Hubble descubrió hacia 1930 que todas las galaxias,
18 En realidad, el hombre siempre ha concebido el tiempo geométricamente o materialmente; parece que es la única manera en
que podemos comprenderlo. Así hablamos incluso de “espacios de tiempo”, pero también del “fluir del tiempo”, como si fuera algún líquido, de que “llegará el tiempo”, como si fuera un objeto animado que deambula por ahí, y de que “tenemos” o “no tenemos” tiempo, como si se pudiera almacenar. Nuestras torpes metáforas revelan el carácter huidizo e intangible de lo temporal.
20
miremos en la dirección que miremos,19 parecen estar alejándose de nosotros, y a velocidades cada vez
mayores cuanto más lejos están. Este efecto, que notamos por el “corrimiento al rojo” de la luz de las
estrellas, es uno de los principales datos empíricos que avalan el modelo del Big Bang, la “gran
explosión” en el inicio de nuestro Universo. La ley de Hubble se escribe: v = H00 · d, y viene a decir
que las galaxias lejanas se alejan de nosotros a una velocidad directamente proporcional a su distancia
(H00 es la constante de Hubble).
Por supuesto, también se da el caso de modelos geométricos en tres o más dimensiones, y todos los
ejes pueden representar cosas no espaciales, geometrizando lo no geométrico. Un caso sencillo y bien
conocido lo daría la ley de los gases perfectos: p · V = cte · T, que dice que el producto de presión y
volumen es igual a la temperatura absoluta multiplicada por una constante. Tenemos aquí tres
dimensiones que son la presión, el volumen (pero no el volumen como magnitud espacial, sino la
medida del volumen: un número) y la temperatura.
Volvamos ahora a la cuestión de si matematizar implica algún sesgo, una forma “torcida” de
representarse la realidad. Los ejemplos que hemos dado antes son todos de modelos matemáticos
cuantitativos, y quienes han sospechado de la matemática lo han hecho precisamente por esa
tendencia a la cuantificación. Aquí hay, sin duda, un tema profundo a nivel antropológico y
sociológico: parece claro que la tendencia a cuantificar y medir con precisión es característica de la
sociedad occidental, y que esa tendencia es solidaria del inmenso papel que la economía desempeña
en las sociedades modernas y posmodernas. Así que hay buenos motivos para ligar el papel de la
matemática en nuestra cultura con el papel de la vida económica. Pero esto es distinto del problema de
si una visión matemática de la realidad es una visión sesgada. Podemos imaginar perfectamente una
sociedad libre de la obsesión por el beneficio económico, pero que empleara modelos matemáticos
para comprender lo que hay a su alrededor. Dicho de otro modo, nuestro orden económico requiere
cuantificación, pero es distinto de la cuantificación: la cuantificación es condición necesaria, pero no
suficiente, para que se dé una sociedad economicista.
Los filósofos anti-matemáticos han argumentado que la esencia de las cosas no es cuantitativa,
sino cualitativa. Que la cuantificación sólo sirve al control y al dominio técnico, pero no a la
comprensión de la realidad. Sin embargo, este argumento está muy lejos de ser convincente: la
reforma de la astronomía que debemos a Copérnico, Kepler y Newton sólo fue posible gracias a
observaciones precisas, cuantificación y cálculo, y nadie puede negar que ha contribuido
esencialmente a nuestra comprensión de la realidad. También es esencial para el hombre comprender
el tiempo, lo cual sin duda tiene aspectos cualitativos (relacionados con la memoria individual y la
historia) pero de nuevo es imposible sin el aspecto cuantitativo. El hombre ha necesitado medir el
19 Con la única excepción de algunas cercanas como Andrómeda, lo cual se explica porque estas galaxias están ligadas
gravitacionalmente a la nuestra: en realidad, Andrómeda se aproxima a nuestra Vía Láctea a una velocidad estimada de __ (tranquilos: está a 2,3 millones de años luz).
21
tiempo para comprenderlo, y esto (por ejemplo, los calendarios, que se basaron en el conocimiento
astronómico) se encuentra en todas las culturas mínimamente avanzadas.
Hay otro aspecto de la necesidad de cuantificar en ciencia que suele pasar inadvertido. El científico
desea comprender la realidad mediante modelos teóricos que representen bien los fenómenos. Para
garantizarlo, necesita contrastar los modelos empleando, como hemos visto, datos y predicciones. Y la
garantía de que los modelos son correctos aumenta cuanto más estrictas son las contrastaciones,
cuanto más estrechamente se ajustan las predicciones a los datos. Ahora bien, para conseguir
contrastaciones cada vez más estrictas, necesitaremos datos cada vez más precisos; necesitaremos fijar
una posición o una velocidad con exactitud, esto es, necesitaremos medir y cuantificar cada vez
mejor. De este modo, la medición de precisión (y su correlato en el mundo teórico, los cálculos con
niveles de aproximación cada vez mayores) son simplemente una consecuencia natural del interés por
contrastar los modelos.
Pero hay todavía una razón más profunda para criticar a los anti-matemáticos. Se trata de que su
idea de lo que es matemática está profundamente anticuada: hace dos siglos se podía pensar que la
matemática es una ciencia que trata de las cantidades, pero los últimos 200 años no han pasado en
balde. Las aportaciones más profundas y originales de los matemáticos del XIX y XX son,
precisamente, de carácter cualitativo. De la geometría cuantitativa de Euclides y Descartes se ha
pasado a la topología, que es puramente cualitativa; del álgebra numérica de Vieta se ha pasado al
álgebra moderna, puramente estructural; en realidad, hasta en los mismos números hemos aprendido a
ver mucho más que indicadores de cantidades. La matemática actual estudia relaciones y estructuras
que, ciertamente, pueden ser cuantitativas, pero igualmente pueden no serlo. De ello dan testimonio la
lógica y la teoría de conjuntos: el lenguaje de la lógica matemática, por ejemplo, permite formular
todo tipo de relaciones y no está limitado en modo alguno a lo cuantitativo.
La comprensión de que la matemática trata, en el fondo, con relaciones en general, y no puede
definirse meramente como “ciencia de lo cuantitativo”, es en realidad bastante antigua. La idea fue
formulada con toda claridad en 1832 por el más grande matemático de principios del XIX, Carl F.
Gauss, y también puede encontrarse en el famoso lógico George Boole (véase la Introducción a El
análisis matemático de la lógica, 1847). Así las cosas, resulta que todo modelo, toda explicación
precisa de un fenómeno cualquiera, puede ser matematizado empleando las matemáticas actuales. Lo
único que puede impedir la matematización de los principios y los modelos de una ciencia es que sean
muy imprecisos. En este sentido, hoy más que nunca parece que Kant tenía razón en el sentido de que
toda ciencia madura, y por tanto precisa, deberá ser matemática. En lo que se equivocaba es que, a
este respecto, la química o la biología no son menos matemáticas que la física (aunque sí puedan ser
bastante complejas, dando lugar a modelos cuyo comportamiento sea difícil predecir; pero esto sucede
también en física).
22
Quizá valga la pena dar un ejemplo de matematización no cuantitativa. El antropólogo Lévi-
Strauss andaba estudiando relaciones de parentesco complejas: el matemático A. Weil le suministró
un modelo basado en la teoría de grupos que aclaraba la estructura de los intercambios y sus reglas.
La teoría de grupos también permite, por ejemplo, comprender aspectos muy importantes de la
estructura de los cuerpos cristalinos. Y aquí viene a cuento citar lo que (según I. Stewart) dijo un
profesor de Cambridge: “ahora podemos resolver el problema sin utilizar nada de matemáticas, sólo
teoría de grupos”. Esta frase condensa muy bien la reacción del lego –o del matemático demasiado
obsesionado con las cantidades y el cálculo numérico– ante la deriva relacional, estructural y
cualitativa de la matemática de hoy.
4. La axiomatización de teorías científicas; teorías presupuestas, lenguaje teórico y
lenguaje básico.
Hemos visto que la matemática era entre los griegos, y es hoy, una disciplina que utiliza
constantemente la axiomatización. La geometría fue considerada, durante 2000 años, como el gran
modelo de ciencia, y con ello se produjo un traspaso del modelo de ciencia axiomático al caso de las
ciencias naturales. Esto puede observarse con toda claridad en los escritos de Aristóteles, Galileo,
Kepler, Newton... Hacia 1900, había ya algunos estudios muy satisfactorios de la mecánica clásica
desde un punto de vista axiomático. Tras la aparición de la lógica moderna y los nuevos sistemas
axiomáticos de Hilbert, Peano y otros, hubo toda una serie de autores que retomaron ese asunto y
trataron de profundizar en él. Los empiristas lógicos creían que el análisis de las teorías científicas
desde un punto de vista lógico-axiomático sería clave para conseguir avances definitivos en filosofía
de la ciencia. Y en cierto modo puede decirse que su aportación resultó clave, pero casi siempre por el
modo en que se pudo demostrar las limitaciones e inadecuación de los postulados empiristas.
Como vimos, ya en matemática la axiomatización llega sólo después de que se haya dado un
intenso desarrollo teórico. Esto vale también para las ciencias naturales, pero aquí de modo aún más
intenso debido a la complicación que aporta la rica interacción entre teoría y experiencia, entre
modelos y datos. La mecánica clásica ha podido axiomatizarse bien en el siglo XX, siendo así que
esta disciplina nace en el XVII y estaba completamente desarrollada (desde el punto de vista del
físico, quizá no para el lógico) hacia 1900. Lo más importante, a este respecto, es que las teorías
científicas en desarrollo no son sistemas cerrados, sino sistemas abiertos que sufren transformaciones
múltiples: incorporación de nuevos conceptos, nuevos principios, nuevas aplicaciones,
reestructuraciones, etc. En cambio, un sistema axiomático es siempre, necesariamente, un sistema
cerrado: alcanza una enorme precisión y un cierto grado de intemporalidad, pero lo logra al precio de
una rigidez absoluta. (Si introducimos nuevos símbolos, o nuevos axiomas, ya no se trata del mismo
sistema axiomático.)
23
Como aquí nos interesa la actividad científica, la ciencia en acción, resulta que el modelo
axiomático (pese a todas sus virtudes) no puede satisfacernos. No quiere esto decir que la axiomática
sea inútil; al contrario, acercarse a una teoría en desarrollo planteando la cuestión de cómo se podría
axiomatizar, siempre da lugar a perspectivas interesantes y a una comprensión más profunda. Pero lo
cierto es que para comprender la actividad científica necesitaremos modelos de análisis de las teorías
más flexibles que el modelo axiomático.
Los problemas que surgen de tomar como única referencia los sistemas axiomáticos ya fueron
señalados hace décadas por los críticos del empirismo lógico. Una contribución muy importante en
este sentido fue la de Stephen Toulmin, en diversas obras ya desde 1953; su crítica al modelo
axiomático está planteada por ejemplo en las famosas Actas del Simposio de Urbana en 1969:
Una ciencia típica, lejos de formar un sistema lógico completo, permanece como tema vivo y activo,
como campo de desarrollo de la investigación, gracias a sus fallos lógicos y a sus inconsistencias; su
real carácter atípico, no sistemático, no axiomático, es lo que genera la verdadera prosecución de los
problemas. (‘Postcriptum’ de Toulmin a Suppe [1979], 667).
Recientemente, el historiador de la física Jed Buchwald ha expresado la misma idea de una manera
aún más llamativa:
Las ciencias vivas no se dejan encerrar en generalizaciones exactas y definiciones. El intento de
capturar un cuerpo de conocimiento vibrante en una estructura lógica precisa produce un tipo de
información acerca del aquél muy similar a la que la disección de cadáveres nos da sobre la conducta
animal: muchas cosas que dependen de la actividad se pierden. … Podríamos decir que la axiomática
y las definiciones son los mausoleos lógicos de la física.20
Muchos filósofos han concluido, por estas razones, que debían abandonar completamente la
perspectiva axiomática. Pero esto es una reacción exagerada, lo que los ingleses llaman “tirar el bebé
con el agua del baño”. Desde luego que la actividad teórica del científico es más rica y flexible, más
imprecisa y cambiante que lo que nos sugiere la perspectiva axiomática. Pero no demos olvidar que
esa actividad tiene siempre como uno de sus objetivos afinar los conceptos y principios teóricos,
sistematizarlos y aclararlos hasta el punto en que puedan ser axiomatizados.
Así, pese a sus limitaciones, la aproximación axiomática tiene mucho que enseñarnos. ¿Qué
aspecto tendría una teoría física axiomatizada? Recordemos que, en el caso de las matemáticas, para
axiomatizar una teoría necesitamos un marco lógico (casi siempre la lógica de primer orden) dentro
20 Buchwald, ‘Notas sobre conocimiento inarticulado, experimentación y traducción’, Theoria (2002).
24
del cual se formularán los axiomas y las definiciones, se demostrarán los teoremas. En casos
avanzados (por ejemplo al axiomatizar la teoría de espacios vectoriales21) habrá que basarse no sólo en
la lógica elemental, sino también en otras teorías matemáticas que se presuponen como ya elaboradas
y disponibles (en el ejemplo, la teoría axiomática de los números reales22). Al axiomatizar una teoría
física, esta última es siempre la situación: como base o marco se emplea una o varias teorías
matemáticas, que a su vez se basan en la lógica elemental. Así que una teoría científica axiomatizada
siempre depende de teorías presupuestas. Por ejemplo, la teoría electromagnética presupone la teoría
de espacios vectoriales.
Aprovechando las posibilidades de expresión (formulación) que ofrecen el marco lógico y las
teorías presupuestas, se introducen a continuación una serie de nociones teóricas básicas, y se
postulan una serie de axiomas que determinan las relaciones entre las nociones básicas. En esto, la
situación es totalmente análoga a la axiomatización de una teoría matemática. Veamos un ejemplo: en
el siglo XIX se consiguió una buena comprensión del comportamiento de los gases empleando la
teoría cinética de los gases, que es de naturaleza probabilística. Intuitivamente, la idea es que un gas
consiste en un enorme número de moléculas que se desplazan libremente en todas las direcciones del
espacio, cada una con su velocidad propia y cambiante, y que chocan (elásticamente) entre sí y con las
paredes del recipiente. Entre las nociones básicas se incluye la de “molécula”, y los axiomas
estipularán que las moléculas de cada gas tienen una masa fija, así como propiedades relativas a la
velocidad de las moléculas, su modo de choque, etc.
Pero lo característico de una teoría científica como ésta es que podemos emplear sus postulados
para explicar y predecir el comportamiento de los gases reales, con un buen grado de aproximación.
Todavía no hemos aclarado de qué manera se produce la conexión entre la teoría abstracta y los
fenómenos reales. Este es un problema sumamente interesante y sobre el que se ha vertido mucho
tinta. Los empiristas lógicos hicieron una propuesta famosa al respecto, cuyos problemas y
limitaciones son muy instructivos. Según ellos, el lenguaje de la teoría axiomática debía tener dos
niveles claramente distintos: habría un lenguaje teórico, como el que hemos puesto de ejemplo en el
párrafo anterior, pero también habría un lenguaje observacional que ligaría directamente con lo
observable. Es una idea que parece de sentido común, y que de un modo u otro habían considerado
muchos científicos de siglos anteriores. Por eso es especialmente importante que el análisis cuidadoso
de dicha idea haya planteado dificultades insalvables: como veremos, decir “lenguaje observacional”
es casi una contradicción en los términos.
Pero empecemos poniendo algún ejemplo; volvamos a los gases. El físico que hace experimentos
con gases tiene medios para medir la presión o la temperatura de éstos, pero desde luego no puede
medir las velocidades de todas las moléculas y conocer cómo cambia cada una en el tiempo. Por eso
21 Recordemos que magnitudes físicas como las fuerzas o las aceleraciones son vectores.
22 O en general la teoría de cuerpos (en el sentido matemático del término).
25
la teoría cinética es probabilística: el comportamiento del gas se explica en términos de la “velocidad
cuadrática media” de las moléculas, una idealización que nos ofrece una buena aproximación a lo que
sucede en el gas real “a grandes rasgos”, siempre que el gas no esté en condiciones muy especiales.
(Similarmente, los coches se diseñan para un “automovilista medio”, y pueden resultar inadecuados
para personas concretas si sus capacidades físicas o psíquicas se alejan de la media.) Los empiristas
lógicos proponían que nociones como la de “presión” o la de “temperatura” vendría a ser de nivel
observacional, y que la teoría científica debe contener siempre unos principios puente (también
llamados reglas de correspondencia) que establecen la conexión entre las nociones teóricas y las
nociones observacionales. En el caso de la teoría cinética, los principios puente utilizan el concepto de
velocidad cuadrática media para establecer cuál será la presión y la temperatura de un gas ideal.
Utilizando esas ideas, fue posible demostrar que en condiciones normales se cumplirán leyes como la
de Boyle-Mariotte (conocida desde el siglo XVII): el producto de presión y volumen permanece
siempre constante, siempre y cuando la temperatura del gas sea constante.
Todo esto está muy bien, y desde luego no hay nada que objetar en el ejemplo de la teoría cinética
de los gases. Su caso muestra muy bien qué papel desempeñan las idealizaciones en la explicación
científica. Pero sí resulta objetable la interpretación que daba el empirismo lógico de esa situación,
aun si se interpreta su enfoque de la manera más favorable. Desde luego, los conceptos de “presión” y
“temperatura” no son puramente observacionales, por más que se correspondan con elementos claros
y fácilmente reconocibles de nuestra experiencia. La clarificación de los conceptos más básicos de
calor y temperatura fue un proceso muy complicado de desarrollo de la teoría física, que ocupó varias
décadas en los siglos XVII al XIX. Así que, en realidad, la formulación anterior de la teoría cinética
emplea como teoría presupuesta una teoría elemental del calor y la temperatura. Pero esto sería
compatible en principio con el empirismo lógico: el ejemplo de presión, temperatura, etc. sería sólo
un símil, un ejemplo sugestivo pero no estricto. Sin embargo, “idealmente” sería posible construir un
lenguaje observacional puro, cuyos términos remitieran directamente a observaciones simples.
La búsqueda de ese lenguaje ideal de observaciones es ya muy antigua (hitos importantes fueron
los trabajos de Mach en el XIX o de Carnap en el XX), pero nunca ha dado buenos resultados. La
cuestión llegó a tal punto que, en 1958, N. R. Hanson planteó una crítica radical y sostuvo que todos
los términos de las teorías físicas tienen una “carga teórica”, por lo que la idea de un lenguaje
observacional puro es quimérica. Más aún, Hanson continuaba diciendo que toda observación, por
simple que parezca, es “una empresa cargada de teoría”: el punto de vista del observador, su modo de
categorizar los fenómenos, y las teorías elementales en que se basa la fabricación de sus instrumentos
y el modo de usarlos en cada experimento, compondrían una barrera de teoría imposible de atravesar.
No hay observación pura. Ahora bien, estas ideas se han repetido tantas veces, y se han defendido con
tanto ardor, que conviene someterlas una vez más a escrutinio.
26
Que no existe un lenguaje observacional puro, es un resultado aceptado hoy por todos los filósofos
de la ciencia. La raíz de la cuestión es relativamente fácil de comprender. El lenguaje se emplea
siempre para agrupar una diversidad de fenómenos bajo una denominación única: tiene siempre
carácter sintético. “Gato” no designa un fenómeno simple, desde luego, sino una clase muy amplia de
seres vivos (ciertamente interrelacionados), a cada uno de los cuales podemos observar en actividades
y actitudes muy diversas. Es fácil advertir que, para determinar si algo es un gato o no, no basta en
absoluto con una observación simple: en ocasiones puede hacer falta una larga serie de pruebas. Pero
lo mismo –y más– pasa con los electrones y otras partículas elementales: los fenómenos concretos que
identificamos con la presencia y los efectos, no ya del “electrón”, sino de la simple “electricidad” son
muy diversos entre sí. Así las cosas, un lenguaje observacional puro sería completamente inútil para la
práctica humana, científica o no científica: cada fenómeno concreto requeriría un término propio y
distinto de cualquier otro fenómeno casi idéntico.23
En resumen, la comunicación, el lenguaje científico y la teorización tienen como requisito
imprescindible la existencia de una categorización básica de los fenómenos con los que se trabaja. Es
lo que Kuhn llamaba, en sus últimos trabajos, la taxonomía básica que los científicos aplican al campo
de fenómenos que estudian: por ejemplo, en la química de laboratorio, la distinción entre sustancias
elementales, compuestos, y mezclas. Las “categorías taxonómicas” no son, ni mucho menos,
arbitrarias, pero sin duda es cierto que pueden cambiar en procesos de fuerte cambio conceptual
(revoluciones científicas). Con lo cual, resulta que no hay un nivel de lenguaje tan puro y
“observacional” que no cambie al darse un cambio revolucionario.
También los empiristas lógicos aceptaron la validez de esas críticas. Hempel ya no habla en su
manual de términos “observacionales”, sino de “términos antecedentemente disponibles” o, en breve,
términos antecedentes. La idea de que existen términos del lenguaje que son un correlato directo de
observaciones puras fue uno de los dogmas más confundentes que el giro lingüístico aportó al
empirismo.24 Pero no menos confundente ha sido la conclusión, avalada también por el giro
lingüístico, de que esas conclusiones que hemos establecido acerca del “lenguaje observacional” valen
igualmente para la observación. Este es un tema complicado, sin duda, que está lejos de haber
encontrado una explicación completa. Volveremos a él en el tema siguiente, y veremos entonces que
parte del problema viene ya de la idea empirista de observación. Pero –pese a Wittgenstein, Hanson y
todo el celebrado giro lingüístico– sigue siendo conveniente y convincente el distinguir entre lo que se
observa y la interpretación de lo observado. Esta es una distinción de sentido común, ciertamente,
pero no hay buenas razones filosóficas ni científicas para considerarla superada y totalmente errónea.
23 Probablemente la idea quimérica de Carnap fue estimulada por su creencia (errónea) de que la teoría de conjuntos es simple
lógica: esperaba definir los correlatos de términos observacionales como conjuntos de fenómenos simples interrelacionados. 24 Hoy hay empiristas como van Fraassen que han eliminado ese dogma por completo de su epistemología.
27
Convendrá poner un ejemplo concreto de la historia de la física que puede ilustrar muy bien lo que
tengo en mente. Elijo el caso de los famosos experimentos de Hans Christian Oersted (1820) que
pusieron de manifiesto el efecto electromagnético: que el paso de una corriente eléctrica provoca
efectos magnéticos a su alrededor. La razón de elegir este caso resulta clara: si hay una carga teórica
inducida por las teorías o los paradigmas, debe ser tanto mayor cuanto más alejados entre sí (más
“inconmensurables”) sean éstos. Oersted y otros físicos de su época eran partidarios de la
Naturphilosophie alemana, un “paradigma” inspirado por el idealismo de Schelling que pretendió
desbancar radicalmente al enfoque newtoniano. Entretanto, Ampère y otros físicos del momento que
trabajaron sobre el tema eran continuadores del “paradigma” newtoniano. En toda la historia de la
física no se encuentra un contraste mayor entre paradigmas enfrentados: aquí cambiaba la metafísica,
la actitud hacia la matematización, el modo de experimentar y la metodología, etc. Curiosamente, el
caso de Oersted y Ampère nos pone frente a una clarísima carga teórica del lenguaje básico, pero no
es posible advertir ningún fenómeno de carga teórica de la observación.
Oersted habla de que el efecto electromagnético se produce cuando en el hilo metálico se produce
el “conflicto eléctrico”, mientras que Ampère sigue hablando de la “corriente” eléctrica. La diferencia
es esencial, porque el “conflicto” de Oersted es el fruto de la tensión dinámica entre fuerzas polares
opuestas, siguiendo un esquema muy schellingiano, mientras que la “corriente” de Ampère se ajusta
al modelo estándar de la física newtoniana del momento.25 Así que el lenguaje básico empleado para
comunicar las observaciones está cargado de teoría, y desde luego los intentos de interpretación y
explicación del fenómeno eran muy diferentes entre sí. Pero Ampère y Oersted no tuvieron ningún
problema en reconocer que los experimentos efectivamente daban resultados como los que afirmaba
el contrario. Los experimentos y los resultados de Oersted recorrieron toda Europa, al margen de
“cambios de paradigma”, y se convirtieron en bien común de los “electricistas” (como se decía
entonces) en cuestión de semanas. Cosa bien distinta sucedió con sus interpretaciones y sus teorías. Y
exactamente lo mismo puede decirse de los resultados Ampère frente a sus teorías.
Hace ya tiempo que los historiadores de la física vienen señalando cómo la actividad experimental
y la actividad teórica tienen, en muchas ocasiones, un buen grado de autonomía. En la historia
encontramos grandes revoluciones conceptuales que apenas han afectado a los procedimientos de
experimentación y medición; ejemplo clásico es la teoría de la relatividad especial. También
encontramos grandes cambios “revolucionarios” en la actividad de laboratorio que no implican
automáticamente cambios teóricos; un ejemplo puede ser el intenso desarrollo de la espectroscopia en
el siglo XIX. Por fin, hay casos en los que el cambio teórico y el cambio experimental van de la
mano; caso típico es la revolución química de Lavoisier. Pero es un error grave de los epistemólogos
pensar que esta última es la única posibilidad.
25 La expresión es de Heilbron. Ver por ejemplo su __.
28
Todo lo anterior sugiere que, tal como tiende a sugerir el sentido común, es necesario diferenciar la
observación (o la percepción) del lenguaje observacional. Pero a la vez hay que reconocer que la
percepción no es un proceso simple e inmediato, como querría el empirismo, sino un proceso
cognitivo de alto nivel. De manera que el proyecto de estudiar a fondo la percepción y su papel en la
ciencia es eso: un proyecto, y desde luego será complejo y requerirá una aproximación multidisplinar.
Hablaremos algo más en el tema siguiente.
Por fin, hay dos conclusiones que parecen claras de todo el asunto del supuesto “lenguaje
observacional”. La primera es que la idea clave del giro lingüístico –traducir todo problema filosófico
a un problema de lenguaje, y considerarlo sólo bajo este aspecto– no puede ser satisfactoria para la
epistemología. Esta es una conclusión importante, y, si es así, se debe a que –pese a lo que parecen
preferir muchos filósofos– el lenguaje no es una instancia última y autosuficiente. La segunda es algo
que hemos dejado implícito antes, pero que conviene enfatizar. La actividad teórica de los científicos,
tal como la conocemos, recurre siempre y de una manera esencial a nociones teóricas de algo nivel. Se
emplean conceptos que no responden inmediatamente a lo observable ni son reducibles a lo
observable. O sea, se postula la existencia de objetos y procesos no observables, que sirven para dar
cuenta de los fenómenos que experimentamos. Las fuerzas a distancia de Newton no son observables,
desde luego, sino sólo se reconocen por sus efectos (postulados en la teoría); incluso los átomos
fueron sólo entes inobservables durante casi toda su larga historia, hasta finales del XIX.
Los más interesados en una posible eliminación de los inobservables y de las nociones teóricas son
los empiristas. Pero ya los empiristas lógicos hubieron de aceptar muy pronto que dichas nociones son
imprescindibles para la actividad científica. También los empiristas más sofisticados (un Quine o un
van Fraassen) aceptan esta conclusión. Pero sigue habiendo debate respecto a si debemos interpretar
esas nociones de las que hablan las teorías en un sentido realista o bien según la concepción
instrumentalista.
Este debate es muy viejo: ya los astrónomos en tiempos de Copérnico (s. XVI) discutían si la
corrección empírica de sus modelos del movimiento planetario quería decir –o no– que los planetas
“realmente” se mueven así; los químicos del XIX tuvieron intensos debates sobre si la idea del átomo
y de los pesos atómicos eran simples herramientas, instrumentos para predecir y hacer manejable la
gran diversidad de datos experimentales, o algo más que eso; y los mismos debates se pueden plantear
hoy acerca de los quarks en física cuántica, etc. En dos palabras, hay que decir que tanto el realismo
ingenuo como el instrumentalismo absoluto son insostenibles, pero afortunadamente la cuestión no es
escoger entre esas dos posturas extremas. Las opciones admisibles se sitúan entre el realismo “crítico”
de un Popper, y el instrumentalismo “constructivo” de un van Fraassen. En la práctica diaria, estas dos
posiciones no se diferencian demasiado; considerando la comunidad científica como grupo, opino que
es natural y deseable que haya científicos de orientación realista y otros de orientación empirista: las
dos tendencias han sido muy provechosas, en distintos momentos, para el avance del conocimiento
29
científico. ¿Por qué habríamos de empeñarnos en “normalizar” o estandarizar a los científicos? Las
diferencias individuales son naturales y necesarias en toda actividad humana. Por lo demás, todo
indica que la polémica filosófica de fondo es literalmente interminable.
5. Complejidad de las predicciones: hipótesis y supuestos auxiliares. La tesis de Duhem. El
enfoque semántico: modelos y subestructuras empíricas.
Llegados a este punto, debemos volver de nuevo a la cuestión (tratada en el tema 2) de las relaciones
entre teoría y experiencia. Ya sabemos que el criterio más importante de aceptabilidad de una teoría
científica es su adecuación empírica; en palabras de Popper, que la teoría supere con éxito todos
nuestros intentos de falsación. Pero un análisis más detallado de cómo se obtienen las predicciones
muestra que la contrastación de teorías científicas tiene sus límites.
Intentemos contrastar un principio científico importante: por ejemplo, la ley de inercia, que fue
esencial para el desarrollo de la mecánica durante el siglo XVII. Sólo es posible contrastarla
directamente de una manera, observando un cuerpo físico (o un sistema físico) aislado de manera casi
perfecta. Pero un cuerpo o un sistema de este tipo no está a nuestro alcance, ni observando desde la
superficie de la Tierra, ni observando desde un satélite artificial. Idealmente, habría que observar un
cuerpo moviéndose por el espacio vacío, a enorme distancia de cualquier otro cuerpo; pero
¡necesitamos un observador y el sistema sobre el que este se encuentre! Nadie ha podido nunca
contrastar la ley de inercia directamente, sólo ha sido contrastada conjuntamente con otros principios
teóricos de la mecánica.
Pero la situación es todavía peor: los principios teóricos de la mecánica, esas leyes tan generales,
no tienen por sí mismos ninguna consecuencia empírica. Para que tengan consecuencias empíricas
contrastables, hay que añadirles mucha información particular, lo que los físicos llaman condiciones
iniciales: las condiciones en que se encuentra, en un momento dado, el sistema físico en el que se va a
producir (natural o experimentalmente) el fenómeno que observaremos. Una contrastación muy
importante de la mecánica de Newton fue, por ejemplo, el descubrimiento del planeta Neptuno. Para
predecir algo acerca de la posición y el movimiento de Neptuno, hay que añadir a los principios de la
mecánica celeste (las famosas tres leyes de Newton y la ley de gravitación universal) datos acerca de
la posición, las masas y las velocidades de –como mínimo– el Sol, Neptuno y también Urano. Estas
son las condiciones iniciales. En un momento dado, los cálculos de la órbita de Neptuno pueden dar
malos resultados simplemente porque el “dato” o, mejor dicho, la estimación que se tiene de la masa
de Urano no es muy buena. Corregida y mejorada esa estimación, los problemas desaparecen.
Entenderemos mejor aún la complejidad del asunto considerando cómo se descubrió Neptuno. A
mediados del XIX, los astrónomos se encontraron con que sus modelos teóricos de la órbita de Urano
no encajaban bien con las observaciones. La teoría de Newton tenía problemas de adecuación
empírica. ¿Un caso de refutación? No lo vieron así. Como esta teoría funcionaba tan bien en tantos
30
otros casos, y había superado tantas contrastaciones, pensaron que el defecto no estaría en los
principios teóricos básicos, sino más bien en algún detalle particular del modelo teórico. ¿Y si hubiera
otro planeta desconocido, más allá de Urano, cuya atracción gravitatoria influyera lo suficiente en éste
como para provocar las desviaciones que se habían observado? Este fue el supuesto adicional que
hicieron el inglés Adams y el francés Leverrier en 1845, independientemente uno del otro. Sus
cálculos permitieron, efectivamente, que los telescopios encontraran en 1846 un nuevo planeta; con
ello se reajustaron los modelos newtonianos y las observaciones.26
Tras el descubrimiento de Neptuno, nos damos cuenta de que el modelo para Urano empleado
antes de Adams y Leverrier presuponía, implícitamente, que la órbita de Urano sólo estaba afectada
de manera importante por el Sol y los planetas conocidos. Tal como los dos astrónomos analizaron la
situación, este supuesto implícito era el culpable de los desajustes entre observaciones y predicciones.
Su análisis resultó correcto.
Los ejemplos anteriores muestran que una predicción errónea no siempre es achacable, ni mucho
menos, a los principios teóricos de la teoría T considerada. Puede deberse a que los mal llamados
“datos” que usamos en el cálculo, o sea, las condiciones iniciales (CI) (que en realidad son
estimaciones obtenidas a partir de los datos empíricos vistos a la luz de la teoría) son incorrectas.
Puede deberse también a que falle algún supuesto adicional (SA) presupuesto en nuestros modelos, el
cual puede ser explícito o incluso implícito. Si representamos la situación con un esquema lógico muy
simplificado, tenemos:
(T ∧ SA ∧ CI) → P.
Al encontrarnos que los datos arrojan ¬ P, tenemos certeza de que ¬ (T ∧ SA ∧ CI). Pero no tenemos
ni idea de cuál de estos diferentes elementos es responsable del error. ¡Y recordemos que cada sigla
representa, en realidad, la suma de varios o muchos elementos de ese tipo!
Recordemos además que una teoría científica avanzada suele presuponer en su formulación otras
teorías ya conocidas. La predicción dependerá de la suma de estas teorías, y no sólo de la teoría que
principalmente centra nuestra atención, es decir, la que queremos contrastar. Teniendo todo esto en
cuenta, comprenderemos la enorme complejidad que tiene la contrastación de cualquier teoría
interesante. En realidad podríamos estar hablando de –digamos– 2 teorías, 15 supuestos adicionales
(más un número indeterminado de supuestos implícitos) y 50 elementos de condiciones iniciales. Un
total de 67 piezas, cada una de las cuales (o más de una) pueden ser responsables del desajuste.
El físico francés Pierre Duhem llamó la atención sobre esta situación hace ya casi un siglo.
Afirmó, con razón, que la metodología científica no nos ofrece ninguna regla clara y simple para
saber qué elemento tiene la culpa de una falta de adecuación empírica. Esto se debe a que “un
26 Urano y Neptuno están muy lejos uno de otro: si tomamos la distancia Tierra–Sol como unidad astronómica (UA), la distancia
de Urano al Sol es de 19,2 UA, y entre Urano y Neptuno hay 10,8 UA. Pero los dos tienen masas importantes, 14,6 y 17,3 veces la
31
experimento de física nunca puede condenar a una hipótesis aislada, sino solamente a todo un sistema
teórico”. No hay ningún método para localizar al responsable de una contrastación negativa, y sólo el
“buen sentido” del científico, sobre la base de su conocimiento experto y enciclopédico de la teoría y
las experiencias, puede orientarle. Téngase en cuenta que será muy importante el conocimiento
experto, enciclopédico, de las contrastaciones previas de la teoría (pueden ser miles), de cómo se han
estimado las condiciones iniciales y hasta qué punto cada una de esas estimaciones es fiable, etc.
Además, claro, será importante la “intuición” del científico acerca de qué supuestos adicionales
pueden ser necesarios, o en su caso de qué aspectos de la teoría conviene retocar.
Duhem dio un paso más, estableciendo la llamada tesis de Duhem.27 Consideró una consecuencia
natural de la situación que acabamos de describir. No hay métodos que nos indiquen que un elemento
concreto del entramado teórico falla, sino que el científico sólo depende de su “buen sentido” de
experto. Si hay algún aspecto de la teoría vigente que el científico se resista mucho a modificar, nada
puede forzarlo a hacerlo, sobre todo si sus colegas muestran la misma resistencia. El caso más
interesante sería que todos los científicos, por ser miembros de la especie humana, tendieran a
concebir la realidad bajo un cierto punto de vista (que puede ser parcialmente erróneo). Ante una
refutación, tendrían que introducir cambios, pero podrían reajustar otras partes de la teoría, sin
cambiar ese punto de vista (quizá erróneo) que prefieren; o bien reajustar esta hipótesis predilecta sólo
en parte, pero sin abandonarla del todo. La consecuencia es que nadie puede garantizar que una cierta
hipótesis científica no sea, al menos en parte, una simple convención humana.
Esa misma idea la venía ya defendiendo otro gran científico francés, Henri Poincaré, desde hacía
años. Como sabemos, las teorías físicas presuponen y se basan en teorías matemáticas, concretamente
en la geometría. Poincaré pensaba que la elección de la geometría de Euclides no se debía a ninguna
necesidad (ni racional ni empírica), sino a nuestra elección: ninguna geometría es verdadera ni falsa, y
si elegimos la de Euclides es por convención, por comodidad. Andando el tiempo, Poincaré detectó la
presencia de otras convenciones en la física, como es el caso (ya mencionado) de la ley de inercia o 1ª
ley de Newton, y también de nuestros criterios de medición del tiempo. Así, se habla del
convencionalismo como un punto de vista importante en filosofía de la ciencia, que sería retomado
décadas después por W. V. Quine, e implícitamente por muchos otros filósofos de la ciencia.
Es importante aclarar cuál es la tesis clave del convencionalismo. Algunos tienden a dar una visión
caricaturizada de esta posición, diciendo que el convencionalista está a favor de las hipótesis ad hoc, y
que afirma que principios básicos de la ciencia como la ley de inercia son puras convenciones.28 Lo
primero es falso, lo segundo es impreciso. Ningún convencionalista importante (ni Poincaré ni Quine)
de la Tierra, respectivamente; y además, al estar ambos lejos del Sol, la atracción de éste es pequeña (recordemos que decrece con el cuadrado de la distancia). Por eso la atracción entre ambos planetas tiene efectos notables sobre sus órbitas.
27 A veces se designa como tesis de Duhem-Quine, pero el propio Quine ha dicho que con esto se le hace más honor del que
merece. Aquí hacemos caso a Quine.
32
ha defendido las hipótesis ad hoc. En realidad, el convencionalista argumenta que hay razones
profundas por las que resulta imposible diferenciar lo que hay de empírico (o de realista) en las
hipótesis científicas, y lo que puede haber en ellas de convencional. Y respecto a la ley de inercia, sin
duda tiene algún contenido empírico, ya que –en tanto parte de la mecánica newtoniana– está
magníficamente contrastada. Pero ya sabemos que la ley, por sí sola, no puede ser contrastada; y si
nos preguntamos hasta qué punto es convencional, y hasta qué punto es realista, resulta imposible dar
una contestación definitiva. Propiamente hablando, esta es la tesis clave del convencionalismo: que
nada puede impedir la existencia de aspectos convencionales en las teorías científicas, y que es
imposible trazar una distinción tajante entre lo que tienen de convencional y lo que tienen de realista
(o de empírico).
Buena parte de lo que llevamos dicho en este apartado tiene que ver con la idea del holismo. Esta
palabra sirve simplemente para referirse al hecho de que los principios teóricos por sí solos no son
contrastables, y que su relación con la experiencia pasa a través de la totalidad (holos, en griego) de la
teoría. Mejor dicho, y recopilando todo lo visto en este apartado: lo que se enfrenta a la experiencia es
una teoría científica, junto con las teorías presupuestas por ella, y las estimaciones de las condiciones
iniciales relevantes (sin olvidar los posibles supuestos auxiliares implícitos). Del holismo en la
relación entre teoría y experiencia se derivan las complicaciones de la metodología que hemos estado
revisando.
6. Sistemas conceptuales abiertos y cerrados. Las teorías en desarrollo: principios teóricos,
modelos y ejemplares.
Según vimos más arriba, el ideal de la teoría axiomatizada está demasiado lejos de lo que
encontramos en la práctica científica. Cuando los científicos están desarrollando su conocimiento, sus
ideas teóricas y sus programas de investigación, no trabajan con teorías axiomáticas, sino con
herramientas conceptuales más flexibles. Por tanto, necesitamos algún esquema que nos pueda servir
para analizar en qué consiste una teoría científica, cuando está en desarrollo y no finalizada.
Utilizando una idea del lógico italiano Cellucci, podemos decir que la diferencia entre ambas
situaciones es la siguiente: una teoría axiomatizada es un sistema cerrado, mientras que la teoría en
desarrollo es un sistema abierto.29 Téngase en cuenta que el sistema axiomático está definido de una
vez y para siempre: tiene un lenguaje determinado, unos axiomas determinados, y por tanto equivale a
una colección de teoremas dada de una vez y para siempre. Esta extraordinaria precisión se paga al
precio de la inflexibilidad, porque cualquier cambio en el lenguaje o en los presupuestos significa que
estamos cambiando todo el sistema (me refiero a cambios reales, no a una simple definición, que no
28 El mismo Popper, cuando critica el convencionalismo en su famoso libro La lógica de la investigación científica, está
tergiversando esta posición y argumentando contra un hombre de paja. 29 C. Cellucci, Le ragioni della logica, Roma, Laterza, 1998.
33
es otra cosa que la introducción de una abreviatura). Por eso es adecuado decir que es un sistema
cerrado.
Ni siquiera los matemáticos suelen trabajar con sistemas cerrados. Al enfrentarse a problemas
nuevos, a menudo introducen nuevos conceptos y nuevos principios que les permiten dominar y
comprender esas situaciones problemáticas a las que se enfrentan. Ese proceso conduce no pocas
veces a nuevos sistemas axiomáticos; y el proceso de desarrollo continúa… Una situación análoga,
aunque todavía más compleja por la interrelación entre teoría y experimentación, se da en las ciencias
naturales.
Así que los científicos y los matemáticos, en su práctica, se las ven con sistemas abiertos. Pero que
nadie piense que esto significa que el desarrollo de las teorías es algo etéreo, inefable, imposible de
analizar, inaccesible a la racionalidad humana. Semejante conclusión oscurantista no está en absoluto
justificada por la constatación anterior. Lo que necesitamos es algún modo de representarnos en qué
consiste el cuerpo de teoría, moldeable y en desarrollo, con el que trabajan los científicos.
A continuación presento un esquema de análisis que se inspira en varias tradiciones de la filosofía
de la ciencia. No por simple eclecticismo, sino porque creo que, si queremos ser fieles a la práctica
científica, necesitamos considerar varios tipos de elementos. Mi propuesta tiene muchas similitudes
con las ideas de Toulmin hace ya décadas; también con lo que discutió T. Kuhn en la ‘Postdata’ de La
estructura de las revoluciones científicas. Pero hay modificaciones importantes: mi propuesta es,
creo, más clara y simple que la de Kuhn, lo que sobre todo se debe a que estamos concentrando
nuestra atención en la actividad teórica (dejando la actividad experimental, y la relación entre ambas,
para más adelante) y estamos obviando los aspectos más vagos y vaporosos de los famosos
“paradigmas” kuhnianos.
En primer lugar, los científicos trabajan con elementos de carácter lingüístico o simbólico, a los
que llamaremos principios teóricos. Es el caso, en la teoría de Newton, de las famosas tres leyes del
movimiento y la Ley de Gravitación Universal. O es el caso, en otras teorías físicas
(electromagnetismo, relatividad, cuántica) de las ecuaciones fundamentales. Pero lo mismo sucede en
ciencias naturales distintas como puede ser la biología: los principios básicos que caracterizan el
proceso de “evolución por selección natural” son los principios teóricos del evolucionismo biológico.
A veces los principios teóricos se formulan en lenguaje matemático, como pasa en los casos famosos
de f = m · a (la 2ª ley de Newton), o de e = m · c2 (la famosa consecuencia de la mecánica relativista
de Einstein, o relatividad especial). A veces, en el desarrollo de la ciencia, se formulan en lenguaje
natural –ligeramente perfeccionado y precisado por el empleo de conceptos y términos nuevos,
propios de la ciencia–, como sucedió con la mencionada teoría evolutiva hasta los años 1930.
Pero ya hemos visto que las teorías necesitan incluir muchos más elementos, mucha más
información, para tener implicaciones empíricas: para explicar fenómenos o para predecirlos. Así que
necesitamos algún elemento en nuestro análisis que suministre esta información adicional. Al
34
desarrollar una teoría, los científicos van acumulando una gran cantidad de “datos” acerca de aspectos
del mundo real que resultan especialmente relevantes, a la luz de los principios teóricos. Por ejemplo,
los newtonianos se dedicaron a estimar las masas de los planetas y los satélites, etc., y también a
medir el valor numérico de la célebre constante de Newton, G, que aparece en la Ley de Gravitación
Universal. El resultado es una auténtica enciclopedia de “datos”, que podemos llamar una base de
“datos”. Escribo siempre esta palabra entre comillas, para recordaros que el lenguaje –incluso el
lenguaje de los científicos– es polisémico: aquí no estamos hablando de datos en el sentido que para
nosotros es más importante: datos de observación o de experimentación, sino en realidad de aquello
que antes llamamos condiciones iniciales. (Podríamos decir que la teoría incluye una ‘enciclopedia de
condiciones iniciales’, pero la expresión parece rara, un tanto pedante.)
Ahora bien, debemos recordar que los principios teóricos a menudo presuponen el contenido de
otras teorías, y que sólo conjuntamente con estas dan lugar a una representación de los fenómenos que
interesan al científico. De esta forma, combinando principios teóricos y otras teorías, se obtienen
modelos teóricos, modelos que pretenden representar ciertos tipos de fenómenos reales. Los modelos
de una teoría satisfacen siempre los principios teóricos generales de ella (y a menudo algún otro
principio, de carácter más específico o más particular); pero los modelos son mucho más ricos en
contenido que los simples principios teóricos. Aprender a elaborar estos modelos, a utilizarlos para
representar fenómenos, a razonar y calcular partiendo de dichos modelos, es una parte esencial del
aprendizaje científico. Para aprender una teoría, nunca ha bastado con saberse de memoria los
principios teóricos, y ahora entendemos un poco mejor por qué.
Pongamos dos ejemplos tomados de la teoría newtoniana. Entre sus modelos teóricos encontramos
los de tipo sistema solar, que pueden aplicarse a entender las órbitas de los planetas en torno al Sol,
pero también las órbitas de los planetas en torno a cualquier otra estrella, o las órbitas de los satélites
de Júpiter en torno a éste. Encontramos también modelos teóricos completamente distintos, como son
los modelos del comportamiento del péndulo, etc. Cuando empleamos uno de estos modelos y le
añadimos toda la información de condiciones iniciales necesaria (información que extraemos de la
base de “datos”), obtenemos por fin un candidato a representar un fenómeno concreto. Sobre esta base
resulta posible por fin realizar predicciones y llevar a cabo una contrastación de la teoría.
Hubo un tiempo en que los filósofos de la ciencia no tenían en cuenta la importancia de los
modelos teóricos. En aquella época (la de Carnap y Popper) se intentaba analizar las teorías científicas
sólo en términos de enunciados y de sus relaciones lógicas elementales. Esto es lo que se ha llamado
la concepción enunciativa de las teorías científicas, y resultaría adecuada si tuviéramos que hablar de
teorías axiomatizadas, pero es claramente demasiado rígida e inflexible para que sea útil en relación a
la práctica científica.
Curiosamente, cuando se vio la necesidad de introducir también modelos, enseguida surgieron
puristas que propusieron entender todo lo importante únicamente en términos de modelos. “¿Que
35
tenemos que hablar de modelos? Pues hablemos sólo de modelos”. Es lo que se ha llamado la
concepción semántica (formal) de las teorías científicas, o también la concepción estructural. Este
punto de vista tiene sus virtudes, pero sólo desde un punto de vista muy abstracto, el propio de un
matemático o un lógico puro. De nuevo, empeñarse en reducirlo todo a un único tipo de elemento es
una postura demasiado rígida e inflexible. (Un ejemplo de las virtudes es la elegante definición de
“adecuación empírica” –vía isomorfismos– que da van Fraassen en su libro La imagen científica;
pero cuando se reflexiona sobre lo absolutamente abstracta que es esta definición, y sobre lo lejana
que queda de la práctica científica, ya no resulta tan claro que haya una ganancia.)
Como puede verse, el enfoque que propongo aquí combina elementos de la concepción enunciativa
y de la concepción semántica (formal), y lo hace no por eclecticismo, sino –como he intentado
aclarar– por razones internas. Pero hay además otro elemento que me parece necesario tener en
cuenta, y es quizá la aportación principal de Kuhn. Me refiero a la idea de “paradigma”, pero no en el
sentido vago y general, sino en el concreto de ejemplo paradigmático, caso o problema resuelto
particular que es un modelo a seguir de teoría–en–aplicación. Igual que hizo Kuhn en su ‘Postdata’,
para evitar equívocos nos referiremos a estos casos de teoría–en–aplicación con el nombre de
ejemplares.
¿Qué es, más concretamente, un ejemplar? En cierto modo, puede parecer algo superfluo: es un
modelo particular de un cierto fenómeno (por tanto, combina modelos y principios teóricos con
información sobre “datos” de condiciones iniciales) que ha resultado especialmente exitoso en su
contrastación, es decir, desde el punto de vista de su adecuación empírica. Un caso obvio es el modelo
newtoniano de nuestro sistema solar, que los físicos fueron refinando desde los tiempos de Newton,
pasando por los de Laplace, etc. Alguien podría pensar que, desde un punto de vista lógico, no hay
necesidad de destacar la presencia de estos ejemplares. Pero Kuhn tenía razón al decir que, en el
desarrollo de las teorías científicas, estos casos paradigmáticos o ejemplares son muy importantes.
Sirven de punto de apoyo, o mejor, punto de referencia constante en el desarrollo de la ciencia: son
fundamentales a la hora de aprender a hacer ciencia, y el investigador los tiene muy en cuenta al
enfrentarse a problemas nuevos. Los problemas nuevos se tratan por analogía con los ejemplares: el
caso nuevo se intenta resolver del mismo modo, pero a menudo harán falta cambios más o menos
importantes en los detalles; cambios que nadie puede especificar de antemano, sino que deben ser
elaborados creativamente por el científico.
Recordemos que, como dijo Kuhn, cuando se adopta un nuevo punto de vista científico siempre
hay en él algo de realización satisfactoria (hay ejemplares convincentes), pero también hay mucho de
promesa de éxitos futuros. La tarea de los científicos durante la etapa que él llamó de “ciencia
normal” no es más que hacer efectiva esta promesa, aclarando nuevos fenómenos al resolver nuevos
problemas (algunos muy complejos). En este proceso dinámico y creativo, los casos o problemas ya
resueltos –especialmente los que son paradigmáticos: los ejemplares– tienen una importancia
36
cognitiva muy especial para el científico. Así pues, si no hay motivos lógicos para destacar el papel de
los ejemplares, sí que abundan los motivos tanto cognitivos como históricos.
Antes de abandonar este tema, un último comentario aunque sea telegráfico. Los modelos
científicos que se proponen para casos particulares nunca son absolutamente precisos. El error, pero
un error limitado y –en principio– controlable, es parte fundamental de las teorías científicas. Las
fuentes de error están tanto en el trabajo experimental, que nunca puede ser perfecto, como en el
trabajo teórico: los cálculos son a menudo sólo aproximados, se basan en supuestos simplificadores,
etc. Simplificar es la única manera humana de comprender los fenómenos, y lo cierto es que da muy
buenos resultados. La importancia del error, de las aproximaciones, de la simplificación, es la razón
de que digamos que los modelos científicos sólo aspiran a representar bien la realidad “en
determinados respectos” (no todas las facetas del fenómeno) y “hasta cierto grado” (no con una
quimérica precisión absoluta). De hecho, se han desarrollado amplias teorías del error, que permiten a
los científicos tener más en cuenta y minimizar los efectos de la inevitable presencia de este factor.
Como dice Morin, para entender mejor el conocimiento humano hay que tener muy en cuenta los
riesgos del error y la ilusión; son temas que ya han salido varias veces en este curso, y continuarán
apareciendo.
7. Límites de validez de las teorías científicas. Aplicaciones, incertidumbre y riesgo.
Toda la metodología de la ciencia descansa en el principio de la primacía de los datos experimentales:
la experimentación es el juez último de la validez de las teorías. Además, hoy se acepta unánimente la
idea del falibilismo: que las teorías hoy aceptadas pueden siempre ser reemplazadas en el futuro, que
nunca se alcanza una situación de estabilidad duradera. Ambas ideas conducen a la conclusión de que
toda teoría científica encuentra límites a su validez. Las fronteras dentro de las cuales resulta
plenamente fiable son las del campo de fenómenos respecto a los cuales se han podido hacer un gran
número de observaciones y experimentos de calidad. Al aplicar la teoría fuera de esas fronteras, se
está extrapolando, y siempre cabe la posibilidad de que su validez en esos casos sea limitada.
Ahora bien, desde el punto de vista de la sociedad en general –sobre todo en los últimos dos
siglos– lo que más importa de la ciencia no es su valor intrínseco como conocimiento, sino las
aplicaciones y los desarrollos tecnológicos a que da lugar. Este es el sentido de la conocida expresión
I + D, investigación y desarrollo, donde se sobreentiende investigación científica y desarrollo
tecnológico. (La última moda, impulsada en España por el gobierno del PP, es hablar de I + D + i,
donde la última letra se refiere a innovación industrial.) Cuando se habla de “aplicación” de las
teorías científicas, normalmente se está haciendo referencia a la tecnología, o también al empleo de
conocimientos científicos para analizar situaciones que no son “de laboratorio”, sino “de la vida real”
(pensad en las pruebas de DNA que se hacen hoy en los juicios).
37
Es importante decir que el modo en que las teorías se aplican en el campo de la tecnología no es
tan simple como a menudo se piensa. Mucha gente cree que “todo lo importante” está en la teoría, de
manera que el teórico es capaz de prever todos los aspectos relevantes del artefacto o la técnica que se
va a desarrollar. La situación suele ser más compleja: el ingeniero tiene que añadir muchos detalles
basados en su conocimiento de los materiales, o de los diseños más apropiados en cada circunstancia,
o de las normas de seguridad que se han ido adoptando por común acuerdo. (Un ejemplo sencillo: a
nadie se le ocurre construir un edificio con columnas del menor tamaño y resistencia aceptables según
los cálculos teóricos; los buenos profesionales siempre trabajan muy por encima de los mínimos.) Así
que la ingeniería tiene su enciclopedia de conocimientos particulares, relativos a materiales, diseños,
etc., que van más allá del conocimiento del científico.
Hay quien piensa que la aplicabilidad tecnológica de las teorías es un argumento decisivo a favor
de su verdad, a favor del realismo. Pero este argumento sólo sería concluyente si la aplicación de las
teorías siguiera el esquema más simplista que hemos criticado antes. Cabe pensar, como hace la
filósofa Nancy Cartwright, que, al diseñar sus artefactos, los ingenieros utilizan su conocimiento
especializado para fabricar dispositivos muy particulares que permiten reproducir cosas semejantes a
los resultados de laboratorio. Desde este punto de vista instrumentalista, la teoría puede extrapolarse a
esas situaciones tecnológicas concretas que el ingeniero ha sido capaz de crear aplicando toda su
habilidad. Pero esto no significa que pueda extrapolarse a cualquier fenómeno, “del mundo real”, del
tipo que supuestamente explica la teoría. (O sea, a fenómenos a los cuales un realista pensaría que la
teoría describe y explica bien, sin ninguna duda.)
Estas ideas de Cartwright parecen especialmente adecuadas a las ciencias de laboratorio, las que
continuamente trabajan con experimentos. La aplicación de la teoría no sería otra cosa que traspasar
resultados obtenidos en situaciones técnicas muy concretas (con los instrumentos y los experimentos
del laboratorio) a otras situaciones técnicas muy concretas: los aparatos cuidadosamente ingeniados y
“apantallados” de influencias incómodas, que producen los ingenieros. [Conviene indicar que, pese a
su antirrealismo con respecto a las leyes científicas, Cartwright y otros autores de su tendencia
encuentran motivos para ser más realistas con respecto a los objetos de los que hablan los científicos:
átomos, electrones, etc.]
Aceptemos por tanto que hay límites para la validez de las teorías. Esto nos conduce a la
conclusión de que, en la aplicación de las mismas, podemos encontrarnos con diversos grados de
incertidumbre. Y el manejo de situaciones en las que está presente la incertidumbre debe seguir reglas
especiales, sobre todo se debe aplicar un principio de prudencia.
38
Lecturas adicionales:
P. Duhem, La théorie physique, son objet et son structure, Paris, 1906; Paris, Vrin, 1981. (= The aim
and structure of physical theory, 1954.)
Euclides de Alejandría, Elementos (Madrid, Gredos, 1991). Se recomienda leer el “Libro I”, que
establece 48 teoremas, siendo el penúltimo el teorema de Pitágoras.
B. van Fraassen, La imagen científica, Barcelona, Paidós, 1996.
T. S. Kuhn, “Posdata: 1969”, en La estructura de las revoluciones científicas (México, FCE, 1975).
C.U. Moulines, Exploraciones metacientíficas, Madrid, Alianza, 1982.
— ed., La ciencia: estructura y desarrollo, Madrid, Trotta, 1993.
E. Nagel, La estructura de la ciencia, Buenos Aires, Paidós, 1968.
B. Pascal, “Del espíritu geométrico”, en Obras (Madrid, Alfaguara, 1981), pág. 278–292.
H. Poincaré, Ciencia e hipótesis, Espasa, colección Austral.
W. V. Quine, “Dos dogmas del empirismo”, en Desde un punto de vista lógico (Barcelona, Ariel,
1962).
A. Tarski, “Sobre el método deductivo”, Cap. VI de Introducción a la lógica y a la metodología de
las ciencias deductivas (Madrid, Espasa-Calpe, 1968).
R. Torretti, “El método axiomático”, en Moulines, La ciencia: estructura y desarrollo, op. cit.
1
4. La experimentación y sus problemas.
El enfoque de la actividad científica planteado en este curso se basa en tomar en serio la siguiente
idea: la experimentación es tan importante como la teorización, y el conocimiento científico sólo
puede entenderse si analizamos la interacción entre ambas actividades. Es hora pues de estudiar las
características y problemas de la experimentación.
1. Centralidad y problematicidad de la base empírica. La base empírica de las ciencias tiene un papel esencial – no es necesario enfatizarlo– y es a fin de
cuentas lo que confiere su especificidad al conocimiento científico. Como decía el gran físico Richard
Feynman: The principle of science, the definition, almost, is the following: The test of all knowledge is experiment. Experiment is the sole judge of scientific ‘truth’.
30
Esta es una convicción empirista, si se quiere decir así, y en esa medida podemos identificarnos
plenamente con el espíritu del empirismo (aunque cabría matizar lo de “sole judge”, “único juez”).
Pero hay un problema: las epistemologías empiristas van más allá de esa convicción básica,
introduciendo una serie de elementos adicionales que acaban constituyendo un estorbo. Buen índice
de esta situación es que los empiristas del siglo XX prácticamente no han estudiado la
experimentación científica. Si estoy en lo cierto, la principal causa de esta pequeña paradoja es que
sus convicciones epistemológicas les han incapacitado para plantear el problema correctamente. Al
reducir a priori el proceso de adquisición de datos a la recepción de impresiones por un sujeto–mente,
se hace inevitable prescindir de casi todos los aspectos de la práctica experimental real.
Pero las cosas no han estado mucho mejor entre los oponentes del empirismo. De hecho, un lugar
idóneo para comenzar a discutir este tema es la famosa Lógica de la investigación científica de
Popper. Entre los problemas capitales que plantea Popper está por supuesto el “problema de la base
empírica” [1959, 42–43 y cap. 5], pero de facto se convierte para él en un problema casi intratable.
Las proposiciones básicas que expresan resultados empíricos son, según Popper, el resultado de una
convención, de un acuerdo entre los científicos, ya que si exigiéramos que nos las demuestren, nos
veríamos llevados a un regreso infinito [1959, 101]. Además, Popper coquetea con la idea de que
estas proposiciones básicas no son independientes de las ideas teóricas, sino que tienen una cierta
carga teórica. Esta idea, que Popper no llegó a desarrollar, condujo a resultados que se pueden
calificar de absurdos en manos de seguidores suyos como Lakatos. Como puede verse, estamos en las
30 Feynman, Leighton & Sands, The Feynman Lectures on Physics, Addison-Wesley Pub. Co., 1963, p. 1.
2
antípodas del empirismo: para los empiristas, los datos eran frutos absolutamente seguros de la
observación, mientras que los conceptos teóricos eran sospechosos; para Popper, los conceptos
teóricos son absolutamente necesarios y son lo único bien establecido, mientras que los llamados
‘datos’ son algo muy inseguro y discutible. Dice textualmente:
La base empírica de la ciencia objetiva, pues, no tiene nada de «absoluta»; la ciencia no está cimentada sobre roca: por el contrario, podríamos decir que la atrevida estructura de sus teorías se eleva sobre un terreno pantanoso, es como un edificio levantado sobre pilotes. Estos se introducen desde arriba en la ciénaga, pero en modo alguno hasta alcanzar ningún basamento natural o «dado». [1959, 106]
Entre la confiada declaración de Feynman, y el carácter escurridizo y convencional de la base
empírica de que habla Popper, media un abismo. Si las cosas son como las pintan Popper y sus
seguidores, resulta difícil explicar por qué los científicos se comportan como dice Feynman, y qué
tipo de garantías especiales puede darnos el conocimiento científico. Poniéndonos un poco radicales,
y aceptando plenamente la carga teórica de los datos, no se ve cómo puede haber diferencias entre
ciencia y metafísica.
Sin duda, es un mérito de Popper haber captado bien las dificultades a las que abocaba su
planteamiento, y haberlas recogido honestamente sin intentar ocultarlas (aquí hace honor a las normas
que él mismo proponía para los científicos). La cuestión es si podemos salvar esas dificultades, y
cómo. Una clave está en reconocer que la fuente principal de las dificultades de Popper es su enfoque
puramente lógico-lingüístico de las cuestiones epistemológicas. Si todo en ciencia es cuestión de
enunciados, y el único modo de justificar un enunciado es mediante la lógica deductiva, entonces está
claro que los enunciados básicos o empíricos no pueden justificarse: sólo pueden aceptarse por
convención. (Popper se tranquilizaba poniendo ejemplos de cómo “en la práctica” los científicos no
encuentran difícil llegar a estos acuerdos convencionales; pero este argumento pragmático no tiene
ningún valor para la teoría de la ciencia.) La conclusión es que, para un tratamiento adecuado de la
“base empírica”, resulta especialmente importante ir más allá de ese tipo de enfoque. Para analizar
cómo los datos, los resultados empíricos o los “enunciados básicos” de Popper, son obtenidos
mediante la actividad experimental, es imprescindible discutir las bases biológicas, cognitivas y
técnicas del conocimiento científico. Sólo así podremos afrontar con tranquilidad el problema de la
experimentación.
Claro está que aquí surgen dudas de si estamos preparados para desarrollar este tipo de
planteamiento con un mínimo de pregnancia y detalles, o si más bien el intento de abordar esa
cuestión es prematuro. Pero ello sólo podrá evaluarse a la vista de los resultados; me permito citar a
Popper y Novalis: “sólo quien lance pescará”.
El resultado de las tradiciones filosóficas que se manifiestan en los empiristas (y parcialmente en
Popper) fue que se planteó el desarrollo de la ciencia como una cuestión de la interacción entre teoría
y datos de observación. En esta dicotomía, que a primera vista parece tan clara, se olvida todo lo
3
relativo a la actividad experimental u observacional concreta: el despliegue de instrumentos y
técnicas, la actividad física desarrollada por los científicos, ya sea en los laboratorios o en el trabajo
de campo, etc. Además, con aquella dicotomía se hace pensar que los datos, los resultados, se
obtienen de manera directa e inmediata como fruto de una acción simple y epistemológicamente
privilegiada: observar.31
Además, esos enfoques clásicos indujeron a pensar en la experimentación como algo de carácter
puntual, discontinuo: como si cada dato científico fuera el resultado de un único experimento y
pudiera obtenerse en un solo intento. Hay que decir que, a menudo, los propios científicos han
fomentado esta simplificación, que desde el punto de vista filosófico y epistemológico es fatal.
Veremos que todos los puntos anteriores son erróneos, y en particular plantearemos que la
experimentación es un proceso dinámico, y que cada dato sólo puede ser el resultado de toda una serie
de experimentos (una investigación experimental). Es necesario, en este sentido, hablar de procesos
de formación de datos.
A fin de cuentas, toda una serie de tendencias filosóficas y científicas se fueron apoyando
mutuamente hasta producir lo que hemos llamado teoreticismo. Con este término nos referimos a la
tendencia –clásica en filosofía de la ciencia– a privilegiar los aspectos teóricos del conocimiento sobre
cualquier otro de sus rasgos, de modo que toda la actividad científica era interpretada desde el punto
de vista de la elaboración de conceptos y la teorización. De esa tendencia se deriva la inclinación a
reformular cualquier cuestión o problema de la filosofía de la ciencia en términos exclusivamente
conceptuales o teóricos. Correlativamente, lo empírico tendía a ser considerado como algo situado en
los márgenes,32 los resultados experimentales eran objeto de una simplificación y estilización
sistemática, y los procesos propios de la actividad experimental desaparecían de la reflexión
metodológica.33
2. Instrumentos: la dimensión técnica de la ciencia. El modo más eficaz de superar los prejuicios de nuestra tradición epistemológica, yendo más allá de
los empiristas y los falsacionistas, bien puede ser poner énfasis en la instrumentación, en la dimensión
técnica de la actividad experimental. Quienes más atención han dedicado a estos aspectos de la
ciencia son toda una serie de autores que han realizado estudios históricos y sociales, desde
historiadores pioneros como Holmes y Heilbron, hasta sociólogos como Collins y Pickering. Al entrar
en estas aguas, nos encontramos con la fuerte polémica en torno a la “construcción social” del
conocimiento, que ha tenido lugar durante los últimos 20 años. Esto complica las cosas, pero a la vez
31 Esto es algo que Popper criticaba con toda razón, lo que constituye otro mérito de su enfoque.
32 Piénsese por ejemplo en la célebre imagen de la ciencia como un “campo de fuerzas” lógico-lingüístico cuya línea de frontera
es lo empírico, imagen propuesta por Quine en 1951. 33 Sobre este tema y los que siguen, ver mi artículo con J. Ordóñez, ‘Hacia una filosofía de la experimentación’, Crítica: revista
hispanoamericana de filosofía Vol. 34 (Diciembre 2002), nº 102, 47–86.
4
hay que pensar que todo avance sólido que realicemos en el análisis de los factores cognitivos
implicados en la actividad experimental, será un avance en dos frentes: hacia la clarificación del
problema del que hemos partido, y hacia la elaboración de una filosofía de la actividad científica que
supere las tendencias sesgadas del sociologismo.
Pues bien, en este punto del tema bastará discutir algunos ejemplos para mostrar cómo, no sólo la
experimentación sensu strictu, sino también lo que es propiamente observación, depende y ha
dependido esencialmente de instrumentos. Si volvemos a ejemplos de trabajo experimental que se han
discutido previamente, como los trabajos de Galileo con péndulos y planos inclinados, o los de
Newton con prismas, nos encontramos con que aún en estos estadios primitivos del desarrollo
científico la situación es la descrita. La utilización de telescopios y microscopios fue una de las
mayores novedades en la Revolución Científica del siglo XVII, y aquí se trata de pura observación
(pensemos en las observaciones de la Luna, de los satélites de Júpiter, de los anillos de Saturno, de las
fases de Venus, de los cometas).34 Pero es observación mediada por instrumentos técnicos, y todo el
desarrollo de la astronomía ha dependido de una complejidad cada vez mayor en la tecnología de esos
instrumentos. Así se acaba llegando a los telescopios y otros detectores instalados en satélites (como
el Hubble o el Cobe), a los grandes despliegues de radiotelescopios, a los microscopios electrónicos o
los que aprovechan diversos efectos cuánticos, etc. (Hemos visto ejemplos de todo esto en una
presentación realizada en clase.)
La ciencia del último siglo es cada vez más dependiente de la instrumentación y la alta tecnología;
entre el ojo que observa y lo observado hay una capa cada vez más gruesa, una mediación técnica
cada vez más complicada. Pensemos en casos como pueden ser los experimentos de Thomson con
tubos de vacío que le permitieron descubrir el electrón, o las imágenes del DNA por difracción de
rayos X que condujeron al modelo de la doble hélice, o el empleo de aceleradores de partículas,
detectores de neutrinos, etc. Hoy cabe decir que no hay ningún dato observacional que la ciencia
registre sin recurrir a instrumentación muy compleja y sofisticada (si no me equivoco, las posibles
excepciones representarán porcentajes estadísticamente despreciables). Tampoco hay ningún dato,
ningún resultado experimental que no sea el fruto de un trabajo colectivo: detrás de cada dato hay toda
una red de experimentadores que han participado en elaborarlo y precisarlo, en criticarse mutuamente
las prácticas experimentales empleadas, etc.
Otra idea que nuestra tradición hace plausible, pero que (como afirmación general) resulta errónea,
es que los procesos de observación son más simples que los de experimentación. Veamos dos
ejemplos de gran importancia histórica. En 1919, los miembros de la Royal Society obtuvieron la
conclusión de que la teoría general de la relatividad (TGR, que es la teoría einsteiniana de la
34 Otros casos importantes de observación pura nos los ofrecen las múltiples investigaciones relacionadas con termómetros,
barómetros, telescopios, y un larguísimo etcétera que va mucho más allá de los límites de la física: dos ejemplos escogidos a
5
gravedad) era correcta. La base empírica para esta afirmación fueron datos obtenidos al observar
estrellas que aparecen visualmente muy cerca del Sol, durante un eclipse total de éste. Estos datos
fueron obtenidos por científicos británicos en dos expediciones simultáneas, a __ y __. Basta que
pensemos por un momento en la complejidad logística y organizativa de estas expediciones, la
cantidad de gente implicada, el despliegue de telescopios necesario, el dinero empleado, etc. El
resultado de todo este despliegue de medios, y de una intensa discusión de los resultados que se
obtuvieron (ver más abajo), fue un “simple” dato de observación. Podríamos poner muchos otros
ejemplos similares, y muy anteriores.
Cien años antes, en 1820, el físico danés Hans Christian Oersted realizó un famosísimo
experimento en el que mostraba la existencia de efectos electromagnéticos, esto es, que el paso de una
corriente eléctrica por un hilo causa efectos magnéticos en torno a éste. Dos “fuerzas” de la
naturaleza, hasta entonces distintas, resultaban estar interconectadas. Los datos de Oersted son
experimentales, pero para obtenerlos basta con instrumentos que cualquiera puede conseguir y
disponer en su casa: una pila de cierta intensidad, un hilo conductor, y una aguja imantada. Se trata
de un experimento de sobremesa, como muchos otros de los que se realizaron en el siglo XIX. Lo más
delicado del instrumental era la bateria o pila, que necesitaba ser potente. En cuestión de semanas,
decenas de científicos por toda Europa repetían el experimento de Oersted; en cambio, las
observaciones en eclipses solares requieren una planificación y un despliegue de medios que las
ponen fuera del alcance de una persona normal. (Otros ejemplos del mismo tipo, aunque de más
complicación, pueden ser los experimentos de Roentgen que le permitieron descubrir los rayos X, o
los de Thomson que le llevaron al descubrimiento del electrón; ambas cosas sucedieron poco antes de
1900.)
Ya sabemos que las teorías científicas son falibles, especialmente cuando se trata de teorías de
muy algo nivel; pero también los resultados empíricos son falibles. La posibilidad de que un “dato”
sea erróneo es tanto mayor cuanto más novedosas sean las técnicas de experimentación u observación,
y cuanto más se intente precisar detalles que están en los límites de la capacidad de los instrumentos.
Aquí ocurre lo mismo que en cualquier observación realizada sin más auxilio que el de nuestros
sentidos: muchos de nosotros no podemos precisar, a una distancia importante, si el animal que vemos
es (digamos) un gato o un perro; muchos científicos de 1700 no podían ver los detalles que
Leeuwenhoeck lograba observar con sus microscopios minúsculos y su increíble vista (y habilidad).
Hay personas que son capaces de distinguir dos notas que se diferencian sólo en un cuarto de tono
(diferencia que no aparece nunca en la música occidental), mientras que otros desafinan cantando una
canción cualquiera. No es extraño que, cuando los científicos quieren precisar qué es eso que se
intuye en los límites de visión de un instrumento, puedan llegar a hablar de cosas imaginarias: canales
vuelapluma son los estetoscopios que emplean los médicos para escuchar los latidos del corazón, y los sismógrafos que registran los movimientos de la corteza terrestre, en especial terremotos.
6
construidos por los marcianos, o procesos de formación de las células que microscopios más potentes
revelarán que no existen.
Los datos que maneja un teórico no son, sin más, los resultados que se obtuvieron en el
laboratorio: son una interpretación de dichos resultados a la luz de experiencias previas, el
conocimiento de los instrumentos y sus posibles sesgos y deficiencias, teorías estadísticas de la
corrección de errores, etc.35 La manipulación técnica nunca alcanza a ser perfecta, de manera que los
resultados siempre muestran alguna variabilidad; pero el dato que se obtiene es único, y hay una serie
de métodos muy sofisticados que permiten juzgar la fiabilidad de los datos, refinarlos, etc.
Dicho esto, y puesto que he mencionado antes la “confirmación” de la TGR que hizo
mundialmente famoso a Einstein, llevándole a ocupar las portadas de los periódicos con titulares
como “Newton desbancado” en 1919, conviene que comentemos algo más. Quienes han revisado las
actas de las discusiones de la Royal Society en las que se decidió dar la razón a Einstein, llegan a la
conclusión de que los resultados observacionales que se habían obtenido no eran bastante claros como
para afirmar que la predicción de la TGR quedaba confirmada. Eran datos ambiguos, insuficientes,
pero el interés del asunto y las presiones del momento llevaron a decidir democráticamente el
resultado. ¿Fraude? No tanto, pero sí, desde luego, un apresuramiento y un riesgo innecesarios. Si
hubiera sido fraude, se habría descubierto en las muchas otras observaciones similares que se han
hecho posteriormente, y que cada vez han confirmado las predicciones de TGR con mayor nitidez.
Fue una suerte para los astrónomos que no hubieran tenido que desdecirse de lo afirmado en 1919
(como ha pasado en tantas otras ocasiones, con la fusión fría, con la “quinta fuerza”, etc.). Hubiera
quedado muy mal, después del enorme impacto mediático que tuvo la decisión inicial.
3. Una tipología elemental de experimentos.
Otra idea tradicional que hay que desmentir es la siguiente: que los datos son siempre cuantitativos,
que el científico experimental se dedica siempre a medir. Esta idea fue muy impulsada por el
positivismo, pero hace aparecer la parte como el todo. Los fabricantes de instrumentos de principios
del siglo XVIII nos acercan a una visión más correcta. Estos hombres anunciaban sus productos
distinguiendo, fundamentalmente, dos categorías: instrumentos “matemáticos” e instrumentos
“filosóficos”. Los nombres, claro está, nos resultan confundentes, pero basta analizar un poco la
clasificación para que podamos traducirlos a nuestros lenguaje: los instrumentos “matemáticos” sirven
para medir (recordemos que entonces se pensaba en la matemática como ciencia de las cantidades),
mientras que los instrumentos “filosóficos” se limitaban –y no es poca cosa– a poner de manifiesto
fenómenos nuevos, nunca antes observados. El que se usara ese adjetivo no resulta extraño, si
tenemos en cuenta que lo que hoy llamamos “ciencia” se llamaba entonces “filosofía natural”.
35 Asuntos como el de las teorías del error son muy importantes metodológicamente y muy delicados, pero se trata de un tema
demasiado complejo para discutirlo aquí.
7
El astrolabio era un instrumento “matemático” que inventaron los musulmanes: servía para medir
los ángulos que fijan la posición en el cielo de un astro cualquiera en un momento dado. La
astronomía era el campo en el que más se habían desarrollado este tipo de instrumentos de medición,
los cuadrantes, los telescopios con rejillas, etc., pero ya la brújula es un instrumento de medir. Por
otro lado, el mismo telescopio fue, hasta bien entrando el XVIII, un instrumento meramente
“filosófico”: permitía ver cosas nuevas como los satélites de Júpiter o los anillos de Saturno, pero
todavía no se había perfeccionado hasta el punto de permitir mediciones precisas. También los
microscopios eran “filosóficos”, descubrían todo un mundo de detalles y criaturas minúsculas que
excitó la curiosidad y la imaginación de tantos hombres. Otros instrumentos de este tipo eran las
bombas de vacío, etc.
Como muestra el caso de microscopios y telescopios, no está escrito en el destino de los
instrumentos que sean meramente cualitativos o bien permitan mediciones. Muy a menudo se empieza
por una cosa y se acaba en la otra. Incluso aquellos instrumentos del XVII que, por simplificar,
llamamos termómetros o barómetros (donde el sufijo –metro indica medición), empezaron siendo
instrumentos puramente cualitativos, que ponían de manifiesto fenómenos novedosos. Sólo tras
investigar sistemáticamente estos fenómenos e introducir aclaraciones conceptuales al respecto
(teorías), fue posible emplearlos para medir. Así que, en rigor, sólo a partir de cierto momento
deberíamos hablar de barómetros, y habría que inventar una palabra nueva (quizá “baroscopio”) para
el instrumento “filosófico” anterior.
Esto sugiere que, en una tipología elemental de experimentos, hay que distinguir entre
experimentos cualitativos y cuantitativos. Lo más importante del experimento de Oersted fue el
fenómeno cualitativo que ponía de manifiesto, por más que fuera muy fácil refinar el experimento
para hacer mediciones. Puede parecer que con esa distinción no hemos ganado mucho, pero
recordemos hasta qué punto la idea de que los datos deben ser cuantitativos ha condicionado el
desarrollo de las ciencias humanas y sociales (psicología, sociología). Siguiendo la receta positivista,
estas ciencias han buscado a menudo su legitimidad en la magia de los números: lo importante era
medir algo, aunque no se supiera bien qué se estaba midiendo, o no fuera central para los fenómenos
que supuestamente interesaban. Hacia 1960, cuando le invitaron a hablar ante científicos sociales,
Kuhn sintió la necesidad de aclarar cuál es la función de la medición en las ciencias físicas,
insistiendo en que la experiencia y los experimentos no cuantitativos, que preceden a la medición, han
sido determinantes para la formación de conceptos y la elaboración de leyes.36 La investigación
cualitativa permite a menudo captar o vislumbrar relaciones en los fenómenos, sobre las que podemos
luego teorizar, y que podemos –en su caso– confirmar con investigaciones empíricas más precisas,
cualitativas y cuantitativas.
36 Ver su libro La tensión esencial, cap. .
8
Pero en su artículo Kuhn apenas hablaba de los experimentos cualitativos. Desde nuestro punto de
vista, el haberlos ignorado ha tenido un profundo efecto en la filosofía de la ciencia, porque (al menos
en el caso de la física) los experimentos cualitativos han sido una parte fundamental de los procesos
de formación de conceptos (que son parte indispensable de los procesos de formación de datos). Un
ejemplo sencillo es el de la distinción entre calor y temperatura, que no fue el producto de ninguna
elaboración de hipótesis en el vacío. Por el contrario, fue ante todo el resultado de largas y delicadas
series de experimentos cualitativos. Sólo después de haber establecido distinciones como ésa y otras
relacionadas, fue posible tener una comprensión inicial de lo que hacía un termómetro, a partir de la
cual fue convertido en instrumento de precisión. Sólo después de haber acuñado esos conceptos, fue
posible elaborar hipótesis teóricas en el campo de la teoría del calor y proceder a la matematización de
esta rama de la física. Estamos en el mundo de la carga experimental de los conceptos teóricos,
simétrico de la célebre carga teórica de la experimentación. Que normalmente sólo se insista en la
segunda, y se olvide la primera, es un efecto más del teoreticismo.
La imagen tradicional del experimento –que se encuentra en autores como Popper [1935, 101–03]
y todavía en van Fraassen [1980, 98–100]– es la de que sólo cabe realizar experimentos a la luz de las
preguntas y los conceptos determinados por una teoría. Frente a esto, Hacking y Franklin37 han
resaltado una y otra vez que la experimentación puede tener una vida propia, independiente de la
teoría. El tema vuelve a encontrarse, tematizado muy explícitamente, en los trabajos de Steinle sobre
las prácticas experimentales de Ampère y Faraday.38 En una palabra, se debe diferenciar entre
experimentación exploratoria y guiada (por una o más teorías). Si la tradición filosófica sólo tuvo en
cuenta la experimentación guiada, se debió en buena medida a su tendencia a reflexionar sobre ramas
de la ciencia completamente desarrolladas. Y es que la experimentación exploratoria se encuentra
principalmente en las primeras fases de desarrollo de una ciencia, cuando se está muy lejos de
conceptos y principios teóricos bien desarrollados y adecuados. Pero esto no quiere decir que
semejante experimentación sea poco importante desde el punto de vista epistemológico: antes al
contrario.
Siempre que se encuentra un nuevo dispositivo experimental, y más aún cuando se inventa algún
nuevo instrumento, tiene lugar una intensa actividad de carácter exploratorio. Se trata simplemente de
probar lo que puede hacerse con el nuevo experimento o dispositivo, de variar las circunstancias
imaginativamente y ver qué pasa. Un ejemplo simple nos lo daría el estudio primitivo de la
electricidad: una vez comprendido el fenómeno de la conducción eléctrica, quienes se interesaron por
él realizaron múltiples pruebas con todo tipo de materiales a mano; un resultado inevitable de este
juego exploratorio fue la distinción entre materiales conductores y no conductores. En diversos
trabajos, Steinle ha analizado los desarrollos exploratorios que diversos científicos dieron al
37 Véase Franklin [2002] y Hacking [1996], cap. 9.
38 Véase Steinle [2002].
9
descubrimiento por Oersted del fenómeno electromagnético. Su dispositivo experimental sumamente
simple (una aguja imantada, una batería o pila potente, y un hilo conductor) fue transformado y
variado de cien maneras.
Pero lo verdaderamente importante es la contribución que la exploración experimental realiza
al desarrollo de nuevos conceptos. Sin ir más lejos, la simple variación del lugar de la aguja con
respecto al hilo hizo patente que el efecto electromagnético parecía distribuirse circularmente en torno
al hilo, lo cual planteaba graves dificultades al enfoque físico tradicional en la línea de Newton y
Laplace, y en cambio conecta directamente con ciertos aspectos geométricos del concepto de campo.
Nótese además que para este resultado no es necesaria una cuantificación y medición precisa.
Frente a ello, la experimentación guiada emplea diseños experimentales cuidadosamente previstos
en función de las teorías relevantes. En general los experimentos que implican mediciones de alta
precisión –que a menudo son tomados (sesgadamente) como prototipo de la experimentación en
general– son fruto de la experimentación guiada. Pero hay que introducir dos precisiones: primero, las
relaciones entre teoría y experimento son de múltiples tipos, lo que conlleva que la categoría de
«experimentación guiada» –pese a su utilidad– resulte todavía demasiado burda. Segundo, y se trata
de un matiz importante, habitualmente toda investigación experimental (nos referimos a una serie de
experimentos ligados) incluye una buena dosis de trabajo exploratorio, es decir que probablemente
convendría considerar lo exploratorio y lo guiado como dos fases interactivas de la investigación
experimental.
Las dos distinciones que hemos planteado conducen, al cruzarlas, a una clasificación cuatripartita
de los tipos de experimentos. De hecho, es posible encontrar ejemplos de cada uno de los cuatro tipos.
Experimentos hacia los que llamó la atención Hacking, como los de Davy con el gas emitido por algas
subacuáticas y los realizados por Bartholin con el cristal de espato de Islandia, son buenos ejemplos
de experimentación cualitativa exploratoria.39 El célebre experimento de Oersted, en el que estableció
el efecto electromagnético, nos da un ejemplo de experimentación cualitativa guiada –y de hecho
guiada por una teoría atípica, una doctrina dinámica de las fuerzas físicas inspirada en Kant y
Schelling–.40 Para ejemplos de experimentación cuantitativa exploratoria, pueden verse los casos
estudiados por Steinle [2002], o la enorme cantidad de ejemplos ofrecidos por el desarrollo de las
investigaciones espectroscópicas en la segunda mitad del XIX, investigaciones que produjeron una
inmensa cantidad de datos precisos, inexplicables entonces.41 Por fin, el caso de la experimentación
cuantitativa guiada es casi el único sobre el que han reflexionado tradicionalmente los filósofos de la
39 Véase Hacking [1996, 180–84]. Bartholin advirtió en 1669 que los cristales de espato (calcita) traídos de Islandia producían
una doble refracción: un texto se veía doble al observarlo a través del cristal. 40 Si hemos de creer a Oersted, su descubrimiento no fue en absoluto un caso de serendipia, como a menudo se lo presenta. Véase
[Snelders 1990] y [Oersted 1998]. 41 Cabría considerar además el caso de Galileo con sus planos inclinados, pero aquí lo que tenemos más bien son experimentos
cuantitativos guiados por una teoría absolutamente errónea, y las dificultades subsiguientes para reconcebir los fenómenos de modo acorde con los datos. Hay una presentación elemental en Drake [1980, 58–63].
10
ciencia, y aquí se encuentran ejemplos tan conocidos como los experimentos de Millikan sobre la
carga del electrón, o las expediciones francesas del XVIII a Laponia y a Perú para medir la constante
G newtoniana.
4. Procesos de formación de datos y estrategias de validación de resultados.
Podemos ahora volver a plantear el problema general de cómo se obtienen resultados experimentales.
Lo primero que hay que decir es que los “datos” son más bien lo contrario de lo que sugiere la
etimología del término: lejos de ser algo dado (datum) en un proceso de observación que sería
automático y siempre fiable, conviene pensar que los datos son tan producto de largas elaboraciones
como las teorías mismas. Más aún, me parece imprescindible hablar de procesos de formación de
datos (análogamente a los procesos de formación de conceptos que discutieron Hempel y otros). Los
procesos de formación de datos son largos, complejos, comunitarios y tentativos; también aquí hay
que hablar de que el conocimiento científico es falible y, por tanto, siempre está sometido a revisión.
Solo se obtiene un resultado fiable al final de esos procesos de formación e interpretación; muy raras
veces hay resultados inmediatos e indiscutibles. Por esto hay que hablar de procesos, y por eso las
viejas ideas acerca de la observación son tan discutibles.
La vieja idea del método hipotético-deductivo, interpretada en plan teoreticista, sugería que los
científicos proponen hipótesis y teorizan durante largo tiempo, hasta que por fin consiguen una
predicción precisa; entonces, hacen un experimento y observan el resultado; tras haber confirmado o
refutado la predicción, continúa el proceso de teorización. Pero es esencial tener en cuenta que los
procesos de formación de datos no son automáticos ni instantáneos: no se trata nunca de un
experimento aislado en el que uno se limita a observar. La actividad experimental ocupa en todas las
ciencias más tiempo y recursos que la actividad teórica. Y no se realizan experimentos aislados, sino
procesos de investigación integrados por series de experimentos. Tener esto en cuenta es esencial para
entender la formación de datos.
En los procesos de formación de datos se ponen en práctica ciertas estrategias de validación
de resultados, que han sido analizadas por autores como Hacking y Franklin.42 Analizaremos a
continuación algunas estrategias básicas. Ante todo, hay que insistir en que estas estrategias son
características de la actividad experimental del científico. Algunos autores parecen pensar que las
estrategias de validación sólo estarían justificadas si cada una de ellas puede formalizarse y
justificarse en base a criterios formales.43 Pero la formalización lógica es algo propio de la actividad
teórica, no de la actividad experimental. Desde mi punto de vista, hay que verlo al contrario:
42 Ian Hacking, Representar e intervenir [1996], Allan Franklin, The neglect of experiment [1986], ‘Física y experimentación’
[2002]. 43 Es el caso de algún sociólogo, como Collins, que precisamente emplea la inexistencia de criterios formales como base para
afirmar que existen círculos viciosos en el proceso experimental, y que sólo los factores sociológicos llevan a una consolidación de ciertos resultados como ‘válidos’.
11
precisamente porque son algo característicamente empírico, y no son reducibles a lo teórico, es por lo
que las estrategias de validación de resultados realmente enriquecen la actividad científica y se
convierten en una fuente importantísima de conocimiento. La salud de la empresa científica depende
de la interacción entre actividad teórica y experimental: si una de ellas fuera reducible a la otra, esa
interacción no aportaría novedades.
Un análisis bastante pormenorizado de estrategias puede encontrarse en los trabajos de
Franklin (en castellano, [2002]). Aquí me limitaré a señalar tres estrategias básicas y características.
La importancia que tienen consiste en que permiten diferenciar lo que es verídico en los resultados
empíricos y lo que son “artefactos” producidos por los instrumentos y los procesos de
experimentación. Recordemos que los instrumentos experimentales producen artefactos: los
imperfectos telescopios que usaron Galileo y sus contemporáneos producían imágenes con distintas
“aberraciones” como la aparición de franjas de color y la deformación de las figuras. Pero basta la
propia práctica de la experimentación y la observación para aprender a descartar las distorsiones y
quedarse con lo verídico. Así pues, la idea de artefacto –y la vieja experiencia de que las
manipulaciones experimentales pueden producir artefactos más que imágenes reales– son
fundamentales para todo lo que sigue. Obtener resultados fiables es casi lo mismo que aprender a
descartar artefactos y discernir lo verídico.
El primer criterio de fiabilidad puede enunciarse así:
1. La convergencia entre resultados o representaciones que, o bien son de tipos distintos, o
bien tienen orígenes instrumentales y procedimentales diversos.
Más adelante veremos ejemplos de esta y las otras estrategias, extraídos de los experimentos que
realizó Newton con prismas. Hacking pone ejemplos tomados del empleo de miscroscopios para
observar células. Hay muchos tipos de microscopios: los más viejos son los ópticos, aunque ya en esta
categoría existen varios tipos (de polarización, de luz ultravioleta, de fluorescencia, de contraste de
fase, de interferencia); en el siglo XX han surgido los microscopios electrónicos, también de múltiples
tipos, los de efecto tunel, etc. Cada tipo de microscopio emplea un proceso físico diferente para
obtener una imagen, procesos que no tiene prácticamente nada en común entre ellos. Pero esos
procesos diferentes producen configuraciones visuales muy similares, poniéndo de relieve ciertas
estructuras: los corpúsculos que forman la célula, como por ejemplo los cromosomas en el núcleo, o
simplemente los glóbulos rojos en cualquier muestra de sangre. La convergencia entre esas
representaciones o resultados es clave para que lleguemos a convencernos de que realmente estamos
viendo estructuras de la célula. (La razón de esto es que, si se tratara de artefactos, sería inexplicable
que se obtuvieran los mismos artefactos con métodos y procesos francamente diferentes.)
La segunda estrategia pone de relieve que la actividad experimental consiste en intervenir, actuar
físicamente sobre los fenómenos, interactuar con ellos, y no meramente observar. Nuestra capacidad
12
de manipular los objetos o los fenómenos, de actuar sobre ellos y controlarlos, es otro de los
elementos clave para llegar a resultados empíricos fiables. El segundo criterio de fiabilidad consiste
en:
2. La coherencia entre las intervenciones planificadas por el experimentador y los
resultados, coherencia que pone de manifiesto el logro de capacidades de control, de
interferir causalmente en los objetos o fenómenos observados.
Hacking pone como ejemplo los numerosos casos en que se inyectan fluidos en determinadas partes
de las células para resaltar la presencia de un orgánulo: cuando al microinyectar se obtienen los
efectos esperados (abultamiento, etc.), esto indudablemente lleva al resultado de que el orgánulo es
real, y no un artefacto. Algo relacionado con esto se ha hecho familiar desde que las televisiones
ilustran las noticias sobre clonación con imágenes de microagujas que penetran la pared de una célula
para succionar o para depositar un núcleo. El argumento, en este caso particular, sería el siguiente: la
imagen del núcleo es un rasgo verídico de las células, y no un artefacto experimental, entre otras cosas
porque podemos manipular los núcleos de un modo análogo a como manipulamos tantas otras cosas
(los ingredientes de cocinar, pongamos por caso).
Un tercer criterio, añadido por Franklin, es éste:
3. Los rasgos propios de la imagen o el fenómeno observado pueden otorgar validez a
ciertos resultados y promover una determinada interpretación.
Un hermoso ejemplo de esto nos lo da el descubrimiento de las lunas de Júpiter que realizó Galileo.
Ya sabemos que su telescopio era muy imperfecto: producía manchas de color y deformaciones,
numerosos artefactos. Así las cosas, ¿por qué pensar que los puntitos de luz que se veían alrededor de
Júpiter eran verdaderas “lunas”, satélites de ese planeta? La respuesta está en cómo se comportaban.
Galileo pensó al principio que eran estrellas, pero enseguida pudo observar que no se comportaban
como estrellas normales. Así que volvió una y otra vez a enfocar su telescopio hacia Júpiter, varias
noches consecutivas, hasta que llegó a pensar que tenían que ser lunas. Como vemos, el resultado se
obtiene sólo tras una serie de observaciones, una verdadera investigación experimental. Si hubieran
sido estrellas, Júpiter las habría dejado atrás en su movimiento de traslación; pero no: acompañaban a
Júpiter, y podían verse tanto a un lado de este como al otro, y a veces no se veían. Esta extraña danza
tenía fácil explicación: eran satélites que daban vueltas en torno al planeta, pasando de un lado al otro,
y estando a veces detrás del planeta. Comportamientos tan regulares era imposible que se debieran a
artefactos producidos por el telescopio. Como se ve, las propias características del fenómeno
limitaban drásticamente las interpretaciones posibles. (Algo semejante sucedió también en los
experimentos que permitieron descubrir el electrón.)
13
4. La “carga teórica” de la observación: alcance y límites.
En el proceso de diseño de un experimento y en la interpretación de los resultados desempeña un
papel muy importante lo que se llama teoría del instrumento, el modelo (teórico) que pretende
representar de manera fiel los procesos relevantes del funcionamiento de los aparatos y de su
interacción con los fenómenos que se estudian. Esto desde luego complica las cosas en el proceso de
la investigación: sería más simple si todo se pudiera hacer con observación directa. Pero, contra lo que
se suele decir, que haya una teoría del instrumento no significa sin más que hay una carga teórica de
los datos. La tesis de la “carga teórica de la observación” está muy extendida, pero no está establecida
con solidez, y además hay que complementarla con otras tesis.
En muchos casos esa teoría del instrumento tiene poco que ver con la teoría de los fenómenos que
se pretende estudiar: por ejemplo, para estudiar las células se utiliza el microscopio electrónico; pero
la teoría física del microscopio electrónico es, en todo lo esencial, independiente de las teorías de la
biología celular. Pero además, el mensaje de todo lo que hemos dicho en las secciones anteriores es
que los motivos para fiarse de los resultados que se obtienen con un instrumento son, en buena
medida, algo que depende de los propios criterios de validez experimental, y no de la verdad o
falsedad de la teoría del instrumento. Hay un ejemplo clásico sobre el que llamó la atención Hacking:44
la teoría de cómo funcionan los microscopios fue incorrecta hasta los trabajos de Abbe hacia 1873,
pero el modo en que los experimentadores usaban el microscopio no cambió entre antes y después de
Abbe. Aunque la teoría del instrumento era incorrecta, en la práctica experimental se había aprendido
a distinguir entre rasgos realistas de la imagen y artefactos. (Lo que sí permitieron los trabajos de
Abbe fue mejorar los instrumentos, prever cuales eran sus límites de perfeccionamiento, etc.)
Aparte de contribuciones relevantes de Kuhn y del mismo Popper, el autor que más contribuyó a
difundir esa idea de la carga teórica fue N. R. Hanson en su libro Patrones de descubrimiento (1958).
Hanson se dirigía principalmente contra la distinción neopositivista entre términos teóricos y términos
observacionales. Ya hemos hablado de esto: los argumentos de Hanson son decisivos respecto al
llamado “lenguaje observacional”, pero sin embargo no establecen nada claro ni mucho menos
irrebatible a propósito de los resultados de observación y experimentación. De ser cierta, la tesis de
Hanson dificulta sobremanera entender la especificidad del conocimiento científico y convierte
declaraciones como las de Feynman en un panfleto. La versión que ofrece Lakatos –llevando a sus
últimas consecuencias las declaraciones de Popper– dice que contrastar una hipótesis es enfrentar dos
teorías entre sí, la teoría-foco (cf. tema 3) y la teoría que suministra los datos. Esto invita a todo tipo
de conclusiones paradójicas, desde identificar la ciencia con la metafísica (ya que también la historia
de la metafísica es un asunto de teorías enfrentadas con teorías, todas ellas ligadas con la experiencia
de un modo indirecto y vago), hasta –como bien sabemos– estimular las concepciones sociologistas.
44 Hacking [1996], cap. 11.
14
Para superar las ideas recibidas respecto a la carga teórica, es importante ir más allá de las
concepciones empiristas clásicas, y en particular más allá del giro lingüístico. Es obvio que, si
aceptamos el principio fundamental del giro lingüístico, y añadimos la tesis (que he aceptado
explícitamente) de que el lenguaje tiene siempre un cierto grado de carga teórica, la conclusión de
Hanson es inevitable. Pero cito a van Fraassen:
En algunos casos tenían razón al pensar que varias perplejidades filosóficas, malinterpretadas como problemas ontológicos y epistemológicos, eran realmente, en el fondo, problemas acerca del lenguaje. … Pero esto únicamente significa que ciertos problemas pueden ser dejados de lado cuando estamos haciendo filosofía de la ciencia, y categóricamente no significa que los conceptos filosóficos deban ser todos y cada uno explicados lingüísticamente. Los positivistas lógicos y sus herederos fueron demasiado lejos en el intento de convertir los problemas filosóficos en problemas acerca del lenguaje. En algunos casos su orientación filosófica tuvo efectos desastrosos en la filosofía de la ciencia. (La imagen científica [1980], p. 18)
45
Cabría añadir toda una serie de consideraciones más teóricas y científicas acerca de la posibilidad de
una carga teórica de la observación, teniendo en cuenta la base biológica y cognitiva de la percepción
humana. Pero esto va más allá de lo que podemos tratar al nivel introductorio al que nos situamos en
este curso.
Particularmente, me gusta establecer conclusiones respecto a este famoso asunto, no a base de
argumentos epistemológicos a priori, sino empleando estudios de casos. El caso de las primeras
investigaciones electromagnéticas en el siglo XIX –el descubrimiento clave de Oersted y los
desarrollos de Ampère– es muy apropiado para ilustrar tanto el alcance positivo de los argumentos de
carga teórica como sus limitaciones. La diferencia entre las cosmovisiones de Oersted (seguidor de la
Naturphilosophie de Kant y Schelling) y la de Ampère (formado en la tradición físico-matemática de
Laplace) era máxima, por lo que cabría esperar que los efectos de carga teórica fueran extremos.
Hemos visto en clase, con calma, varios aspectos de este caso. En realidad, encontramos una carga
teórica en el lenguaje empleado: donde Ampère habla de “corriente” eléctrica, Oersted usa “tensión”,
y la diferencia se entiende bien recurriendo a sus respectivos “paradigmas”. Pero no hay ningún
problema con respecto a los resultados experimentales, un experimentador acepta y reproduce los del
otro, y la traducción entre sus lenguajes resulta bien simple. No hubo tampoco problemas graves de
inconmensurabilidad, aunque sí interpretaciones muy distintas de los fenómenos.
Para terminar el tema, hay que dar una idea de la multiplicidad de interrelaciones en que pueden
llegar a encontrarse teoría y experimento. Para ello puede seguirse la magnífica exposición de
Franklin en la última parte de su artículo ‘Física y experimentación’ [2002] (aunque sus ejemplos
tienden a ser demasiado sofisticados). Franklin escribe: El experimento desempeña muchos papeles en la ciencia. Uno de sus papeles importantes es contrastar teorías y suministrar la base para el conocimiento científico. También puede requerir una nueva teoría, ya sea mostrando que otra aceptada es incorrecta, o exhibiendo un fenómeno nuevo que necesita explicación. El experimento puede darnos pistas sobre la estructura o la forma matemática de una teoría, y puede suministrar evidencia a
45 Véanse también los comentarios de Hacking [1996], cap. 10, y los de Moulines en La ciencia: estructura y desarrollo [1993].
15
favor de la existencia de las entidades involucradas en nuestras teorías. Por último, puede también tener una vida propia, independiente de la teoría. Los científicos pueden investigar un fenómeno simplemente porque parece interesante. Esto, a su vez, suministrará evidencia a explicar por una futura teoría. … un solo experimento puede desempeñar varios de estos papeles a la vez.
Ahora bien, diversos filósofos y sociólogos han planteado problemas y dudas escépticas con respecto
a la validez y objetividad de los datos experimentales. Entre las objeciones más célebres están el
argumento del “regreso del experimentador” (Collins, Changing order [1992]), la tesis de la
plasticidad formulada por Pickering (‘Living in the material world’ [1989], The mangle of practice
[1995]), y por supuesto la famosa tesis de la carga teórica de la observación (Hanson, Patrones de
descubrimiento [1958]). No es posible, en un curso introductorio, revisar todos estos argumentos y
problemas, pero sí me parece esencial discutir en detalle la última tesis, y responder al menos en un
punto a Collins. Estos dos puntos son el objeto de los dos siguientes apartados.
Consideremos el “regreso del experimentador” en el que insiste Collins, y que viene a reducirse a
lo siguiente. En la práctica de la replicación de experimentos, dice Collins, nos encontramos
habitualmente con un círculo vicioso: se obtendrá el resultado válido cuando se emplee un buen
aparato (esto es, un dispositivo experimental que funciona correctamente), pero el aparato se juzga
bueno cuando produce resultados esperados, incluyendo el “resultado válido”. Habría muchos
aspectos de este argumento que discutir (cf. Franklin [2002] y otros trabajos suyos citados ahí), pero
aquí importa sobre todo destacar un presupuesto de toda la discusión de Collins en torno a los
resultados experimentales.
Los físicos teóricos y los filósofos de la ciencia tradicionales han hecho mucho por darnos una
imagen completamente esquematizada y perversamente aligerada de lo que es la actividad
experimental. Como si el trabajo del experimentador fuera poner a punto un único diseño
experimental que debería establecer de forma concluyente un dato concreto, y que se propondría a los
demás científicos para someterlo a réplicas exactas. Los estudios de sociólogos e historiadores como
Collins y Schaffer han mostrado hasta qué punto las cosas no son así, pero a la vez han sacado buen
provecho de esa trivialización exagerada. En mi opinión, es imposible alcanzar una comprensión
adecuada de la actividad experimental mientras no se atienda más a la complejidad de la
experimentación y a la dinámica propia de los procesos de formación de datos. La experimentación
tiene su propia dinámica compleja, exactamente igual que la teorización.
Una idea clara con respecto a todo esto, que puede fácilmente ser transmitida a alumnos en un
curso introductorio, es la siguiente: en los procesos de formación de datos intervienen series
completas de experimentos, juzgadas y evaluadas según estrategias de validación características. Sólo
tras haberse alcanzado un veredicto estable (aunque pueda ser revisable) acerca de los resultados,
16
acabado el proceso de formación de datos, es posible pergeñar esos experimentos idealizados, simples
y decisorios que se exponen en trabajos teóricos y manuales introductorios.
Como en otros puntos, es conveniente emplear casos reales para transmitir y desarrollar esa tesis.
Ejemplos muy clásicos podrían encontrarse en Faraday, pero ya el ejemplo más simple de la
experimentación óptica de Newton, discutido anteriormente, ofrece un caso ideal en el que ilustrar
nuestro enfoque. De hecho, en su primer artículo sobre el tema (1672) Newton cometió el error de dar
una presentación demasiado aligerada y esquematizada de sus resultados sobre la composición de la
luz (probablemente por efecto de su formación matemática y teórica). Él mismo parece haber
aprendido bien la lección, porque la presentación que hace en la Óptica (1704) es muy distinta: el
resultado clave ya no se presenta como fruto de un único experimento decisorio, sino tras haber
analizado una serie de 10 experimentos que se complementan y apoyan mutuamente. Analizar este
caso ofrece oportunidades magníficas para exponer la dinámica de la actividad experimental y
estudiar las estrategias de validación de Hacking y Franklin.
Otro punto que ayuda a clarificar los estudios detallados sobre la actividad experimental, es la
intervención de supuestos teóricos en el desarrollo de la misma. Pero esto no debe utilizarse como
argumento en favor del teoreticismo, porque lo análogo resulta del estudio detallado de la actividad
teórica (donde interviene de manera esencial resultados experimentales). Por ejemplo, la formación de
los conceptos de línea de fuerza y campo en la obra de Faraday muestra constantemente la
intervención de resultados experimentales en su desarrollo. Por ello, mi conclusión es que la
experimentación y la teorización, aún disponiendo cada una de ciertas estrategias epistemológicas
propias y características, son actividades interdependientes y no jerarquizadas. En la dinámica de la
investigación científica ambas aparecen interrelacionadas en un proceso de una complejidad bastante
notable. Creo que esta complejidad del trabajo científico es lo que ha confundido hasta ahora a los
analistas filosóficos, que han pretendido cortar el nudo gordiano ofreciendo imágenes mucho más
simples: las del empirismo y el teoreticismo, ninguna de las cuales alcanza a suministrar un modelo
suficiente del fenómeno que se pretende estudiar.
Referencias:
Drake, S. [1980] Galileo. Madrid, Alianza, 1983. Para más detalles, véase su Galileo at work (New
York, Dover, 1995).
Franklin, A. [2002] Física y experimentación, Theoria 17 (2002) nº 44: 221–242.
Ferreirós, J. y J. Ordóñez, ‘Hacia una filosofía de la experimentación’, Crítica: revista
hispanoamericana de filosofía Vol. 34 (Diciembre 2002), nº 102, 47–86.
Hacking, I. [1996] Representar e intervenir. Barcelona, Paidós/UNAM. (Original de 1983.)
17
Kuhn, T. S. [1961] La función de la medición en la física moderna, en La tensión esencial, México,
FCE/CONACYT, 1982.
Newton, I. [1672] Letter to Mr. Oldenbourg on light and colours, en (entre otros) S. Horsley, ed.
Opera quae exstant omnia, London, 1779–1785, vol. IV. Reimp. Stuttgart, Frommann, 1964.
—— [1704] Óptica, ed. C. Solís. Madrid, Alfaguara, 1977.
Oersted, H. C. [1998] Selected scientific works, eds. K. Jelved, A. D. Jackson, O Knudsen. Princeton
Univ. Press.
Pickering, A. [1989] Living in the material world, en Gooding, Pinch, y Schaffer, The Uses of
Experiment [1989].
Popper, K. R. [1935] La lógica de la investigación científica, Madrid, Tecnos, 1962 (trad. de la 2ª
edición inglesa, 1959).
Schaffer, S. [1989] Glass works: Newton’s prisms and the uses of experiment, en Gooding, Pinch &
Schaffer [1989].
Snelders, H. A. M. [1990] Oersted’s discovery of electromagnetism, en A. Cunningham & N. Jardine,
eds. Romanticism in the sciences, Cambridge Univ. Press, 1990, p. 228–40.
Steinle, F. [2002] Challenging established concepts: Ampère and exploratory experimentation,
Theoria 17 (2002) nº 44: 291–316.
18
TEMA 6. Las matemáticas y su papel en la ciencia.
Discusión introductoria acerca de los fundamentos de las matemáticas, la naturaleza del
conocimiento matemático, y el papel de las matemáticas en la configuración de las ciencias. He
aquí un borrador que resume lo que se discutió en clase:
1. Comenzamos analizando la famosa discusión sobre los fundamentos de las matemáticas a
comienzos del siglo XX: la “crisis de fundamentos” en la que se enfrentaron el logicismo, el
formalismo y el intuicionismo. Buena parte del problema tenía que ver con los principios básicos de la
teoría de conjuntos: axiomas como el del Infinito (existe un conjunto infinito al menos, el conjunto de
todos los números 0, 1, 2, …) y el axioma de Elección (que discutimos brevemente). Estos principios
postulan la existencia de ciertos conjuntos infinitos, y no eran aceptados por todos los matemáticos;
llamamos constructivistas a los matemáticos que rechazan tales afirmaciones (el “intuicionismo” es
un tipo de constructivismo, su versión más famosa, elaborada por Brouwer).
Un grupo de matemáticos, encabezados por Russell, trataron de defender que los principios básicos
de la teoría de conjuntos son verdades lógicas. Esta posición, que dice que la matemática se reduce a
la lógica, se llama logicismo. Pero las verdades lógicas deben ser independientes de cómo sea el
mundo, deberían ser principios sumamente generales sin carga ontológica. Como vimos en clase con
detalle, los axiomas discutibles de la teoría de conjuntos no pueden considerarse verdades lógicas.
Estos principios son, pues, ‘verdades’ hipotéticas, supuestos fundamentales que están a la base de
las matemáticas (hipo-tesis), pero que no podemos considerar verdades necesarias. Por cierto: no son
principios que nadie se haya sacado de la manga arbitrariamente, sino que están estrechamente
relacionados con el análisis que hace la matemática moderna del continuo.46 Y el continuo es una
característica básica de los modelos del mundo físico…
Vimos también cómo surgieron en 1900 una serie de paradojas (especialmente la paradoja de
Russell, también la de Cantor) que arrojaron dudas sobre la coherencia o consistencia lógica de la
teoría de conjuntos. Consistencia significa no-contradictoriedad; todos los matemáticos (y los físicos)
están de acuerdo en que una teoría que incluye contradicciones no es admisible en matemáticas. El
46 Decimos que una recta es un continuo de puntos, y vimos en clase la diferencia entre “densidad” y “continuidad”. Todo este tema fue aclarado en su momento por Dedekind y Cantor, que propusieron una teoría rigurosa de los números reales. (Los números reales – formados por los racionales o fracciones, y además los irracionales: por ejemplo, √2, √7, π – son precisamente los números que hacen falta para poder asignar un número a cada punto de la recta.) También el espacio tridimensional es un continuo de puntos, y la física analiza el tiempo como un continuo de instantes. Pero, curiosamente, los resultados de la física cuántica arrojan dudas sobre si el mundo físico “realmente” es continuo… (el cuanto h de Planck muestra una discontinuidad fundamental, el carácter discreto de las interacciones).
19
problema de las paradojas se sumó al problema de las críticas constructivistas, dando lugar a esa
situación de “crisis” que hubo entre 1905 y 1930.
Discutimos brevemente el sistema axiomático de Zermelo, que mostró cómo era posible
axiomatizar la teoría de conjuntos. Los axiomas de Zermelo incluían aquellos principios discutibles
que vimos más arriba, pero al menos se pudo mostrar que evitaban todas las paradojas conocidas. 100
años después, el sistema de Zermelo (conocido como ZFC) sigue siendo utilizado y admirado,
estando de acuerdo los matemáticos en que casi seguro es consistente.
2. Como hemos visto, el logicismo no duró mucho tiempo como una opción viable: los axiomas de
las matemáticas hacen afirmaciones con contenido (“dicen” cosas acerca del mundo) y por tanto no
son simples verdades lógicas, ni verdades necesarias. Los constructivistas, con Brouwer a la cabeza,
trataron de reemplazar la matemática normal por una alternativa más cierta y segura: al no emplear los
principios conjuntistas, pretendían evitar supuestos inciertos y mantenerse cerca de la verdad y de lo
intuitivo. Pero la matemática de Brouwer se ve obligada a renunciar a buena parte del contenido de la
matemática moderna, supone una mutilación del edificio de las matemáticas. Vimos en clase que la
división entre constructivistas y “modernos” sigue existiendo, pero que la mayoría de los matemáticos
no son constructivistas.
Un famosísimo matemático, Hilbert, trató de terciar en todo este asunto, dando una respuesta a los
constructivistas y “eliminando de la faz de la tierra las dudas escépticas sobre las matemáticas”.
Propuso el célebre programa de Hilbert, que consistía en formalizar cada teoría matemática, analizar
formalmente su lógica y la estructura deductiva de esa teoría, para demostrar de manera finita que
cada teoría matemática es consistente. Vimos cómo esto resulta posible porque la formalización de la
teoría convierte en asunto sintáctico y puramente combinatorio (por tanto, asunto finito) todo lo que
tiene que ver con la estructura deductiva de la teoría (aunque la teoría “hable de” el infinito).
El programa de Hilbert se desarrolló mucho, y ha dado lugar a una rama importante de la lógica, y
a la teoría de la computación. Suele asociarse con él la idea de formalismo: la tesis de que la
matemática no es más que un conjunto de sistemas formales; o al menos la justificación de las teorías
matemáticos mediante demostraciones formales de consistencia. Hilbert llegó a decir incluso que la
“existencia” de un objeto matemático se reduce a la consistencia: si la teoría que habla del objeto es
consistente (no contradictoria), eso basta para decir que el objeto ‘existe’.
Sin embargo, en 1931 Gödel hizo la contribución más importante: demostró sus dos teoremas. 1)
El teorema de incompletud de Gödel prueba que los sistemas formales considerados por Hilbert son
incompletos, o sea, que no todas las verdades matemáticas enunciables con los símbolos del sistema
son demostrables. Esta es una limitación esencial de los sistemas formales. 2) El segundo teorema
demuestra que la consistencia de los sistemas formales considerados por Hilbert no puede demostrarse
por medios ‘aritméticos’, ni en particular por medios finitos.
20
Esto dio el golpe de gracia al programa de Hilbert. La teoría axiomática de Zermelo, y muchas
otras teorías matemáticas, se quedaron sin justificación formal. Y sin embargo, siguen siendo la base
de las matemáticas.
3. Todo esto sugiere que la matemática moderna no es un simple “cuerpo de verdades”, ni se basa
estrictamente en lo cierto y lo necesario. Aunque algunas partes elementales de las matemáticas
consistan en puras certezas (lo que sabemos de los números: 7+5 = 12, o que existen infinitos
números primos), la matemática avanzada se basa en hipótesis. Esto plantea un problema filosófico
fundamental, y afecta a la comprensión de los modelos que emplea la física, etc.
4. Todo ello, y otros argumentos (ver los apuntes), muestra que las matemáticas no consisten en
verdades analíticas, y que la diferencia entre las matemáticas y las ciencias naturales no coincide con
la distinción entre lo formal y lo empírico.