mÁs cerca del jaguar que del quark: (algunas) implicaciones filosÓficas de ciertos sistemas...
TRANSCRIPT
MÁS CERCA DEL JAGUAR QUE DEL QUARK: (ALGUNAS) IMPLICACIONES FILOSÓFICAS DE CIERTOS SISTEMAS COMPLEJOS
Trabajo Final de la Licenciatura en Filosofía
Universidad Nacional de Córdoba
Facultad de Filosofía y Humanidades
Escuela de Filosofía
Alumno: Andrés A. Ilcic
Director: Prof. Víctor R. Rodríguez
We shall not cease from exploration and the end of all our exploring will be to
arrive where we started and know the place for the
first time.
TS Eliot
al inagotable fondo de inversión multidisciplinar del Sr. y la Sra. Ilcic, sin cuya ayuda nada de esto y mucho otro hubiese sido posible.
MÁS CERCA DEL JAGUAR QUE DEL QUARK
A map of the world has everything to do
with the cactus by the window.
The world of the quark has everything to do
with a jaguar circling in the night.
“The Leaves of a Dream are the Leaves of an Onion”
Arthur Tse
It can scarcely be denied that the supreme goal
of all theory is to make the irreducible basic
elements as simple and as few as possible
without having to surrender the adequate
representation of a single datum of experience.
Albert Einstein
La ciencia es una historia del orden. Del orden del mundo y el orden de las cosas. Y es hasta
un intento de imponer orden donde en principio no hay ninguno, donde el ruido no deja lugar
a otra cosa. Una búsqueda de patrones y causas y simetrías y causas y patrones. De lo que no
cambia, o casi nada. ¿Puede existir, entonces, una ciencia que busque describir el ruido? Qué
clase de ciencia es la que incorpora lo que queda fuera en las otras?
En principio son nuestras limitaciones como agentes cognoscentes que hacen que la naturaleza
parezca ruidosa, impredecible y hasta complicada. La muestra de nuestros límites está por
todos lados. La mecánica cuántica, sin entrar en las discusiones acerca de qué tan objetiva
puede ser una medición de un sistema cuántico, pone un límite empírico a nuestra capacidad
de conocer simultáneamente dos aspectos constituyentes del mundo. Kurt Gödel nos mostró
otra clase de límites demostrando que si queremos derivar todas las verdades de un sistema
formal nos vemos obligados a olvidarnos de la consistencia lógica, incluso en un sistema
formal tan simple como el de la aritmética. Poco tiempo después Alan Turing puso otro límite
a nuestra capacidad de crear respuestas sobre un sistema formal. Y si Gregory Chaitin está en
lo cierto, existe un elemento de azar en la misma matemática que de alguna manera limita su
efectividad. Sin embargo, encontramos patrones. Dentro de nuestras limitaciones hacemos lo
mejor que podemos para entender el mundo.
¿Cómo entendemos el mundo? Reduciendo la complejidad de lo que llega a nuestros sentidos
y encontrando patrones, encontrando vestigios de simplicidad en lo complicado que parece
5
todo. Creemos que el peso de la ciencia, como macroactividad, pasa por este ejercicio de
simplificación para poder entender y que la manera de hacerlo es haciendo modelos. La tarea
de un modelo es simplificar, es decir comprimir, nuestros datos en una descripción que esté al
alcance de nuestros límites. La ciencia, entonces, busca explicar fenómenos produciendo
modelos que sean más pequeños que los datos.
La simplicidad y la simetría siempre fueron guías en la búsqueda de los patrones del mundo,
sin embargo hay lugares en los que el mundo es algo completamente diferente: hay ruptura de
simetrías, hay transiciones de fase, hay caos. Hace relativamente poco que hemos encontrado
la manera de atacar estos problemas científicos, haciendo predecibles sistemas que antes no
lo eran. Pero también hemos encontrado que los límites de nuestro conocimiento están más
cerca de lo que pensábamos en muchos casos. Dios no sólo juega a los dados y los tira donde
no podemos verlos: ¡los dados están cargados! Es nuestra tarea descubrir cómo y por qué. La
física se encarga de lo primero, la filosofía del cómo del cómo de la física y del por qué.
Lo que pretendemos hacer en este trabajo es empezar explorar estas ciencias “de la tierra
media”, de lo que está entre lo grande y lo chico aunque de una manera filosófica y por si eso
fuera poco, completamente sesgada por una motivación particular, que es la de entender cómo
se relacionan la física y la lógica, en el sentido más profundo de la cuestión. El estudio de los
sistemas complejos lleva casi naturalmente a hacerse esta pregunta y, a nuestro entender,
aporta nuevas formas de intentar respuestas además de hacerse eco de los intentos de respuesta
que ya habían dado otras disciplinas. El lector sólo encontrará el sesgo en este trabajo, un
intento de articulación de estas nociones vendrá mucho más adelante, si es que se juzga
posible. Mientras tanto, veremos que el mundo del jaguar tiene todo que ver con el mundo del
quark, sin hablar de quarks ni de jaguares, claramente. A ésos se los dejamos a Gell-Mann
(1995a).
6
Science has explored the microcosmos and the macrocosmos; we have a good sense of the lay of the land. The great unexplored frontier is complexity.
Heinz Pagels, The Dreams of Reason I think the next century will be the century of complexity
Stephen W. Hawking
Introducción
Es difícil decir cuándo exactamente comienza una ciencia, y más difícil todavía cuando la
ciencia en particular tiene la característica de ser esencialmente multidisciplinar como es el
caso de la Ciencia de los Sistemas Complejos o Ciencias de la Complejidad, como suele
llamársele. Esta ciencia es nueva y se supone que la aúna el estudio de la complejidad de los
sistemas. En el estado reciente, el mismo concepto de complejidad parece ser una de las cosas
más difusas dentro de esta ciencia, que tiene más la imagen de un conjunto de métodos y
principios provenientes de varias disciplinas para estudiar una clase muy amplia de sistemas
que por alguna razón se les llama complejos: porque tienen muchas partes, porque son difíciles
de predecir, son muy grandes, etc, etc.
En este trabajo nos proponemos explorar algunas características de estos sistemas, desde un
punto de vista filosófico-histórico. Comenzamos con la teoría del caos. Esta teoría matemática
suele ser confundida con el estudio de la complejidad, porque de alguna manera el interés por
los sistemas complejos fue primero guiado por la exploración de sistemas caóticos. Veremos
que los sistemas caóticos son los sistemas más simples que pueden lograr un comportamiento
intrincado y suelen ser la fuente de azar que necesitan los sistemas complejos para crearse y
mantenerse.
En nuestra exploración filosóficamente sesgada de la teoría del caos nos enfrentamos primero
con las dificultades de dar una definición, y primero recurrimos a la presentación de un modelo
matemático y alguna de sus propiedades para lograr una primera aproximación a la cuestión.
Una buena parte de la ciencia actual está centrada en modelos y creemos que es necesario para
cualquier discusión filosófica conocer un poco acerca de cómo funcionan los modelos
7
matemáticos. Muchos de esos modelos son ejecutados en computadoras, por lo que también
veremos un poco qué implica para el conocimiento que podemos sacar de un modelo el hecho
de implementarlo en una simulación.
El corazón del primer capítulo trabaja desde un punto de vista filosófico las implicancias del
caos para la predictibilidad y el determinismo, proponiendo la necesidad de hacer una
distinción entre estados ónticos y estados epistémicos, aunque antes exploramos algunas otras
razones por las que el caos es importante para la filosofía. Luego repasamos la historia del
descubrimiento de este fenómeno. Creemos que su historia es de particular importancia
epistemológica porque muestra cómo resultados importantes pueden ser alcanzados tan “fuera
de su tiempo”. A su vez es uno de los primeros ejemplos en los que una simulación
computacional arrojó resultados muy sorprendentes, y muchos de los resultados matemáticos
de la teoría surgen por una preocupación práctica.
En el segundo capítulo nos concentramos en la noción de sistema, explorando brevemente los
alcances de la Teoría General de los Sistemas, que fue uno de los primeros desarrollos que
desemboca en la Ciencia de los Sistemas Complejos. Tras ver las características principales
de estos sistemas pasamos a explorar el concepto de complejidad en sí, revisitando primero
dos resultados teóricos necesarios (que son, a su vez, medidas de cierta clase de complejidad).
Concluimos que la complejidad estadística es una de las medidas más adecuadas de este
concepto y damos una definición de sistema complejo en base a la misma. En estas
exploraciones encontramos la importancia de la noción de azar y elaboramos una hipótesis
sobre la necesidad del mismo para entender a estos sistemas. Concluimos explorando la
conexión entre caos, azar y computabilidad.
8
We are all deeply conscious today that the enthusiasm of our forebears for the
marvellous achievements of Newtonian mechanics led them to make generalizations
in this area of predictability which, indeed, we may have generally tended to believe
before 1960, but which we now recognize were false. We collectively wish to apologize
for having misled the general educated public by spreading ideas about determinism
of systems satisfying Newton’s laws of motion that, after 1960, were to be proved
incorrect...
(J. Lighthill, Proc. Roy. Soc. (London) A 407, 35 (1986))
After all the pretty contrast of life and death
Proves that these opposite things partake of one,
At least that was the theory, when bishops' books
Resolved the world. We cannot go back to that.
The squirming facts exceed the squamous mind,
If one may say so. And yet relation appears,
A small relation expanding like the shade
Of a cloud on sand, a shape on the side of a hill.
Wallace Stevens
9
You see? The tyrannosaur doesn't obey set
patterns or park schedules. The essence of
Chaos.
Jurassic Park (1993)
Capítulo 1: Caos
1.1 ¿Qué es el caos?
Como vamos a ver, dar una definición suficientemente robusta del caos, es bastante difícil.
Sirva para empezar la discusión la siguiente definición generalizada:
Un sistema caótico es un sistema determinista y no lineal con gran sensibilidad a condiciones
iniciales.
El llamado efecto mariposa, que algunas veces hasta se confunde con caos, es el responsable
de la parte de “gran sensibilidad a condiciones iniciales”. El nombre del efecto proviene de la
idea de que una pequeña perturbación de un sistema (como el aletear de una mariposa en el
Amazonas) puede provocar, a largo plazo, un efecto amplificado (como una tormenta en
Japón). 1 Esta propiedad, que definiremos con mayor precisión en una próxima sección, suele
llamarse SDIC por las siglas en inglés de Sensitive Dependence on Initial Conditions.
Como nos recuerda Smith (2007, 1), además de la sensibilidad a condiciones iniciales, los
sistemas bajo estudio tienen la propiedad de ser deterministas y no-lineales. En lo que sigue
exploraremos qué significa para un sistema tener estas propiedades, para luego regresar a las
definiciones posibles de caos más detenidamente.
1 La primera referencia hace alusión a otro insecto: ¡una langosta! En un review que escribió W.S. Franklin sobre el Traité Elementaire de Méchanique fondé sur la Thermodynamique de Pierre Duhem de 1897, escribía: “La predicción detallada a largo plazo del tiempo es, pues, imposible, y la única predicción detallada que es posible es la inferencia de la tendencia y el carácter finales de una tormenta desde las observaciones de sus etapas más tempranas; y la precisión de esta predicción está sujeta a la condición de que el vuelo de una langosta en Montana pueda desviar una tormenta de Filadelfia a Nueva York”. Todas las traducciones son nuestras, y colocamos al pie las versiones originales.
10
Dejaremos para otra ocasión la discusión acerca de qué es un sistema y por ahora nos
contentaremos con una definición de trabajo, más usual para los físicos: un sistema es algún
proceso físico del mundo que queremos explicar.
Un sistema dinámico, es un sistema que evoluciona con el tiempo de acuerdo a una regla bien
definida y que no varía. La concepción general de éstos los toma como modelos matemáticos
deterministas, que si bien son de profundo interés matemático, se pueden usar para describir
un sistema físico. Como veremos más adelante, fenómenos como complejidad y caos suelen
ser principalmente entendidos como el comportamiento matemático de estos sistemas
dinámicos. En estas descripciones, la variable del tiempo puede ser discreta o continua.2 Una
ecuación que describe el movimiento del péndulo de un reloj o la cantidad de peces en un lago
a medida que pasa el tiempo, son ejemplos de sistemas dinámicos muy simples.
Solemos llamar al estado inicial de un sistema dinámico como sus condiciones iniciales y
como condiciones de contorno (boundary conditions) a la descripción de los límites del
dominio que el modelo tiene.
La dinámica de un sistema puede venir en dos sabores, lineal y no lineal. En el estudio de
sistemas complejos, el principal objeto de estudio suelen ser los sistemas dinámicos no
lineales. Matemáticamente, los sistemas dinámicos suelen ser descritos en términos de
ecuaciones diferenciales. Estas ecuaciones atan el comportamiento de una variable al del
cambio en otra variable, por lo que son la clase de descripción que necesitamos si lo que
queremos es mostrar cómo y cuánto cambia algo (como la trayectoria de un cuerpo, o la
cantidad de peces en el lago) con respecto a algún parámetro (el tiempo, en este caso).
Consideremos una ecuación diferencial cualquiera de la forma
𝑑𝑑𝑥𝑥𝑛𝑛𝑑𝑑𝑑𝑑
= 𝐹𝐹𝑥𝑥
2 Cuando es t continua se dice que el sistema es un flujo (flow), cuando discontinua un mapeo o mapa (mapping).
11
Las variables xn pueden representar estados del sistema como la posición o el momento de una
partícula, o la cantidad de peces en el lago. Supongamos que x1(t) y x2(t) son soluciones para
esta ecuación. Si esta ecuación es lineal, como es este el caso porque todos los factores
involucrados son constantes o factores de constantes y variables con exponente igual a uno,
una propiedad que se llama “principio de superposición lineal” nos asegura que una solución
x3(t) de la forma ax1(t) + bx2(t) en donde a y b son constantes y x1(t) y x2(t) son nuestras
soluciones anteriores, también es una solución para nuestra ecuación. Para los sistemas que
tienen esta propiedad, un cambio en alguna de sus variables por un factor β produce un cambio
proporcional a β en el resultado. La característica de los sistemas no lineales es que esta
propiedad puede no darse, es decir que frente a un pequeño cambio en un factor, el
comportamiento del sistema puede producir grandes y repentinos cambios en el
comportamiento del sistema en cuestión, lo que trae aparejada una dificultad en nuestra
capacidad para decir cosas acerca de él.3 Como ilustra la figura siguiente, de los sistemas
dinámicos que encontramos en la naturaleza, la cantidad de sistemas que no cumplen con el
principio de superposición lineal son muchos más que los que sí lo hacen. Además, la gran
mayoría de esos son efectivamente caóticos, pero esto es algo sobre lo que se sabe hace poco.
FIG 1: La no linealidad es ubicua en el mundo físico: la mecánica de fluidos y de plasma, la dinámica de los gases, la elasticidad, la relatividad, las reacciones químicas,
3 Son tantos los sistemas que son no lineales en la naturaleza que gran parte de la ciencia es efectivamente no lineal. Se dice que Stanislaw Ulam comentaba al respecto que “usar un término como ciencia no lineal es como referirse a la mayor parte de la zoología como el estudio de los animales no-elefantes”. La dicotomía, según él, era falsa: la “linealidad” era una propiedad específica de algunas ecuaciones. También se dice que Enrico Fermi comentaba acerca de la ubiquidad de las expresiones no lineales en la ciencia: “¡En ningún lugar de la Biblia se dice que las ecuaciones tengas que ser lineales!”
12
la combustión, la ecología, la biomecánica y muchísimos otros fenómenos son describibles con precisión sólo por ecuaciones inherentemente no lineales.
Al estudiar un sistema dinámico (ya sea por mor matemático o porque estamos modelando
algún sistema del mundo físico), son dos los aspectos que nos interesan. Uno ya lo
mencionamos: qué parte del sistema es lo que cambia con respecto al tiempo. La velocidad y
la posición cuando estudiamos cómo se mueve un cuerpo, la cantidad de peces en el lago o la
relación entre reactivos en una reacción química. La segunda característica que nos importa
conocer acerca del sistema es las reglas que dan lugar al comportamiento de ese sistema. Si
bien podemos no conocer las reglas que hacen que un sistema pase de un estado a otro, sí
sabemos que si un sistema es determinista, una regla para su evolución temporal existe
realmente.
¿Cómo puede comportarse, o moverse, un sistema dinámico en el tiempo? Hay varias formas
en que lo puede hacer. El más sencillo de todos es el de un punto fijo, que puede observarse
cuando después de una serie de cambios, el sistema se estabiliza en uno en particular, como
cuando el movimiento de un péndulo cesa por acción de la gravedad y la fricción. Lo mismo
sucede con una piedra que rueda desde lo alto de una montaña hasta que la piedra se queda
quieta en un lugar porque ya no tiene más ímpetu para seguir cuesta abajo. Otra clase de
movimientos que pueden tener estos sistemas son los llamados periódicos o con ciclo límite.
La Tierra girando alrededor del Sol es un sistema dinámico con esta característica. Un tipo de
movimiento mucho más complejo todavía es el llamado cuasiperiódico, que es el que tienen
los sistemas dinámicos que contienen un número finito mayor a dos de frecuencias
inconmensurables. Si suponemos un espacio de fase en forma de un toro, la trayectoria del
sistema está modelada por una curva que va envolviendo al toro sin volver a tocarse. Se
repiten, pero no exactamente. Por ejemplo, si a nuestro modelo periódico anterior le sumamos
la Luna y queremos describir el movimiento de estos cuerpos juntos como periódico, debería
existir un momento del tiempo en que vuelva a ocupar un lugar por el que ya estuvieron. Esto
significaría que los movimientos deberían resonar, es decir, encontrar un momento de tiempo
que divida a todas las frecuencias. Como esto no sucede, se dice que las frecuencias son
inconmensurables y por lo tanto el sistema es cuasiperiódico.
13
FIG 2: Ilustración de un movimiento que se acerca a un punto fijo y de uno cuasiperiódico según su representación en un espacio de fase.
.
Ahora a lo interesante: hasta hace poco tiempo se creía que todo en el universo4 se comportaba,
dentro de ciertos límites, de alguna de estas tres maneras: punto fijo, periódico o cuasi
periódico. Resultó ser que la gran mayoría de los sistemas se comportan caóticamente y que
el caos está por todos lados: en los patrones del clima, en la actividad electroquímica del
cerebro y en algo tan “simple” como un péndulo doble. Al caos le debemos mucho más de lo
que se piensa. Ahora bien, uno de los puntos que se suele enfatizar en la literatura es que la
aparición del caos trajo aparejada la imposibilidad de efectivamente predecir la gran mayoría
de los sistemas de la naturaleza y que produjo una revolución en nuestra manera de entender
el mundo. Lo que proponemos en este trabajo es explorar un poco más a fondo las
consecuencias epistemológicas de este descubrimiento, visitando no sólo la historia del mismo
y la dificultad para definirlo, sino su conexión con la predictibilidad y el determinismo, entre
otras.
Mencionamos recién a una construcción matemática llamada espacio de fase, que algunas
veces se la denomina también espacio de estado (state space, phase state). Ésta consiste en un
espacio5 de puntos matemáticos en el que cada punto representa uno de los posibles estados
4 O al menos los objetos que se mueven en él. 5 Por “espacio” en matemática entendemos, básicamente, un conjunto con cierta estructura dada. Sirva la aclaración, además de para notar que es un concepto muy amplio y rico, para notar que no estamos cayendo en una circularidad.
14
del sistema. 6 Un sistema mecánico suele poder ser representado por dos variables como la
posición y el momento o cantidad de movimiento y su espacio de fase sería un plano como el
de la figura 3. Cada grado de libertad o parámetro del sistema se representa en uno de los ejes
de este espacio n-dimensional. Hay un punto para cada uno de los valores posibles que pueda
tener el estado del sistema. Cuando éste evoluciona en el tiempo marca un camino a través de
ese espacio, camino que se suele llamar la trayectoria del sistema. Esta trayectoria hace al
conjunto de estados que son compatibles con cierta condición inicial. Un punto en el espacio
de estado representa al “estado instantáneo” del sistema: son los valores para ese instante de
todas las variables que se consideran necesarias para una descripción completa del sistema.
En esta clase de representación, el tiempo pasa a ser secundario en tanto no se toma como una
de las variables que se representa, es decir que se busca mostrar cómo cambian las variables
entre sí mientras el sistema evoluciona temporalmente. Una forma de estudiar un modelo de
un sistema dinámico es seguir su trayectoria desde las condiciones iniciales hasta un momento
determinado. La ventaja que tiene este tipo de representación es que, dependiendo en
particular del número de variables que estemos estudiando, nos permite estudiar
geométricamente a las trayectorias, algo particularmente útil cuando no tenemos disponibles
soluciones exactas o analíticas.
FIG 3: Un sistema puede ser sujeto a distintas representaciones. En este caso vemos dos posibles para un péndulo idealizado en tanto no está sujeto a fricción. La representación de la serie temporal es el gráfico de una función con respecto al tiempo. En el retrato de fase, un tipo particular de espacio de fase, el tiempo no es representado y cada uno de los ejes representa una de las variables. Las flechas indican la dirección en la que evoluciona el sistema.
6 El concepto fue desarrollado en el siglo XIX principalmente por Boltzmann, Poincaré y Gibbs. En Nolte (2010) podemos encontrar una breve historia de esta importante noción. Cf. Gleick (1987, 136) para una buena introducción de este estilo de representación.
15
Quizás sea éste el momento de introducir una pequeña aclaración acerca un supuesto que
hacemos a la hora de trabajar con esta clase de representación. Como bien nos recuerda Bishop
(2008, 2009), en esta clase de trabajo estamos asumiendo que los valores de las variables
realmente representan al sistema y que por medio de estos valores el estado físico del sistema
corresponde a un punto en el espacio de fase. Esta clase de supuestos está en el núcleo del
trabajo en general con modelos matemáticos de sistemas físicos. Como las llama Bishop
(2005, 2006), esta serie de supuestos hace al supuesto del modelo fiel, que interviene cada vez
que pasamos de hablar del modelo a hablar del sistema y viceversa, en particular en el
escenario del modelo perfecto. A medida que avancemos en nuestra exposición, iremos
encontrando algunas razones por las que la fidelidad de un modelo con el sistema que busca
representar está bastante más comprometida para sistemas no lineales.
Antes de terminar esta sección, y enfrentarnos con las distintas formas de definir a este
fenómeno, exploraremos un sistema dinámico muy simple en el que podremos ver
intuitivamente su comportamiento caótico.
Trabajando con un sistema dinámico muy simple: la ecuación logística.
Uno de los insights de la ciencia de la complejidad es que muchas cosas que parecen
complicadas en realidad resultan de algo muy simple, como también puede ser el caso de que
sistemas muy complicados hagan cosas muy simples. Uno de los casos más estudiados de una
descripción muy sencilla que produce una dinámica muy compleja es el de la llamada ecuación
logística, que pasaremos a describir ahora.7
En 1838, el matemático belga Pierre François Verhulst publicó un modelo muy simple del
crecimiento de una población de individuos vivos. La ecuación de su modelo tiene la forma
𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑
= 𝑟𝑟𝑑𝑑 �1 −𝑑𝑑𝐾𝐾�
7 Otro de los propósitos de esta subsección es mostrar con un caso concreto cómo se trabaja con modelos matemáticos muy simples para representar un sistema objeto.
16
en donde una solución N(t) representa el número de individuos en el tiempo t, r es la tasa de
crecimiento8 y K es la llamada capacidad de carga, es decir, el máximo número de individuos
que cierta región puede albergar. Verhulst (1845) da una solución general para esta ecuación
y la nombra como función logística, por lo que su ecuación se conoce con el nombre de
función logística. Si bien en esta ecuación el tiempo es continuo, la ecuación logística 𝑑𝑑𝑥𝑥𝑑𝑑𝑑𝑑
= 𝑟𝑟𝑥𝑥(1 − 𝑥𝑥)
puede ser reemplazada por la ecuación de recurrencia cuadrática
(1) 𝑥𝑥𝑛𝑛+1 = 𝑟𝑟𝑥𝑥𝑛𝑛 (1 − 𝑥𝑥𝑛𝑛)
que se suele llamar “el mapa logístico”. Este simple mapa cuadrático9 es capaz de producir un
comportamiento bastante complicado.10
Lo “complicado” del comportamiento está ligado al valor que tome el parámetro r. Si
continuamos con nuestro supuesto de que el modelo representa el crecimiento controlado de
una población, podemos distinguir los siguientes comportamientos para distintos valores de r.
● Si r está entre 0 y 1, la población termina extinguiéndose.
● Si r está entre 1 y 2, la población se estabiliza en un valor dependiendo de r.
(Concretamente en r-1/r)
● Para r entre 2 y 3, se puede observar que la población también alcanza el valor
expresado para el caso anterior aunque la cantidad de oscilaciones alrededor de ese
valor aumenta.
● Un curioso comportamiento se deja ya entrever cuando r está entre 3 y 3.44949 porque
la población oscila constantemente entre dos valores para distintas condiciones
iniciales.
8 Esto se suele llamar el “parámetro malthusiano” en la ecuación de crecimiento exponencial de población N(t)=N0ert, donde N0 es el tamaño de la población en t=0 y t es el tiempo transcurrido. 9 Decimos que un polinomio es cuadrático cuando el término de más alto grado es de grado 2. Una recurrencia cuadrática es una ecuación de recurrencia (el análogo discreto de las ecuaciones diferenciales) sobre una secuencia de números que se expresa por un polinomio de grado 2. La forma general de un mapa cuadrático es 𝑥𝑥𝑛𝑛 = 𝑎𝑎𝑥𝑥𝑛𝑛−12 + 𝑏𝑏𝑥𝑥𝑛𝑛−1 + 𝑐𝑐. El mapa logístico suele representarse en la forma factoreada que usamos arriba. 10 Al punto en que John von Neumann había sugerido hacia finales de los años ‘40 que este mapa con r=4 se podía usar como un generador de números al azar. Las propiedades de esta ecuación más allá del simple comportamiento oscilatorio recién fueron estudiadas desde los años 50 por matemáticos como Paul Stein y Stanislaw Ulam. El reporte de estos trabajos secundarios, mientras el grupo en Los Alamos continuaba las investigaciones sobre la bomba de hidrógeno, se publicó en 1959 (Ulam et al 1959) y es la primera referencia escrita de “comportamiento caótico”.
17
● Pasando ese valor y hasta 3.56994, los valores de la población oscilan primero entre
4, luego entre 8, 16 y 32 valores.
● A r aproximadamente igual a 3.57 nos encontramos con que prácticamente todas las
condiciones iniciales tienen un comportamiento distinto y lo mismo sucede cuando el
cambio en la población inicial es muy pequeño: el sistema muestra alta sensibilidad a
condiciones iniciales.
Este comportamiento se puede ver fácilmente reflejado en el siguiente diagrama de
bifurcación, que se consigue haciendo un gráfico de los valores de xn en función de r
empezando de un valor al azar para la población inicial x0, iterando varias veces y descartando
los valores anteriores a la convergencia:
El gráfico siguiente muestra una ampliación del diagrama de bifurcación para r entre 3.44 y
3.58 en el que están marcados los puntos de bifurcación.
18
Las subregiones del diagrama de bifurcación son similares entre sí y también son similares al
diagrama general. Esta auto-similaridad se presente incluso en representación con resolución
mucho más fina y es una de las características de las entidades geométricas que se conocen
como fractales. En este comportamiento de bifurcación hay cierta “universalidad”, que es una
relación fija entre los períodos de bifurcación. Esta relación es una constante y fue descubierta
en 1975 por Mitchel Feigenbaum y tiene un valor aproximado de 4.669. A medida que nos
acercamos a la región del mapa que es efectivamente caótica, cada región periódica es menor
a la anterior en el factor del valor de la constante. Lo “universal” en esta constante no está sólo
en el hecho de que se aplica a todos los mapas caóticos sino que también se ha comprobado
su valor experimentalmente en diversas clases de sistemas, como el caso de un flujo
hidrodinámico. La universalidad, pues, se refiere a que podemos encontrar una misma clase
de caos en sistemas distintos, incluso cuando estos están modelados por una ecucación muy
simple.
El biólogo Robert May escribió un muy citado artículo de review en la revista Nature (May
1976) en el que se propone una descripción muchos de los descubrimientos matemáticos
independientes acerca de fenómenos no-lineales, y se concentra especialmente en la ecuación
logística. Para nosotros, lo más interesante del artículo es su comentario acerca de lo que
podríamos bien llamar un contexto de aplicación de modelos matemáticos:
19
El hecho de que la simple y determinista ecuación (1) 11 puede poseer trayectorias dinámicas que se parecen a alguna clase de ruido al azar tiene implicaciones prácticas inquietantes. Significa, por ejemplo, que las fluctuaciones aparentemente erráticas en los datos censales de una población animal no necesariamente anuncia ni los caprichos de un ambiente impredecible ni errores de muestreo: puede que simplemente se deriven de una relación rígidamente determinista del crecimiento de población como la ecuación (1).12
Y luego comenta específicamente acerca de nuestra capacidad de predicción:
Alternativamente, puede observarse que en el régimen caótico, condiciones iniciales arbitrariamente cercanas pueden llevar a trayectorias que, después de un tiempo suficientemente largo, divergen ampliamente. Esto significa que, incluso si tenemos un modelo simple en el que todos los parámetros están determinados exactamente, la predicción a largo plazo es sin embargo imposible.13 (May 1976, 466)
Como comentamos antes, esta idea acerca de la imposibilidad de hacer predicciones para
sistemas caóticos es muy común de encontrar en la literatura tanto científica como filosófica,
y en la sección 1.4 vamos a explorar más detenidamente las implicancias del caos para nuestra
capacidad de predecir y trabajar con sistemas caóticos.
11 Según nuestra numeración. 12 The fact that the simple and deterministic equation (1) can possess dynamical trajectories which look like some sort of random noise has disturbing practical implications. It means, for example, that apparently erratic fluctuations in the census data for an animal population need not necessarily betoken either the vagaries of an unpredictable environment or sampling errors: they may simply derive from a rigidly deterministic population growth relationship such as equation (1). 13 Alternatively, it may be observed that in the chaotic regime arbitrarily close initial conditions can lead to trajectories which, after a sufficiently long time, diverge widely. This means that, even if we have a simple model in which all the parameters are determined exactly, long term prediction is nevertheless impossible.
20
1.2 Definiciones de Caos
Ahora que hemos visto una aproximación a qué es el caos, exploraremos las distintas
definiciones más o menos precisas que han intentado darse del fenómeno. Estas definiciones
pueden clasificarse en dos grandes grupos, las cualitativas y las cuantitativas, aunque muchas
veces las intuiciones que intentan agarrar están compartidas. También veremos algunos
problemas que surgen de las mismas.
Definiciones Cualitativas
Hacia el final de su famoso libro sobre el caos de 1987, James Gleick comenta que ninguno
de los científicos que entrevistó en la preparación de su libro pudo ponerse de acuerdo en una
definición de caos y lo que hace es listar las propiedades que los sistemas llamados caóticos
tienen de acuerdo a cada uno de estos científicos. Por ejemplo cita a Philip Holmes sosteniendo
que “caótico” se refiere a “las órbitas atractoras complicadas y aperiódicas de ciertos sistemas
dinámicos, usualmente de pocas dimensiones” (Gleick 1987, 306). Bai-Lin Hao es citado
definiendo al caos como “una especie de orden sin periodicidad.” Y la misma disparidad de
definiciones se repite en los otros ejemplos. ¿Es posible dar una buena definición de este
fenómeno?
En una de las primeras exploraciones filosóficas del fenómeno del caos, Stephen Kellert da la
siguiente definición: “el estudio cualitativo del comportamiento inestable aperiódico en
sistemas dinámicos deterministas no lineales” (Kellert 1993, 2) Esta definición nos deja
bastante que desear. Por un lado Kellert habla de “teoría del caos” y aunque a veces parece
sostener que está hablando de sistemas reales, se concentra en el aspecto matemático por lo
que su definición es bastante restrictiva, en particular cuando queremos ver si, por ejemplo,
caos es realmente algo que se da en la naturaleza. Sin duda la definición que propone incluye
los puntos importantes de caos que, como comentábamos al principio, son necesarios según
Smith (2007). Esto es puesto que “inestable” hace referencia a la condición de sensibilidad a
condiciones iniciales y “aperiódico” se refiere que las variables del sistema no parecen
repetirse de ninguna manera significativa. De cualquier forma, esta definición no da una
medida de inestabilidad ni de aperiodicidad y en realidad es tan abarcadora que clasificaría
como caóticos a algunos sistemas que no tienen las otras propiedades del caos, como podría
21
ser un mapa iterativo muy sencillo 𝑥𝑥𝑛𝑛+1 = 𝑐𝑐𝑥𝑥𝑛𝑛. En este caso, sea el que sea el valor inicial x0
con el que empecemos la secuencia, los valores siguientes siempre divergirán del valor
anterior (es no periódico) y sin embargo el mapa no es caótico.
En otra exploración filosófica del asunto, Batterman (1993) ataca las definiciones de caos
atadas a la de impredictibilidad, en particular las de Stone (1989) y la de Ford (1989), la
primera atada a la predictibilidad y la segunda a una noción de complejidad.
Batterman correctamente sostiene que la impredictibilidad no es condición suficiente ni
necesaria para señalar como caótico a un sistema y, por ejemplo, distinguirlo de uno
meramente azaroso (que lo que le ataca a la definición de Ford). Ahora bien, en su discusión
no nos da una definición alternativa del fenómeno, sino que tan solo sugiere que la
“inestabilidad exponencial” es una condición necesaria aunque no suficiente para dar cuenta
del fenómeno, y pareciera hacer notar que una buena definición de caos va a tener que
aumentar la precisión de esta clase de inestabilidad, que hace referencia a que el crecimiento
de la diferencia o distancia de las trayectorias que surgen de condiciones iniciales muy
próximas se da de forma exponencial. Ahora bien, como nos señala Bishop (2008) se puede
leer a Batterman como señalando que la característica esencial del fenómeno es la existencia
en la dinámica del sistema de un mecanismo de “estiramiento y doblamiento” que causaría
que algunas de las trayectorias converjan y otras diverjan rápidamente. Lo bueno de este
indicio de definición es que podría en principio aplicarse tanto a los sistemas físicos (aunque
esta clase de mecanismo sea algo difícil de identificar algunas veces) como a los modelos
matemáticos.
Definciones Cuantitativas
En la literatura es posible encontrar muchas definiciones cuantitativas de este fenómeno. (Por
ejemplo, en Smith (1998, cap. 10), Devany (1989) y un comentario general acerca de ellas en
Bishop (2008)). En esta subsección mencionaremos brevemente dos de las más interesantes
que hemos podido encontrar. Una es matemáticamente interesante y la otra es la que se suele
encontrar en la literatura física. Antes nos detenemos en dar una definición más precisa de lo
que entendemos por sensibilidad a condiciones iniciales.
22
Siguiendo a Smith (1998, 167) es conveniente distinguir dos clases de sensibilidad a
condiciones iniciales, una versión débil y una fuerte, para lo que estableceremos primero un
poco de notación convencional.
Sea f una función definida sobre un conjunto S. Escribimos fn(x) al resultado de aplicar la
función f a la función f(x) un número n de veces. Es decir que f(f(x)) es equivalente a escribir
f2(x). También convenimos en notar que si un conjunto K es un subconjunto de S, nuestra
función f aplicada a K, genera el conjunto de puntos f(x) en los que 𝑥𝑥 ∈ 𝐾𝐾. Si f(K)=K , decimos
que K es invariante con respecto a f.
Una primera aproximación a una definición es la siguiente versión débil. Decimos que un
mapa f es débilmente sensible a condiciones iniciales sobre K si hay un 𝜀𝜀 > 0 tal que para
cualquier x en K se da que
∀𝛿𝛿 > 0,∃𝑦𝑦 ∈ 𝐾𝐾,∃𝑛𝑛 ∶ |𝑥𝑥 − 𝑦𝑦| < 𝛿𝛿 y también |𝑓𝑓𝑛𝑛(𝑥𝑥) − 𝑓𝑓𝑛𝑛(𝑦𝑦)| > 𝜀𝜀
Lo que tanto simbolismo expresa es Estos nos dice que hay sensibilidad a condiciones iniciales
en K si dado un punto x cualquiera, existe algún punto y cercano a él (sin límites a lo que
“cerca” pueda ser) tal que si tomamos a este nuevo punto (que también está en K) como
condición inicial, las órbitas que empiezan del primero y el segundo en algún momento se van
a separar por un épsilon que era la diferencia entre los valores de x y el punto y cercano que
elegimos.
La razón por la que esta definición es débil se debe a que nada nos dice acerca de cuán rápido
crece la diferencia entre las órbitas una vez que se separan y de hecho hasta es compatible con
el crecimiento lineal de esas diferencias. Es por ello que necesitamos una versión más fuerte
de esta noción, que nos dé la seguridad de que las trayectorias divergen exponencialmente.
Una posible definición podría ser la que encontramos en (Smith 1998, 168):
si 𝑥𝑥 ≈ 𝑦𝑦, entonces |𝑓𝑓𝑛𝑛(𝑥𝑥) − 𝑓𝑓𝑛𝑛(𝑦𝑦)| ≈ |𝑥𝑥 − 𝑦𝑦|𝑒𝑒𝜆𝜆𝑛𝑛 donde 𝜆𝜆 > 0
El exponente λ positivo que aparece en nuestra fórmula es el llamado exponente de Lyapunov
y es lo que nos da la rapidez con la que difieren en promedio las trayectorias, medida que nos
da una definición fuerte de la sensibilidad a condiciones iniciales.
23
Uno podría estar tentando a ver aquí una definición de caos. Si bien esta propiedad es esencial
al caos, no es suficiente porque una función muy simple como 𝑓𝑓(𝑥𝑥) = 2𝑥𝑥 cumple para
cualquier valor de x positivo la propiedad antes mencionada: la diferencia entre las órbitas
partiendo de dos condiciones iniciales distinta se duplica en cada iteración, sin embargo la
dinámica no es para nada interesante: si seguimos iterando la función vemos que se acerca a
infinito.14 La razón es que no posee un mecanismo que limite su crecimiento, como lo es el
doblamiento de las trayectorias que mencionamos anteriormente.
Una de las descripciones matemáticas más interesantes del fenómeno es la dada por el
matemático Stephen Smale, que es una formalización del mecanismo de estiramiento y
doblamiento que Batterman reconocía como una de las características principales de la
dinámica de los sistemas caóticos. En Smale (1967), un clásico de la literatura matemática
según David Ruelle, se introduce el concepto de herradura, que ha sido llamado el hallmark
del caos por algunos.15 El corazón de su propuesta es que para describir a un mapa como
caótico tiene que ser posible mapear el intervalo unitario a una herradura, como la de la figura
4.
Fig 4: La herradura de Smale y el cuadrado unitario. Cualquier similitud con una medialuna a medio amasar no es pura coincidencia. (Cf. Gleick 1987, 51).
La herradura de Smale consiste en una serie de operaciones que se realizan sobre un cuadrado
unitario, es decir un cuadrado cuyos lados miden 1. Se empieza por estirar el cuadrado en la
14 No queremos decir que acercarse al infinito no sea algo interesante. Sucede que hay formas y formas de acercarse al infinito, y ésta es una de las aburridas. 15 Cf. Shub (2005). Remitimos además al lector interesado en la sutilezas matemáticas de la herradura a este trabajo.
24
dirección y por un factor mayor a dos y luego se lo comprime en la dirección horizontal x por
más de un factor de dos. Luego se pliega el rectángulo resultante de manera tal que encaje de
nuevo sobre el cuadrado original de la manera en la que está ilustrado: sobresaliendo por arriba
y abajo y sin que llegue a los bordes derecho e izquierdo y con un espacio en el medio. De la
forma de este dibujo viene el nombre de este mapa. Si se repite el proceso se forma una figura
sobre la que es posible mapear cualquier trayectoria de un sistema caótico. El proceso de
estiramiento provee la sensibilidad a condiciones iniciales y el doblamiento es lo que hace que
las trayectorias queden contenidas en un espacio determinado. Esto era lo que no sucedía en
el ejemplo anterior de 𝑓𝑓(𝑥𝑥) = 2𝑥𝑥.
Si bien el resultado matemático es muy fuerte, y tiene la virtud de dar una descripción robusta
del mecanismo de estiramiento y doblamiento e implicar la sensibilidad a condiciones
iniciales por implicar divergencia exponencial, no puede aplicarse a todos los modelos
caóticos, en particular a los mapas invertibles que suelen caracterizar a los sistemas que
muestran caos hamiltoniano (Bishop 2008). Los sistemas hamiltonianos son aquellos en los
que la cantidad total de energía cinética y potencial es conservada. Estos sistemas también
pueden mostrar dinámica caótica. Los sistemas que pierden energía son llamados disipativos,
dado que por algún mecanismo como la fricción disipan energía.
Otra forma muy popular de definir el fenómeno en la literatura física es en términos de los
exponentes de Lyapunov. Con este recurso se puede decir que un mapa es caótico si tiene un
exponente de Lyapunov global positivo. Ya nos encontramos con estos exponentes en la
definición de sensibilidad a condiciones iniciales en tanto es el recurso al que apelamos como
una medida del grado de divergencia de dos trayectorias. La ventaja de esta definición, además
de su íntima conexión con la propiedad de sensibilidad a condiciones iniciales, es que puede
ser aplicada para “medir” caos en conjunto de datos experimentales y su cálculo es
relativamente simple. Claro que esta forma de definir caos tampoco está libre de problemas y
hasta falla en algunos ejemplos muy sencillos. El principal problema está en que implican un
tiempo infinito y claramente nuestros modelos no pueden hablar de un tiempo infinito. (Bishop
2008; 2009, 109)
Con el concepto de caos pareciera pasar algo similar a lo que sucede con el concepto de
complejidad, una buena definición va a depender del contexto en el que se vaya a aplicar y de
las intenciones que se tengan. Así una definición más matemática como la de Smale puede
25
resultar útil como base para demostrar teoremas matemáticos sobre la teoría de los sistemas
dinámicos, una en términos de exponentes de Lyapunov a la hora de buscar dinámica caótica
en resultados experimentales. Uno de los problemas que se le suele presentar a la ciencia de
los sistemas complejos es la imposibilidad de encontrar características comunes a todos estos
sistemas, en particular a la hora de dar una definición de complejidad. Si, como intentamos
mostrar en esta sección, lo mismo sucede cuando intentamos dar una definición lo
suficientemente robusta del mecanismo más simple que puede dar lugar a comportamientos
intrincados, quizás el intento siempre quede en intento. Es muy probable que las definiciones
más robustas tengan que quedar atadas al contexto en el que quieran ser aplicadas.
¿Caos…?
En resumidas cuentas, la literatura física y filosófica parece contentarse con el siguiente
conjunto de condiciones como una definición adecuada de caos:
1. Un mecanismo de estiramiento y doblamiento limita a las trayectorias
2. Las órbitas de las trayectorias son aperiódicas, es decir que no se repiten en ningún
momento t.
3. Las trayectorias son altamente sensibles a condiciones iniciales o tienen un exponente
lambda positivo.
La característica 3 es la más importante para caracterizar el fenómeno en los sistemas o en los
modelos no lineales y está íntimamente ligada a las condiciones 1 y 2. Así, llamamos caótico
a un sistema no-lineal cuya dinámica tiene la característica de que la separación de las
trayectorias cercanas se da exponencialmente.
Esto no quita que existan definiciones en otro nivel de descripción que pueda ser más
fructífera, de acuerdo a lo que se quiera lograr. Por ejemplo, otra perspectiva que está ganando
popularidad y creo que da en uno de los aspectos claves en una posible descripción del
fenómeno de caos exportable a otros sistemas es ver al caos como creación de información.
Gleick (1987) citaba a Jim Crutchfield definiendo a caos como “dinámica con entropía métrica
positiva (aunque finita). La traducción del lenguaje matemático es: comportamiento que
produce información (amplifica pequeñas incertidumbres), pero que no es completamente
impredecible” (1987, 306). Aquí sólo mencionamos esta posible definición de caos, aunque
26
creemos que es una de las más interesantes epistemológicamente hablando. La razón por la
que no la exploramos con un poco más de profundidad en este trabajo se debe a que esta
definición está atada a una perspectiva particular se ha dado a llamar mecánica computacional,
en la que los sistemas físicos son estudiados desde el punto de vista de su capacidad para
almacenar y procesar información o realizar computaciones.
La posibilidad de esta descripción informacional o computacional de la mecánica, resulta de
explorar las conexiones entre caos, computabilidad y complejidad. La mecánica
computacional es básicamente un modelo de la organización espacial y temporal de sistemas
en general, que busca explicar cómo la estructura y el azar (el orden y el caos) se manifiestan
en un sistema. Puntualmente, este programa de investigación, busca encontrar el modelo
mínimo (que se llama casualmente “máquina épsilon”) que es capaz de reproducir ciertos
datos observados. La parte “informacional” se debe a que esta aproximación a los sistemas
lleva casi naturalmente a preguntarse por la capacidad de los sistemas de procesar
información.16
Al usar la expresión “mecánica computacional” hay que tener cuidado; hay dos palabras
peligrosas: “mecánica” y “computacional”. Por el término a veces se suele referir al estudio
de los métodos computacionales para estudiar fenómenos gobernados por los principios de la
mecánica, en sus sabores clásicos. Aquí nos estamos refiriendo con el término al programa de
investigación que empezó Crutchfield con sus estudios sobre el caos y que actualmente sirven
para conectar muchos fenómenos, aunque a veces de manera muy especulativa. Nuestra
introducción a parte de este framework conceptual será la exploración de la definición de
complejidad como complejidad estadística, dejando una exploración más a fondo de este
programa de investigación para más adelante.
16 Desde un punto de vista filosófico, la noción de información es increíblemente rica y dada la aparición de teorías matemáticas de la información y el desarrollo de las teorías empiristas del conocimiento de principios del siglo pasado, este concepto se ha vuelto central. La filosofía de la información es la rama de la filosofía general que se encarga de estudiar este concepto. En este trabajo tomamos una postura más bien extensional del concepto de información, sesgado por las teorías matemáticas y técnicas del mismo. Sin embargo queremos aclarar que de ninguna manera el concepto se agota en esta mirada y que mucho progreso se está haciendo en distintas áreas tomando una concepción semántica de la información o incluso una concepción de la misma como el estado de un agente, las dos visiones más cualitativas.
27
1.3 ¿Por qué el caos es importante para la filosofía?
There is no way of proving the correctness of the position of ‘determinism’ or ‘indeterminism’. Only if science were complete or demonstrably impossible could we decide such questions.
Ernst Mach
El estudio del caos nos hace repensar nuestro mapa intelectual, conectando nociones que antes
no creíamos conectadas y haciéndonos reconsiderar el estatus de algunos conceptos. En la
sección que sigue nos detenemos particularmente en uno de ellos de profundo interés
epistemológico: el de determinismo y su conexión con la predictibilidad, en donde intentamos
mostrar que el caos no necesariamente invalida una visión determinista del mundo, como han
sostenido algunos.17 También veremos cómo el caos nos hizo reconsiderar la importancia de
qué clase de números estamos usando para representar los valores del estado de un sistema.
En esta sección nos proponemos mencionar varios de los conceptos de filosofía de la ciencia
que se vieron afectados por los trabajos sobre caos, en muchos de los cuales se presentan
preguntas para las que todavía no tenemos respuestas, o al menos no muy satisfactorias. Éstas
van desde la naturaleza de los modelos científicos hasta nuestras consideraciones acerca del
azar y el libre albedrío.
Por ejemplo, en la literatura es extremadamente común escuchar hablar de “la teoría del caos”,
mas no queda nada claro a qué se está haciendo referencia con el término. ¿Es “la teoría del
caos” una teoría científica en el mismo sentido en que lo es la mecánica cuántica o la
relatividad general? ¿Es una teoría matemática con algunas aplicaciones al mundo físico?
Claro que responder estas preguntas sería más fácil si supiéramos qué es una teoría con más
precisión. De las dos “grandes corrientes” sobre la concepción de las teorías, una visión
sintáctica o axiomática parece que quedaría descartada en tanto no es posible encontrar
axiomas ni estructuras deductivas para conectar afirmaciones observacionales con teóricas en
lo que se puede apreciar de la literatura sobre el tema. La concepción semántica de las teorías
17 Cf., por ejemplo, la cita de Lighthill que aparece más arriba. Dicho sea de paso, es el mismo Lighthill del reporte crítico sobre el estado del campo de la inteligencia artificial de 1973.
28
podría parecer un candidato, dado el hincapié que pone en la idea de modelo, sin embargo no
sólo lo que se entiende por “modelo” es sustancialmente distinto sino que tampoco está claro
en qué medida se pueden encontrar las hipótesis que conectan a los modelos caóticos con
sistemas físicos idealizados (Bishop 2008). Probablemente lo mejor sea contentarse con una
versión más débil de qué quiere decir “teoría” como podría ser el de “paradigma” en alguna
de las versiones Kuhn, uno en que se hace más énfasis en la noción de inestabilidad, en la de
patrones en lugar de mecanismos y en entendimiento cualitativo más que en precisión
analítica. Creemos que este es uno de los sentidos en que caos es una parte de lo que se dio a
llamar como “Ciencia de Sistemas Complejos”.
En varios sentidos, caos también afecta la noción clásica de reduccionismo, por la que se
entiende que el comportamiento de los macroestados de un sistema puede explicarse por
medio de los microestados. La amplificación exponencial de las pequeñas diferencias entre
las órbitas hace que sea imposible separar órdenes micro de órdenes macro en las variables
(Kaneko y Tsuda 2000, 3). También es posible encontrar en la literatura énfasis en la “visión
holista” que proviene del caos, sin embargo como detectan Kaneko y Tsuda, caos en realidad
no permite pasar al extremo holista puesto que el fenómeno también surge en modelos muy
simples y “reducidos” por lo que sería mejor hablar de un punto intermedio que ellos llaman
una “relación dinámica de muchos a muchos” (2000, 13). Queda mucho trabajo filosófico
todavía para esclarecer las distintas formas en que quienes trabajan con caos, filósofos y
científicos, entienden esta noción de “reducción” pero es interesante notar que en este aspecto
ya se nota la tensión entre las descripciones cuantitativistas de una órbita y las descripciones
estadísticas más generales que se usan para describir un modelo.
Una de las consecuencias epistemológicas más importantes que trae consigo caos es para una
posible epistemología de los modelos científicos. La literatura sobre el tema suele
concentrarse en modelos lineales pero exportar los métodos de confirmación que se aplican a
esta clase de modelos a aquellos en los que el principio de superposición lineal falla trae
consigo algunos problemas. Las dos maneras clásicas de confirmar un modelo se basan en ir
mejorando algunos de los aspectos poco a poco hasta aumentar la similitud de los resultados
del modelo con las observaciones empíricas. 18 Esto se puede lograr, por un lado, aumentando
la precisión de los datos iniciales usados mientras que el modelo permanece sin ser
18 El término inglés que se suele usar es piecemeal improvement.
29
modificado. Esto lograría, aceptando que el modelo sea una buena descripción del sistema a
estudiar, que los resultados en ambos sentidos converjan. La otra estrategia es ajustar de a
poco el modelo mientras son los datos los que permanecen fijos, siguiendo la idea de que al
mejorar el modelo la similitud entre los datos va a ser aún mayor. Koperski (1998) sostiene
que estas son estrategias de confirmación de los modelos: el comportamiento del modelo
converge monotónica y gradualmente con el comportamiento del sistema objeto. Pero cuando
queremos aplicar estas estrategias a modelos no lineales, nos encontramos con que, por
ejemplo, no hay garantía de que aumentar la precisión de las condiciones iniciales nos lleven
a que los resultados observacionales sean más parecidos. Como veremos con más detalle más
abajo, la extrema sensibilidad a condiciones iniciales que presentan estos sistemas nos llevan
a resultados muy distintos incluso cuando la diferencia entre los dos valores es ínfima. Lo
mismo puede suceder si lo que se cambia es alguna variable o algún parámetro del modelo, la
respuesta puede ser no proporcional al cambio realizado y producir un comportamiento
sustancialmente distinto. Ya vimos en nuestro mapa logístico qué tan distinto puede ser el
cambio en los resultados de un modelo a medida que se va variando un simple parámetro.
Quizás no debamos culpar al caos de la imposibilidad de predecir el futuro, sino a nuestra
incapacidad de medir con precisión infinita y al hecho de que nuestros modelos son
inadecuados. Sí podemos culpar al caos, o quizás mejor a la no linealidad, de hacer que
nuestros métodos para mejorar y verificar modelos fallen. Pero, ¿no es nuestra la culpa?
Caos también nos obliga a revisar qué es lo que cuenta como una explicación científica de un
fenómeno caótico o si una explicación que recurra a un modelo caótico cuenta como tal. Esto
se debe a que los dos esquemas básicos de explicación, el unificacionista y el causal
(considerando que el modelo hempeliano queda descartado en tanto no habría leyes)19 tienen
varios problemas para ser aplicados a esta clase de sistemas. Veamos algunos ejemplos. En la
concepción clásica de estos modelos de explicación científica se asume que hay una teoría
aceptada y que los modelos que surgen de esas teorías juegan un rol en la explicación del
fenómeno. En las explicaciones causales, los procesos causales que están presentes en el
modelo, hacen a la explicación. En una explicación unificacionista son las leyes el factor
principal aunque muchas veces se hace la conexión entre las leyes y los fenómenos vía un
modelo. Comentábamos antes que para licenciar el pasaje de los modelos a los sistemas,
debíamos asumir que teníamos un modelo fiel, pero como vimos recién, cuando estamos frente
19 Cf. Kellert (1993).
30
a sistemas extremadamente sensibles a cambios en las condiciones iniciales, determinar
cuándo un modelo es fiel se torna bastante más difícil. De esta manera, sería difícil decir
cuándo tenemos una buena explicación. Incluso en el caso extremo del modelo perfecto,
podemos encontrarnos con una miríada de estados del modelo que producen datos
empíricamente indistinguibles de los realmente presentes en el sistema. (Cf. Bishop 2008).
Encontrar los mecanismos causales en un proceso caótico equivaldría, al menos en principio,
a encontrar el mecanismo que produce el estiramiento y plegamiento de la dinámica. No sólo
esto es difícil de hacer en un sistema físico, sino que para lograrlo por lo general tenemos que
apelar a una interpretación matemática como suele ser la de la herradura de Smale. El
problema es que al hacerlo estaríamos pasando a ver una propiedad general de los sistemas,
por lo que apelaríamos a una explicación más unificacionista que causal.
Otro problema filosófico de muy larga tradición en el que caos puede hacer algún aporte es el
del libre albedrío. Así como muchos autores han recurrido a los principios de la mecánica
cuántica para explicar “el más conflictivo problema de la metafísica” según Hume, también
es posible recurrir al caos para explicar el mismo. Debemos primero aceptar una tesis sobre
la relación mente-cerebro al estilo de la mecanicista tesis minskiana de “las mentes son lo que
los cerebros hacen”. Luego, entiendo que el cerebro también es un sistema dinámico podemos
buscar al caos en el mismo. El argumento acerca del rol del caos para explicar el libre albedrío
suele ir por dos caminos. Por uno, la sensibilidad a condiciones iniciales podría hacer que las
fluctuaciones a nivel cuántico sean amplificadas, teniendo repercusiones incluso en el nivel
en el que usualmente estaríamos frente a un sistema determinista. Esta es una forma de atacar
a los argumentos que sostienen que para el comportamiento del cerebro los efectos cuánticos
son insignificantes. El otro camino por el que suelen ir los argumentos es también mediante
la sensibilidad a condiciones iniciales, sólo que a nivel neuronal. Simplificando bastante la
cuestión, el disparo de una neurona puede afectar el comportamiento de un montón de otras
neuronas, llevando a los estados macroscópicos del cerebro a ser completamente distintos de
los que podrían haber sido si esa neurona no se hubiese disparado. Esta es una manera de
encontrar la libertad humana en una visión del mundo más bien fisicalista.20
20 Véase Bishop (2001) para una buena introducción a la relación entre el indeterminismo y el problema del libre albedrío. En Bishop (2008) también pueden encontrarse algunas referencias a las discusiones acerca de si el caos efectivamente está en el cerebro y sus implicancias para el libre albedrío. Mucha tinta ha corrido sobre la no linealidad y el caos en neurociencias, especialmente con respecto al modelo de Hodgkin-Huxley de las células nerviosas. Una buena primera aproximación al tema es el Aihara (2008).
31
1.4 Newton, Laplace, determinismo y predictabilidad.
Prediction is difficult, especially of the future.
Niels Bohr
Una de las tareas que distingue a la empresa científica es la capacidad de predecir fenómenos.
Esto es, partiendo de cierta observación, mediante alguna clase de cálculo, estimar cómo, por
ejemplo, se comportaría un objeto si se mantienen constantes las fuerzas que actúan sobre él.
Las bases para un entendimiento matemático de los fenómenos naturales se lo debemos
originalmente al trabajo de Johannes Kepler y de Galileo Galilei, y especialmente a Isaac
Newton, quien no sólo descubrió leyes fundamentalmente simples que rigen el
comportamiento de los cuerpos, sino que también inventó una de las herramientas
matemáticas fundamentales para el conocimiento de la dinámica de los cuerpos: el cálculo.21
El trabajo de Newton permitió entender que los problemas de la mecánica tratan sobre cuerpos
que responden a fuerzas que actúan sobre él, y que con esas fuerzas y con el entendimiento
matemático de las leyes que las rigen, una amplia cantidad de fenómenos naturales podían ser
derivados.22 Un caso particularmente interesante era el del movimiento de los planetas en el
sistema solar. Con una idea y un método tan robustos, era fácil imaginarse que los planetas
seguirían las mismas predecibles y muy ordenadas órbitas alrededor del sol, al punto que con
un poco de cálculo alguien podría saber exactamente dónde estaría cada planeta en cualquier
momento del tiempo. Lo que se imaginaban Newton y los que vinieron después de él era que
el sistema solar era un sistema dinámico estable, es decir que básicamente era como un
mecanismo de relojería en el que cada pieza del conjunto se movía de una manera ordenada y
que nunca cambiaría. Resulta ser que escribir las ecuaciones que regulan estos movimientos
21 No entraremos aquí en acusación acerca del muy ingenioso, si no tramposo, uso de infinitesimales y del conocido debate acerca de quién inventó/descubrió el cálculo. 22 Si bien en su fundamental Philosophia naturalis principia mathematica, Newton se concentra en la gravedad y sus efectos sobre los cuerpos, pareciera ser que, como lo harían otros más adelante, estaba dispuesto a ir un poco más lejos ya que en el prefacio de dicha obra comentaba que: “Desearía poder derivar el resto de los fenómenos de la Naturaleza mediante el mismo tipo de razonamiento desde los principios mecánicos, puesto que estoy llevado por varias razones a sospechar que todos ellos dependen de ciertas fuerzas por las que las partículas de los cuerpos, por algunas causas que son todavía desconocidas, se ven mutuamente empujadas hacia unas y otras y cohesionan en figuras regulares, o se repellen y se alejan unas de otras. Siendo estas fuerzas desconocidas, los filósofos hasta ahora han intentado en vano la búsqueda de la Naturaleza.”
32
y resolverlas son cosas completamente distintas, y el poder de cálculo necesario para analizar
la estabilidad del sistema solar claramente no estaba disponible en esa época.
Si el sistema solar sólo consistiera en la Tierra y el Sol, todo sería más simple: una ecuación
diferencial describiría la relación entre las posiciones, velocidades y aceleraciones de los
cuerpos, y tan sólo integrándolas podríamos obtener la trayectoria real que siguen el Sol y la
Tierra en cualquier momento: podríamos decir dónde estaban, dónde van a estar y cómo el
valor de una variable en un instante temporal determina el valor en todos los que siguen. En
esta órbita un tanto idealizada bien podemos decir que el sistema solar de dos cuerpos (o
cualquier sistema de dos cuerpos) es estable. Confiado en que con dos cuerpos la cosa es fácil,
uno agrega otro cuerpo e intenta hacer lo mismo y el resultado es algo completamente distinto.
En la sección siguiente comentaremos un poco más acerca de la historia de cómo se llegó a
descubrir el fenómeno del caos en el estudio de los sistemas dinámicos. Por ahora nos
concentramos en la idea de que el estado de las cosas en un tiempo determina o fija, junto con
las leyes de la naturaleza, el estado de las cosas en un tiempo posterior. Esta idea, que se
conoce como determinismo, es muy fácil de atar con la idea de predictibilidad y el caos nos
trae algunas sorpresas para con ellas.
¿Qué es el determinismo?
El núcleo de la concepción determinista del mundo es que existe algo así como “el estado de
todas las cosas” que es independiente de quién lo observe y que ese único estado de cosas en
un momento del tiempo fija el estado del mundo en un tiempo siguiente, de manera única, por
lo que no hay posibilidad de escape: dada la naturaleza de las leyes naturales, las cosas van a
ser como tienen que ser porque eran lo que eran. Esta es una concepción ontológica acerca de
cómo es el mundo pero hay una posibilidad epistémica que se desprende muy fácilmente: si
conocemos las leyes que operan sobre ciertos fenómenos y de alguna manera podemos medir
el estado del mundo o al menos de las variables que sabemos describen un sistema, en
principio podemos predecir exactamente cuál va a ser el estado en otro tiempo. Esta clase de
determinismo se conoce como “determinismo Laplaciano” (Earman 1987, 13) por Pierre
Simon Laplace quien alguna vez sostuvo que:
Podríamos considerar el estado presente del universo como el efecto de su pasado y la causa de su futuro. Un intelecto que en cierto momento conociera todas las fuerzas que ponen en movimiento a la naturaleza, y la posición de todos los ítems de los que la
33
naturaleza está compuesta, si este intelecto fuera también lo suficientemente vasto para poder analizar estos datos, podría colocar en una sola fórmula los movimientos de los cuerpos más grandes del universo y aquellos del átomo más pequeño; puesto que para ese intelecto nada sería incierto y el futuro, al igual que el pasado, le estaría presente a sus ojos.23
Y luego agrega algo acerca de la razón por la que podríamos llegar a esto y acerca de los
límites que nuestra inteligencia humana tendría:
La mente humana se permite, en la perfección que le ha podido otorgar a la astronomía, un dejo de esta inteligencia. Sus descubrimientos en la mecánica y en la geometría, junto con el descubrimiento de la gravitación universal, le han permitido comprender en las mismas expresiones analíticas, los estados pasados y futuros del sistema del mundo. Al aplicar los mismos métodos a otros objetos de su conocimiento, ha logrado relacionar fenómenos observados a leyes generales, y anticipar aquellos dadas ciertas circunstancias deben aparecer. Todos estos esfuerzos en la búsqueda de la verdad tienden a llevar a la mente de manera continua hacia la inteligencia que acabamos de mencionar, aunque siempre se mantendrá infinitamente distante de esta inteligencia.24 (Laplace 1812, 2)
Su manera de ver el determinismo empieza siendo causal pero termina siendo atada a la noción
de predictibilidad, por medio de este intelecto que suele ser llamado el demonio de Laplace y
que posee capacidades de predicción que van mucho más allá de nuestras capacidades de
conocimiento y observación acerca de un sistema físico. Ya veremos cómo el descubrimiento
de caos trajo graves consecuencias para lo que podríamos llamar el problema del límite
epistémico, que es la diferencia entre lo que puede saber el demonio de Laplace y lo que
podemos saber nosotros. Por lo pronto notemos que ya en esta cita de Laplace podemos ver
una tensión entre una concepción ontológica del determinismo y una epistémica, que él no
23 We may regard the present state of the universe as the effect of its past and the cause of its future. An intellect which at a certain moment would know all forces that set nature in motion, and all positions of all items of which nature is composed, if this intellect were also vast enough to submit these data to analysis, it would embrace in a single formula the movements of the greatest bodies of the universe and those of the tiniest atom; for such an intellect nothing would be uncertain and the future just like the past would be present before its eyes. 24 The human mind affords, in the perfection that it has been able to give to astronomy, a feeble likeness of this intelligence. Its discoveries in mechanics and in geometry, joined to the discovery of universal gravitation, have enabled it to comprehend in the same analytical expressions the past and future states of the system of the world. In applying the same method to some other objects of its knowledge, it has succeeded in relating observed phenomena to general laws, and in anticipating those that given circumstances ought to bring to light. All these efforts in the search for truth tend to lead the mind continually towards the intelligence we have just mentioned, although it will always remain infinitely distant from this intelligence.
34
resuelve en tanto quedan ligadas: determinismo es predictibilidad en manos de un poderoso
demonio.
Varios filósofos importantes ataron la noción de determinismo a la noción de predictibilidad,
los más notorios son los casos de Russell y Popper. Russell pretendía limpiar la idea laplaciana
del contenido epistémico para dar una definición que fuera plenamente ontológica y da la
siguiente definición de un sistema determinista:
Se dice que un sistema es “determinista” cuando, dados ciertos datos e1, e2, …, en en los tiempos t1, t2,…, tn respectivamente que conciernen al sistema, si Et es un estado del sistema en cualquier tiempo t, hay una relación funcional de la forma 𝐸𝐸𝑡𝑡 = 𝑓𝑓((𝑒𝑒1; 𝑑𝑑1), (𝑒𝑒2; 𝑑𝑑2), … , (𝑒𝑒𝑛𝑛; 𝑑𝑑𝑛𝑛)). El sistema va a ser “determinista durante un período dado” si t, en la fórmula de arriba, puede ser cualquier tiempo en ese período, aunque fuera de ese período la fórmula puede ya no ser válida. Si el universo, como un todo, es tal sistema, el determinismo del universo es verdad; si no, no.25 (Russell 1953, 398)
Russell encuentra problemas con esta definición puesto que un sistema muy simple como una
partícula sin dimensiones cuyo estado puede ser descrito por tres variables con respecto al
tiempo, una variable para cada dimensión espacial, x, y, z. Sin importar cómo se mueva la
partícula, sabemos que podemos especificar que existen tres funciones matemáticas f1, f2, f3
tales que xt=f1(t), yt=f2(t), zt=f3(t), de lo que se sigue que el estado completo del universo
material puede ser descrito en función del tiempo, por lo que el universo entero es determinista
en el sentido de la definición anterior y enfáticamente agrega: “si esto es verdad, no aporta
ninguna información acerca del universo”. (cf. Earman (1987, 11-2) para los comentarios
sobre las sugerencias de Russell para no trivializar el sentido de determinismo que si bien son
interesantes, no son necesarias aquí.)
25 A system is said to be “deterministic” when, given certain data, e1, e2, …, en , at times t1, t2,…, tn respectively, concerning this system, if Et is the state of the system at any time t, there is a functional relation of the form 𝐸𝐸_𝑑𝑑 = 𝑓𝑓((𝑒𝑒_1; 𝑑𝑑_1 ), (𝑒𝑒_2; 𝑑𝑑_2 ), … , (𝑒𝑒_𝑛𝑛; 𝑑𝑑_𝑛𝑛 )).The system will be “deterministic throughout a given period” if t, in the above formula, may be any time within that period, though outside that period the formula may be no longer true. If the universe, as a whole, is such a system, determinism is true of the universe; if not, not.
35
La razón por la que falla la definición de Russell en dar una noción estrictamente ontológica
es porque todavía está atada a una noción de predictibilidad, y sigue confundiendo una noción
epistémica con una noción ontológica.
De lo mismo podemos acusar a Popper, quien definía al “determinismo científico” como
la doctrina que sostiene que el estado de cualquier sistema físico cerrado en cualquier instante de tiempo futuro puede ser predicho, incluso desde dentro del sistema, con cualquier grado de precisión especificado, deduciéndolo de las teorías en conjunción con las condiciones iniciales, cuyo grado de precisión requerido siempre puede ser calculado (de acuerdo con el principio de accountability26) si la tarea de predecir es dada. (Popper 1982, 36)
Como era el caso de Russell, Popper toma en serio la conexión entre determinismo y
predicción, aunque esta tiene que ser llevada a cabo por un agente que es parte del sistema en
cuestión y que sabe que dentro de los límites de su capacidad para estimar las condiciones
iniciales, es capaz de hacer predicciones correctas. El principio de accountability es
introducido para asegurarnos de que el grado de precisión de las condiciones iniciales
necesario puede ser conocido de antemano, lo que nos dejaría descartar las predicciones
incorrectas que se deben a que los datos originales no eran lo suficientemente precisos. Popper
sostiene que incluso en el caso de que la mecánica newtoniana sea verdadera, el determinismo
científico es falso. Creemos la conclusión a extraer no es que el determinismo es falso sino
que no es una propiedad epistémica, y lo veremos más claramente con un ejemplo caótico a
continuación. La inestabilidad de un sistema newtoniano que hace que pequeños cambios en
las condiciones iniciales me llevan a estados muy diferentes junto con la incapacidad del
agente que hace las predicciones de medir con infinita precisión esas condiciones iniciales nos
hacen ver que predicción y determinismo son nociones distintas.
Determinismo y caos
Creemos que es más o menos seguro decir que el descubrimiento de la naturaleza de la materia
en lo más pequeño que tenemos acceso dice que el determinismo no es válido del universo.
Sin embargo, no sólo de la cuántica viene el desafío a un universo determinista, del mismo
26 Dejamos esta palabra sin traducir, por no haber podido encontrar una buena traducción.
36
estudio de los sistemas clásico surge la necesidad de desatar determinismo de predictibilidad
y de que azar y determinismo no son conceptos tan enfrentados como parecían serlo.
Visitemos de nuevo nuestro mapa logístico para ver cómo lo afectan dos condiciones iniciales
que son muy parecidas. Supongamos que fijamos X0 como 0.999 y otra condición inicial y0
como 0.998 para r=4. Intuitivamente uno podría creer que dada esa mínima diferencia entre
las condiciones iniciales, mi capacidad de predecir el nuevo estado del sistema va a variar en
una manera proporcional a esa diferencia. Pero como se trata de un sistema no lineal, un
pequeño cambio en uno de los valores puede traer consecuencias bastante grandes a medida
que el sistema evoluciona en el tiempo. El gráfico que sigue es una representación de la
relación del estado n+1 en función del estado n dadas las dos condiciones iniciales que
indicamos antes. Como puede observarse, las dos trayectorias empiezan bastante cerca pero
luego parece que no tienen nada que ver; el sistema amplifica las diferencias.
Nuestra capacidad para predecir un sistema con dinámica caótica se ve comprometida por
nuestra incapacidad de realizar mediciones infinitamente precisas para determinar las
condiciones iniciales correctas o exactas. ¿Pero qué nos dice esto acerca del determinismo?
37
Nada. Nada en tanto lo que está en juego es nuestra capacidad de hacer predicciones, no la
naturaleza del mundo. Nada en tanto ya las ecuaciones que rigen el fenómeno son
deterministas, como probablemente también lo sea el mundo. Creemos que el caos demuestra
por qué es bueno mantener una distinción entre estados ónticos y estados epistémicos y dejar
al determinismo ligado a la primera noción y algo así como la determinabilidad al lado
epistémico. Una consecuencia que tendría esta distinción es que no podríamos hablar de un
sistema como caótico en términos de su impredictibilidad.
Este es uno de los errores más comunes con respecto a caos: creer que los sistemas se
caracterizan por ser impredecibles. De hecho, era la motivación de la definición de Stone
(1989) que criticaba Batterman (1993) Su discusión se ve motivada por que
Los sistemas caóticos representan un subconjunto característico de los sistemas dinámicos clásicos, y debemos tener alguna forma de señalar qué es lo que es característico de ellos. Los métodos que los científicos emplean para estudiar a los sistemas caóticos no se parecen a los métodos empleados cuando el sistema bajo estudio es uno del que se puede esperar que presente predictibilidad absoluta. La manera más natural de señalar esta distinción es en el contexto de la predictibilidad, y de hecho distinguirlos en base a la predictibilidad es el supuesto de trabajo de la mayoría de los científicos.27 (Stone 1989, 129. El énfasis es nuestro).
Los sistemas caóticos son impredecibles sólo en un sentido muy fuerte y no es correcto
caracterizarlos de esa manera. Si bien es cierto que trae límites bien marcados a nuestra
capacidad de predecir algunos sistemas, el estudio del caos en realidad nos muestra que
podemos predecir algunos sistemas que antes habrían sido catalogados como azarosos y
además nos permite controlar algunos sistemas caóticos.
La distinción óntico - epistémico
Algunos años después que Laplace introdujera su famoso demonio, el mismo Maxwell que
introdujo otro famoso demonio en la historia de la física, comentaba en una conferencia acerca
del debate entre el determinismo y el libre albedrío que
27 Chaotic systems represent a distinctive subset of classical dynamical systems, and we must have some way of highlighting what is distinctive about them. The methods scientists employ for studying chaotic systems do not resemble the methods employed when the system under study is one that can be expected to yield absolute predictability. The most natural way to bring out that distinction is in the context of predictability, and indeed distinguishing them on the basis of predictability is already the working assumption of most scientists.
38
Es una doctrina metafísica que de los mismos antecedentes se sigan los mismos consecuentes. Nadie puede negar esto. Pero no es algo tan útil en un mundo como este, en el que los mismos antecedentes nunca vuelven a concurrir, y nunca nada ocurre dos veces. De hecho, por todo lo que sabemos, uno de los antecedentes puede ser la fecha precisa y el lugar del evento, en cuyo caso la experiencia no tendría propósito. El axioma metafísico sólo le sería útil a un ser que posea el conocimiento de los eventos contingentes, scientia simplicis intelligentiae –un grado de conocimiento tal para el que la mera omnisciencia de todos los hechos, scientia visionis, no es sino ignorancia. El axioma físico que tiene un aspecto relativamente similar es “que de antecedentes parecidos se siguen consecuentes parecidos”. Pero aquí hemos pasado de la igualdad a la similitud, de la precisión absoluta a una aproximación más o menos aproximada. Hay ciertas clases de fenómenos, como he dicho, en los que un pequeño error en los datos introduce sólo un pequeño error en el resultado. Tales son, entre otros, los fenómenos más grandes del Sistema Solar, y aquellos en los que las leyes más elementales de la dinámica contribuyen la mayor proporción de los resultados. El curso de los eventos en estos casos es estable. Hay otras clases de fenómenos que son más complicados, y en los que pueden ocurrir casos de inestabilidad, número de casos que incremente de una manera excedentemente rápida a medida que aumenta en número de variables.28 (Maxwell 1873, en Campbell y Garnett 1882, 442. El énfasis es nuestro)
Nos parece que es bastante lo que podemos aprender de esta cita de Maxwell, en especial
porque pareciera dejar entrever la necesidad de distinguir los estados ónticos de los estados
epistémicos en su hablar de estabilidad e incerteza por más que esté hablando acerca de
causalidad (su argumento constantemente va por vía de antecedentes y consecuencias en
términos de causa y efecto). La parte metafísica es claramente la primera, dados estas y todas
estas causas lograrás todos estos efectos y en los sistemas estables podemos encontrar algo
como una causación fuerte que nos asegura cierta acción constante de las causas por lo que
28 It is a metaphysical doctrine that from the same antecedents follow the same consequents. No one can gainsay this. But it is not of much use in a world like this, in which the same antecedents never again concur, and nothing ever happens twice. Indeed, for aught we know, one of the antecedents might be the precise date and place of the event, in which case experience would go for nothing. The metaphysical axiom would be of use only to a being possessed of the knowledge of contingent events, scientia simplicis intelligentiæ,—a degree of knowledge to which mere omniscience of all facts, scientia visionis, is but ignorance. The physical axiom which has a somewhat similar aspect is “That from like antecedents follow like consequents.” But here we have passed from sameness to likeness, from absolute accuracy to a more or less rough approximation. There are certain classes of phenomena, as I have said, in which a small error in the data only introduces a small error in the result. Such are, among others, the larger phenomena of the Solar System, and those in which the more elementary laws in Dynamics contribute the greater part of the result. The course of events in these cases is stable. There are other classes of phenomena which are more complicated, and in which cases of instability may occur, the number of such cases increasing, in an exceedingly rapid manner, as the number of variables increases.
39
una pequeña variación en una causa traería aparejada una variación proporcional en el efecto.
Un sentido más débil de causación es necesario para los sistemas caóticos (cf. Atmanspacher
2002, 62), y esto ya es visto por Maxwell al introducir lo que el llama “fenómenos
complicados” en los que ocurren casos de inestabilidad. Esta noción más débil no contradice
al “axioma metafísico” pero sí pareciera llevarnos a considerar a los antecedentes como
aquellos a los que podemos aproximarnos, porque no podemos conocer todos los eventos
contingentes. En esta noción más débil de “antecedentes”, creemos que Maxwell se refiere a
los estados epistémicos que nos permiten hablar del conocimiento de un sistema, en particular
uno inestable.
Creemos que también es esta idea maxwelliana la que refina Poincaré algunos años más tarde:
Si supiéramos con exactitud las leyes de la naturaleza y la situación del universo en el estado inicial, podríamos predecir exactamente la situación de ese mismo universo en un momento posterior. Pero, incluso si fuera el caso de que las leyes de la naturaleza no nos guarden secreto alguno, sólo podríamos conocer la situación inicial de una manera aproximada. Si eso nos permitiera predecir la situación sucesiva con la misma aproximación, es todo lo que necesitamos, y deberíamos decir que el fenómeno ha sido predicho, que está gobernado por leyes. Pero esto no es siempre así; puede suceder que pequeñas diferencias en las condiciones iniciales produzcan grandes diferencias en el fenómeno final. Un pequeño error en el primer producirá un enorme error en el segundo. La predicción se vuelve imposible.29 (Poincaré 1908, 397)
Aquí no sólo está Poincaré haciendo una de las primeras menciones a sistemas que presentan
SDIC, sino que también deja entrever el límite que tenemos a la hora de conocer un sistema
(puesto en términos de predictibilidad) dado que sólo podemos conocer un estado de manera
aproximada, incluso cuando sea una ley natural determinista la que regula el fenómeno.
Comienza haciendo referencia al demonio de Laplace en tanto es quien tendría capacidad de
conocer exactamente las condiciones iniciales. Luego, como lo hacía Maxwell, empieza a
hablar de causalidad en términos de condiciones iniciales y “momentos sucesivos”, y finaliza
hablando de predictibilidad epistémica.
29 If we knew exactly the laws of nature and the situation of the universe at the initial moment, we could predict exactly the situation of that same universe at a succeeding moment. But, even if it were the case that the natural laws had no longer any secret for us, we could still only know the initial situation approximately. If that enabled us to predict the succeeding situation with the same approximation, that is all we require, and we should say that the phenomenon had been predicted, that it is governed by laws. But it is not always so; it may happen that small differences in the initial conditions produce very great ones in the final phenomena. A small error in the former will produce an enormous error in the latter. Prediction becomes impossible.
40
La distinción entre estados ónticos y estados epistémicos fue introducida en la literatura por
Scheibe (1964) quien propuso hablar de las proposiciones ónticas de una teoría y las
proposiciones epistémicas de la teoría, las que hacen referencia a nuestra capacidad de conocer
algo acerca del sistema. La motivación original fue sobre la teoría cuántica pero creo que con
lo que ya vimos acerca del caos podemos ver que ésta es una distinción que también puede
aclarar algunas cosas en la teoría newtoniana, teoría que tiende a confundir los dos,30 y en la
discusión acerca de la relación entre modelos y el mundo.31 Los estados ónticos se refieren a
los estados del mundo independientemente de cualquier acceso a los mismos por parte de un
agente (“cuando nadie me mira, soy así”) por lo que hablan de una realidad óntica. Los estados
epistémicos, por otro lado, implican a un agente cognoscente y su capacidad para conocer el
sistema bajo estudio. Con respecto a caos, podemos observar una tensión entre la aparente
irregularidad del sistema y el orden subyacente. Esto se debe a que por un lado nos
encontramos con nuestra incapacidad para determinar el estado con precisión infinita del
sistema, ya sea en términos de medir, computar o predecir el mismo, y por el otro, nuestra
descripción de las leyes que rigen la dinámica del sistema en términos de ecuaciones
diferenciales, que son deterministas. Caos, allá abajo, es determinista. Aquí arriba,
indeterminable. Ahora bien, esto no debería hacernos perder la esperanza, puesto que si bien
hay un nuevo límite en nuestra capacidad de predecir sistemas, pagando el pequeño precio de
la pérdida de la certeza, la posibilidad realizar predicciones más o menos precisas de un
sistema caótico está dentro de nuestras capacidades.32
Lo que tenemos que hacer es recordar que mientras nuestros modelos matemáticos crudos
(esto es, sin implementar) de un sistema llamen “estados de un sistema” a puntos y trayectorias
continuas en un espacio de fase con precisión infinita, estaríamos hablando de una descripción
óntica. En cambio, en un contexto empírico (ya sea por tratarse de un experimento o de una
simulación computacional) estamos trabajando con otros límites en los que la precisión
infinita debe ser descartada. En sistemas con dinámica caótica, el uso de espacios de fases
atados con conocimiento finito nos fuerza a meter en nuestras ahora epistémicas
descripciones, cuestiones como medidas de probabilidad y de incertezas.
30 Que no es el caso de la mecánica estadística, en la que se suele hablar en términos epistémicos. 31 Que sólo mencionamos en varias partes del trabajo pero que permanece fuera del alcance nuestra propuesta. 32 De todas formas el precio no es tan alto, ¿quién está realmente cierto de algo?
41
Haciendo predicciones con caos: de las sombras, la probabilidad.
En un popular artículo de 1986 en la revista de divulgación Scientific American, Jim
Crutchfield y otros comentaban que
El descubrimiento del caos ha creado un nuevo paradigma del modelado científico. Por un lado, implica nuevos límites fundamentales en nuestra habilidad para hacer predicciones. Por otro lado, el determinismo inherente en el caos implica que muchos fenómenos azarosos son más predecibles de lo que se había pensado. Información que parece aleatoria que se encontró en el pasado –y archivada porque se asumió que era demasiado complicada- hoy en día puede ser explicada en términos de leyes simples. El caos permite encontrar orden en diversos sistemas tales como la atmósfera, una canilla que gotea, y el corazón. El resultado es una revolución que está afectando muchas ramas diferentes de la ciencia.33 (Crutchfield et al 1986).
Al menos en un contexto de aplicación, la teoría del caos sí se presentó como una “pequeña
revolución”: la aplicación de modelos caóticos efectivamente permitió encontrar cierto orden
en sistemas que antes se creían realmente impredecibles. Sin embargo, también nos mostró
algunas limitaciones en nuestro acceso a la naturaleza. A la hora de realizar predicciones, el
trabajo con sistemas caóticos presenta ciertos desafíos. Como mencionamos antes, esta clase
de sistemas son sólo impredecibles en un sentido muy fuerte. Son dos las razones
fundamentales por la que esto sucede:
(1) Nuestra incapacidad de realizar mediciones de las condiciones iniciales con precisión
infinita.
(2) La profundidad máxima con la que podemos representar un número para hacer
cálculos es finita.
Es importante recordar que todas estas limitaciones son epistémicas, es decir, caen sobre los
estados epistémicos del sistema mientras que el mismo evoluciona de manera única, es
determinista. Ya dijimos algo acerca de (1) anteriormente, por lo que ahora nos concentramos
33 The discovery of chaos has created a new paradigm in scientific modeling. On one hand, it implies new fundamental limits on the ability to make predictions. On the other hand, the determinism inherent in chaos implies that many random phenomena are more predictable than had been thought. Random-looking information gathered in the past—and shelved because it was assumed to be too complicated—can now be explained in terms of simple laws. Chaos allows order to be found in such diverse systems as the atmosphere, dripping faucets, and the heart. The result is a revolution that is affecting many different branches of science.
42
en (2), algo que en particular afecta al trabajo con simulaciones computacionales de sistemas
caóticos, que son el método más usado para investigar al caos. 34
Hay ciertos sistemas que, desde lejos, parecen caóticos.35 Antes del descubrimiento del caos,
un sistema impredecible como una moneda arrojada hubiese sido catalogada como caótica, al
menos popularmente. Hoy en día sabemos que hay una diferencia entre los sistemas caóticos
y los que efectivamente son azarosos y se llaman estocásticos. La diferencia entre un sistema
caótico y un sistema estocástico es que este último es realmente impredecible porque tiene un
componente azaroso irreductible a una regla y sólo pueden ser descritos estadísticamente. Los
sistemas caóticos son predecibles a corto plazo, al menos. Conocer que una moneda haya
caído como cara o cruz en el tiro anterior no me dice nada acerca de cómo caerá en el próximo.
Ex post facto, teniendo disponible toda la historia de los resultados, podríamos afirmar con
cierta seguridad que la mitad de las veces tendió a un resultado y la otra mitad a otros, pero
no hay más orden que éste.
¿Por qué es difícil de predecir un sistema caótico, incluso si conocemos la regla bajo la que
opera el sistema? El problema con los sistemas caóticos es que nuestra capacidad para predecir
cómo va a estar el sistema se pierde en cada paso de evolución del mismo, debido al
mecanismo de estiramiento y doblamiento de su dinámica. Intentaremos ilustrar esto de una
manera sencilla.
Si queremos hacer una masa hojaldrada tendremos que estirar nuestra masa ya mezclada,
plegarla y repetir el proceso varias veces. Cada vez que repetimos el proceso se duplica la
cantidad de capas que tenemos. Si nos proponemos seguir el movimiento de dos granitos de
azúcar que al empezar estaban juntos, notaríamos que en cada proceso los granitos se alejan
entre sí, por más que estén “contenidos” en la masa. Esta clase de “mezclado” en dos procesos
es la característica principal de nuestros sistemas caóticos.36 En el caso del mapa logístico que
hemos presentado, la parte positiva 𝑟𝑟𝑥𝑥𝑛𝑛 de la función estira el espacio de fase, mientras que
la parte negativa (1 − 𝑥𝑥𝑛𝑛) se encarga de plegarla.
Para hacer una predicción del valor de una función en una primera iteración, debemos conocer
esa función f(x). Pero si queremos predecir sobre una segunda iteración debemos conocer el
34 Así como en la primera sección mostramos en relativo detalle un modelo matemático para lograr cierta familiaridad con el trabajo con modelos matemáticos, una parte de la motivación de esta sección es mostrar algunas de las consideraciones que hay que tener en cuenta a la hora de implementar en una computadora alguno de esos modelos. Esta implementación no es tan directa ni tan precisa, por lo que puede introducir errores que no existían en modelo matemático original. 35 O moscas, pero no queremos competir con Borges. 36 Esta también es la idea intuitiva que opera en la herradura de Smale que comentamos antes.
43
resultado de aplicar la función f(x) a f(x), recursivamente. Esto es f2(x) según nuestra
convención notarial anterior. Si ahora volvemos a nuestro mapa logístico y hacemos un
diagrama de fase para 𝑥𝑥𝑡𝑡+1 en función de 𝑥𝑥𝑡𝑡 (es decir que graficamos la relación de un estado
con respecto al que sigue), nos encontramos con una parábola. Pero si ahora graficamos f2(x),
en la representación nos encontramos con dos máximos (o dos crestas). Si volvemos a repetir
la operación para f3(x) volvemos a duplicar la cantidad de crestas, y así sucesivamente. Sucede
lo mismo que con la cantidad de capas en nuestra masa hojaldrada cada vez que la estiramos
y la plegamos.
Vamos a suponer que queremos hacer una predicción extremadamente simple sobre nuestro
mapa logístico: dado un valor de 𝑥𝑥𝑡𝑡 lo que queremos saber es si dado un número n de
iteraciones, 𝑥𝑥𝑡𝑡+𝑛𝑛 va a tener un valor mayor, igual o menor a 0.5. Como para hacer la predicción
podemos vamos a implementar el modelo en una computadora, estaremos usando a fin de
cuentas una representación binaria para cada valor. Procedemos a hacer una predicción para
el primer paso: para n=1, queremos determinar si 𝑥𝑥𝑡𝑡+1 va a ser mayor o menor que 0.5. Para
esto tenemos que partir el espacio de la función en al menos tres partes: uno en donde el
máximo o la cresta es mayor a ese valor y los dos extremos en donde el valor es menor. Ahora
bien, si queremos predecir para cualquier n y para cualquier valor temporal, la cantidad de
secciones que necesitamos dado el comportamiento que conocemos de la función es 2𝑛𝑛+1.
Esto hace que necesitemos una profundidad de representación de 𝑛𝑛 + 1 bits para representar
el valor de 𝑥𝑥𝑡𝑡 sobre el que empezamos nuestra exploración de los valores siguientes. Y acá
está el punto clave: si al correr nuestra búsqueda usamos una representación para el valor de
coma flotante que tiene menos bits que 𝑛𝑛 + 1, básicamente estamos explorando el resultado
al azar. ¡Incluso si es tan sólo menor por un bit! Perdemos un bit de información por cada
momento más allá que queremos predecir. Actualmente nuestras mejores representaciones de
números con coma flotante usan una profundidad de 128 bits, por lo que para el sistema
caótico más sencillo nos es imposible, con memoria finita, predecir para cualquier n mayor a
128. He aquí por qué es importante conocer la profundidad con la que podemos representar
los valores de los números que van a nuestro modelo implementando.
Si a todo esto le sumamos la condición (1) antes mencionada sobre la imprecisión de nuestras
mediciones, parece que predecir sistemas caóticos se vuelve todavía más complicado. De
hecho esto hasta nos podría parecer que hacer predicciones tanto con modelos muy simples
como con modelos complejos como los usados en las ciencias climáticas podrían ser
44
imposibles. En un caso extremo, hasta podríamos pensar que caos no es un fenómeno natural
sino un producto de nuestra imposibilidad de simular una trayectoria con precisión infinita.
¿Cómo podemos asegurarnos que caos es un fenómeno real y que nuestras simulaciones
computacionales dan cuenta del mismo? ¿Cómo podemos hacer predicciones con cierta
precisión de sistemas que poseen extrema sensibilidad a condiciones iniciales? El lema de
sombreado (shadowing lemma) se encarga de respondernos la primera pregunta, la posibilidad
de pasar a descripciones probabilísticas de los sistemas caóticos nos da, al menos, un principio
de respuesta para la segunda.
El lema de sombreado es un resultado matemático que se le debe a Anosov (1967) y a Bowen
(1978). Básicamente, este lema nos garantiza que existe al menos una trayectoria real que le
“hace sombra” de cerca a una trayectoria simulada del mismo sistema dinámico, mientras que
una trayectoria simulada sí va a divergir de una trayectoria exacta del sistema (la siguiente
figura ilustra esto que estamos diciendo). Algo a considerar es que este resultado no se aplica
a cualquier sistema dinámico dado que tienen que tener una estructura hiperbólica.37 Al
margen de sus limitaciones, este resultado nos asegura que el caos es un fenómeno real y no
un producto de nuestra incapacidad de representación infinita. Haciendo estudios numéricos
sobre el mapa de Henon38, sabemos que para algunos valores de los parámetros un sistema
dinámico muy simple puede tener estructura hiperbólica y ser no-hiperbólico para otros
valores (Lai et al. (1993)). Hammel et al (1987) exploraron el mapa logístico numéricamente
y prueban que una órbita aproximada puede ser sombreada por una real “por un largo tiempo”
(1987, 465). Qué tanto tiempo dependerá de la aproximación con la que se esté trabajando,
pero al menos nos da cierta garantía para afirmar que un mapa unidimensional no hiperbólico
como el mapa logístico puede representar caos real y, de acuerdo a cómo interpretemos la
relación entre la matemática y el mundo, que caos es real.
37 Probablemente difícil nota al pie acerca de esto: la dinámica hiperbólica está caracterizada por la presencia de direcciones de la derivada que se expanden y se contraen. Es decir que cada punto en el espacio en donde esté la trayectoria tiene que tener una dirección estable y una inestable. La presencia de una estructura hiperbólica también es algo importante a considerar a la hora de aplicar métodos numéricos a sistemas caóticos, tales como la reducción de ruido. (Abarbanel 1996). En espacios de fase de varias dimensiones, la falta de esta condición puede ser un problema serio: si uno de los exponentes de Lyapunov fluctúa cerca de cero, el sombreado falla tan dramáticamente que se dice que esos sistemas son “inmodelables”. (Kostelich et al 1997, cf. Thompson y Stewart 2002, 206) 38 Este mapa es uno de los sistemas dinámicos discretos más estudiados por ser uno de los más simples con dinámica caótica posible, y es de dos dimensiones. El sistema está definido por 𝑥𝑥𝑛𝑛+1 = 1 − 𝑎𝑎𝑥𝑥𝑛𝑛2 + 𝑦𝑦𝑛𝑛 y 𝑦𝑦𝑛𝑛+1 =𝑏𝑏𝑥𝑥𝑛𝑛, donde a y b son parámetros. El comportamiento caótico se obtiene para algunos valores de estos parámetros, en particular para a=1.4 y b=0.3. En Gleick (1987, 144-153) puede encontrarse una introducción al mismo.
45
FIG 5: A la izquierda se puede observar la trayectoria real de un sistema y cómo se desvía la trayectoria computada por la acumulación de errores. A la derecha se muestra una trayectoria de sombra que es arbitrariamente cercana a la trayectoria computada. (Tomada de Flake (1998, 154))
Las limitaciones que hemos visto nos hacen considerar la posibilidad de buscar una
descripción alternativa a la hora de hacer predicciones del comportamiento de los sistemas
caóticos. Una descripción que parece ser bastante natural, y más aún si defendemos nuestra
distinción entre estados ónticos y estados epistémicos, es una en términos probabilistas. La
posibilidad de hacerlo consiste en que se puede ver a un sistema dinámico caótico como
explorando su espacio de fase: la sensibilidad a condiciones iniciales en particular hace que
frente a un nuevo valor el sistema “actualice” un espacio de fase distinto al anterior. Si este
proceso es iterado muchas veces, podemos ganar una imagen de cómo el sistema tiende a
comportarse frente a esas pequeñas variaciones.
El trabajo de Nicolis y Gaspard (1994) es uno de los primeros intentos de dar una
fundamentación matemática de esta posibilidad, detalles en los que no nos detendremos de
momento, dado que nos interesa mostrar más concretamente un caso de aplicación de esta
clase de descripción para predecir uno de los sistemas caóticos más interesantes: la atmósfera
terrestre.39
39 Probablemente nuestra consideración de este sistema como el más importante sea algo sesgada. Philip Thompson, uno de los pioneros en predicción numérica del tiempo, comentaba acerca de las impresiones de John von Neumann sobre el tema: “[von Neumann] regarded [the weather forecasting problem] as the most complex, interactive, and highly nonlinear problem that had ever been conceived of—one that would challenge the capabilities of the fastest computing devices for many years.”
46
Gregoire Nicolis y Catherine Rouvas-Nicolis comentan años más tarde acerca de la
naturalidad con la que se puede dar esta descripción y cómo se descubre una nueva faceta del
fenómeno:
Un punto fundamental es que la evolución de los sistemas compuestos de varias subunidades y que están sujetos a una dinámica compleja, pueden ser mapeados de una manera auto-consistente a una descripción probabilista, libre de aproximaciones heurísticas. Las visiones probabilista y determinista se vuelven dos caras de una misma realidad, y esto le permite a uno encontrar regularidades de una nueva clase.40 (Nicolis & Nicolis 2009)
Sin duda las dos realidades del fenómeno son bastante distintas: bajo una visión probabilística,
lo importante pasa a ser la evolución de las distribuciones de probabilidades que, a diferencia
de la no-linealidad e inestabilidad inherentemente presentes en la descripción determinista,
son lineales y estables. En un contexto de aplicación, lo que esto permite es una nueva manera
de hacer predicciones. Ahora comentaremos brevemente cómo se implementa esta descripción
sobre un modelo matemático de un sistema objeto en particular que queremos predecir: la
atmósfera.41 En este caso, la aproximación probabilista se conoce como “pronóstico por
conjunto” (ensemble forecasting) y consiste en considerar un conjunto de condiciones
iniciales que sean compatibles con los datos que se tienen, resolver el modelo para cada una
de esas condiciones iniciales y luego evaluar los promedios (o los picos) de los valores de las
variables que se consideren importantes en cada una de estas iteraciones o actualizaciones
(realizations). La ventaja de este método es que atenúa las fluctuaciones que se presentan en
una sola iteración y permite notar las tendencias de la dinámica de las posibilidades del
sistema. En la siguiente figura podemos apreciar cómo funciona este tipo de predicciones.
40 A fundamental point is that the evolution of systems composed of several subunits and undergoing complex dynamics can be mapped into a probabilistic description in a self-consistent manner, free of heuristic approximations. The probabilistic and deterministic views become thus two facets of the same reality, and this allows one to sort out regularities of a new kind. 41 Usamos el término atmósfera de una manera muy general. La literatura específica hace la distinción entre predicciones de tiempo (weather prediction), tormentas (severe weather) y clima (climate). Tomamos “atmósfera” para referirnos a cualquiera de estos sistemas. El nivel de discusión de este trabajo nos permite ser tan generalistas.
47
Fig. 6 Representación gráfica de un pronóstico por conjunto junto con predicciones deterministas. (Tomada de *Roulstone & Norbury 2013, 278))
El círculo gris de la izquierda representa un conjunto de condiciones iniciales consideradas
como las mejores de acuerdo a los datos que se tienen del estado de la atmósfera en un tiempo
t0. Las trayectorias en gris representan predicciones deterministas posibles considerando
condiciones iniciales cercanas, mientras que la trayectoria en negro (la de abajo) representa la
evolución “verdadera” del sistema. Las otras “islas” grises muestran la evolución la
proyección probabilista de cómo se comportará el sistema, usando el pronóstico por conjunto.
La primera en un tiempo t1 cercano a t0 y la isla que se observa en el extremo derecho muestra
la proyección final de la predicción probabilista. La fuerte no linealidad del sistema hace que
las predicciones deterministas a largo plazo sean muy distintas, aunque se mantienen cercanas
en un primer momento. Esta dispersión, junto con el volumen del espacio de fase del estado
final del pronóstico, es indicadora de la incerteza de la predicción, algo que no podríamos
saber si sólo corriéramos el modelo con una única condición inicial. Esto no sólo nos permite
hacer predicciones acerca del sistema sino que nos da información acerca de la confiabilidad
de nuestro modelo; pero no entraremos ahora en esa discusión. Lo que queremos remarcar es
que es posible hacer mejores predicciones (y predicciones de las predicciones) si dejamos de
hablar del sistema en términos del sistema per se (es decir, de sus estados ónticos) y aceptamos
que nuestras descripciones son acerca de los estados epistémicos del mismo y que cuando
hablamos de estos últimos podemos darnos el lujo de introducir términos como incertezas y
probabilidades sin comprometernos con una “incerteza” allá abajo, o fundamental. En
realidad, cuando hacemos una predicción, predecimos lo que vamos a saber del sistema, no
48
cómo estará el mismo en ese tiempo. Si tenemos suerte, los estados serán parecidos. Si no,
habrá que tener un paraguas a mano, por las dudas.42
En esencia, el uso de esta clase de descripciones probabilistas de fenómenos deterministas
deja entrever esta naturaleza dual de estos fenómenos deterministas, dual en tanto aceptemos
la distinción planteada de estados ónticos y estados epistémicos. La dualidad parece estar en
nosotros y no en las cosas, pero eso ya lo sabemos de antes.
42 El lector puede consultar el artículo de Parker (2013) para una buena introducción a este tipo de modelado en ciencias climáticas y algunas reflexiones filosóficas. El capítulo 8 de Roulstone & Norbury (2013) es una introducción un poco más técnica a las predicciones con modelos atmosféricos.
49
1.5 Descubriendo al caos
Nature laughs at the difficulties of integration
Laplace
Se ha dicho varias veces que caos es/fue una revolución y Gleick (1987) es particularmente
responsable. Esta primera popularización sobre el caos tiene un capítulo entero dedicado a la
supuesta revolución, en el sentido kuhneano del término, en el que afirma:
Unos pocos librepensadores trabajando solos, sin poder explicar hacia dónde se estaban dirigiendo, con miedo de hasta comentarle a sus colegas qué es lo que estaban haciendo –esa imagen romántica está en el corazón del esquema de Kuhn, y ha ocurrido en la vida real, una y otra vez, en la exploración del caos.43 (1987, 37).
Creemos que la mejor manera de mostrar que el caos no es esa clase de revolución es revisando
la historia de la idea. Probablemente la razón por la que el caos haya impactado tan
fuertemente en la comunidad científica en el momento en que lo hizo no haya sido por el
fenómeno en sí, sino por cómo hizo notar la relevancia del impacto del modelado matemático
de fenómenos naturales implementados en una simulación computacional. Como ya dejamos
ver en las secciones anteriores, caos no es caos sin la computadora.
Ahora bien, antes de llegar a la computadora repasemos brevemente la historia de la idea.44
La “sorpresa” del caos quedó un tanto oculta en la historia de la matemática y la física por una
novedad un poco más grande que fue el surgimiento de la física cuántica a principios del siglo
pasado. Si alguien se merece el título de “el descubridor del caos” no es otro que Henri
Poincaré, en especial por su “intento” de solucionar el problema de la luna o el problema de
los tres cuerpos, que ya hemos mencionado, aunque sólo al pasar. Se trata del problema de
determinar los posibles movimientos de tres masas puntuales que se atraen entre sí respetando
las leyes del movimiento y de la gravitación universal newtonianas, como puede ser el caso
de la Tierra, la Luna y el Sol, y que ya había sido visto por Newton. Euler, Clairaut, d’Alambert
43 A few freethinkers working alone, unable to explain where they are heading, afraid even to tell their colleagues what they are doing-that romantic image lies at the heart of Kuhn's scheme, and it has occurred in real life, time and time again, in the exploration of chaos. 44 Las reconstrucciones que seguimos son principalmentee las de Gleick (1987), Holmes (2005) y Aubin y Dahan Dalmedico (2002).
50
y hasta los mismos Lagrange y Laplace hicieron algunos aportes. Pero sin duda el principal
hito en la historia de este problema es el trabajo de Poincaré. En 1887, para honrar un poco
más su 60º cumpleaños, el rey Oscar II de Suecia estableció un premio para quien pudiera
solucionar el problema. Probablemente no haya sido el rey sino el matemático sueco Gôsta
Mittag-Leffler quien haya presentado el problema tan específicamente como:
Dado un sistema de una cantidad arbitraria de puntos de masa que se atraen de acuerdo a la ley de Newton, bajo el supuesto de que ninguno de los puntos colisiona, intentar encontrar una representación de las coordenadas de cada punto como una serie en una variable que sea una función conocida del tempo y para la cual todos los valores de la seria converjan uniformemente.45
Fue intentando ganarse este premio que Poincaré descubrió que podían existir órbitas no-
periódicas y que sin embargo no aumentan constantemente ni se acercan a un punto fijo. Un
breve paper de unas 270 páginas (Poincaré 1890) que le sirvió para ganarse el premio, aunque
tenía algún que otro error, como él mismo encontró más adelante. Su trabajo básicamente
funda la teoría moderna de los sistemas dinámicos y en particular descubre que ciertas
ecuaciones diferenciales que describían el movimiento de sistemas supuestamente simples no
eran integrables debido a ciertos puntos que se comportaban de una manera extraña, que ahora
llamamos órbitas homo y heteroclínicas.46 Se podría decir que es la primera vez que se alguien
“ve” algo como el caos. Otro de los resultados interesantes del trabajo de Poincaré es el
teorema que lleva su nombre y el de Bendixson, quien dio una prueba completa del teorema
en su Bendixson (1901). De este teorema, se sigue que para poder dar lugar a un atractor
extraño, un sistema continuo tiene que al menos tener tres dimensiones. Curiosamente, hasta
donde sabemos, Poincaré nunca conectó sus ideas de “inestabilidad geométrica” con el
comportamiento caótico de las moléculas en los gases, que también entendía muy bien, y
tampoco hace referencia a esto en el artículo sobre la sensibilidad a condiciones iniciales que
mencionamos anteriormente.
En su artículo de 1898, el matemático francés Jacques Hadamard introdujo el primer sistema
dinámico considerado como caótico, el billar que lleva su nombre. Este es un sistema en el
que se considera el movimiento libre de una partícula sobre una superficie de curvatura
45 Given a system of arbitrarily many mass points that attract each according to Newton's law, under the assumption that no two points ever collide, try to find a representation of the coordinates of each point as a series in a variable that is some known function of time and for all of whose values the series converges uniformly. 46 En un espacio de fase, decimos que las trayectorias que unen dos puntos de equilibrio son órbitas heteroclínicas. Si el punto de partida es el mismo que el de llegada, llamamos a esas órbitas homoclínicas.
51
negativa. Hadamard demostró que todas las trayectorias divergen siempre de las otras,
exponencialmente.
La teoría de los sistemas dinámicos se vio impulsada por George Birkhoff, quien trabajando
de una manera más directa sobre los resultados de Poincaré y con algunos métodos creados
por Hadamard, probó una serie de teoremas topológicos acerca de los puntos fijos.
Matemáticamente hablando, el caos estaba muy cerca hacia principios de los años ‘30,
especialmente con Birkhoff (1927), mostrando que cerca de cualquier punto homoclínico de
un mapa bidimensional existe una secuencia infinita de órbitas cuyos períodos tienden a
infinito y con Birkhoff (1932), identificado el caos en un sistema dinámico muy simple con
evolución temporal discreta que mostraba “destacables curvas cerradas” con rasgos fractales.
Sin embargo, el verdadero descubrimiento tendría que esperar un poco, a la aparición de
algunos sistemas caóticos físicos y a la aparición de la computadora aplicada a problemas
científicos. Y quizás a la Segunda Guerra Mundial en el medio para cambiar un poco las cosas.
Antes de pasar a esas contribuciones, notamos algunas de los desarrollos matemáticos que se
dieron en el ínterin 1930-1960, en particular en lo que podríamos llamar la “escuela rusa” del
caos matemático, que suele ser dejada de lado en los relatos de esta historia.
En paralelo a los desarrollos matemáticos en occidente, en la ex Unión Soviética surgió un
fuerte grupo de estudio sobre dinámica, en la ciudad de Gorki (actualmente Nizhni-Novgorod)
encabezado por el físico Aleksandr Andronov. Sus trabajos principalmente se concentraron
en la noción de estabilidad de los sistemas dinámicos, en particular la llamada estabilidad
estructural introducida en Andronov y Pontryagin (1937) bajo el nombre de “sistemas toscos”
(systèmes grossiers).47 El trabajo de Andronov siguió con el estudio de las bifurcaciones
locales, es decir, con los cambios cualitativos en la dinámica del sistema a medida que se
varían parámetros, trabajo que fue continuado por su esposa tras la temprana muerte de
Andronov y luego publicados como Andronov et al (1971, 1973). Probablemente haya sido
su formación como físico que haya hecho que las investigaciones del grupo no se vuelvan
completamente abstractas sino que permanezcan cercanas a un contexto de ciencia aplicada.
47 Los puntos fijos o las órbitas periódicas que hemos mencionado anteriormente son claros ejemplos de esta noción: el comportamiento cualitativo de las trayectorias del sistema no se ve afectado por pequeñas perturbaciones.
52
Los otros aportes rusos a la teoría provienen de la “escuela de Moscú”, especialmente de la
mano de figuras como Andrey Kolmogorov48, Dmitri Anosov y Yakov Sinai. Es probable que
resultado más importante que surgió de esta escuela sea lo que se conoce como el “Teorema
KAM” por Kolmogorov, Arnold y Moser que es un resultado “inverso” al de Poincaré. Más
allá de las tecnicidades del caso, es un resultado epistemológicamente interesante por las
aplicaciones que tiene y por el tipo de confirmación que recibió. Recordemos que en el estudio
del problema de los n-cuerpos, Poincaré había notado que existían ciertas dificultades de
integración cuando n era igual o mayor que 3, problemas que provienen de los pequeños
efectos que introduce la interacción gravitatoria entre los cuerpos. La teoría que desarrolla
Kolmogorov (y que fue mejorada por su alumno Vladimir Arnold y por Jürgen Moser) es una
teoría general de los sistemas hamiltonianos sujetos a pequeñas perturbaciones, que pueden
presentar movimientos cuasi-periódicos en esas circunstancias. Esta intuición acerca de la
“cuasi-integrabilidad” de los sistemas llevó al desarrollo métodos computacionales para
trabajar con sistemas caóticos en simulaciones computacionales, en particular en aplicaciones
en mecánica estadística, mecánica celeste y física de plasma.
Más allá de la aplicabilidad de los métodos numéricos para acercarse a esta clase de sistemas,
una de las nociones epistemológicamente más ricas de la aproximación al caos por parte de
Kolmogorov provino del reconocimiento de la importancia de la teoría de la información de
Shannon, que llevó a la introducción de lo que hoy conocemos como Entropía Kolmogorov-
Sinai, que consiste en una medida de la cantidad de información que genera una dinámica
caótica.
En paralelo al desarrollo matemático de la idea, el caos se empezó a observar en sistemas
físicos.49 En van der Pol y van der Mark (1927) los autores describen un “ruido irregular” en
un diodo forzado periódicamente mientras intentaban comprender el comportamiento de un
48 Quizás sea una apuesta brava, y esta nota poco importante para nuestra historia, pero creemos que Kolmogorov es el único matemático que podría competir con John von Neumann en por el título de “el matemático más importante del siglo XX”. Áreas que se vieron si no transformadas al menos enriquecidas por su trabajo incluyen a la probabilidad, la teoría de conjuntos, la teoría de sistemas dinámicos, la teoría de la información, la teoría de los algoritmos, intuicionismo, topología, teoría de la turbulencia y numerosas aplicaciones de la matemática a problemas en biología, geología y hasta en la cristalización de los metales. Para una buena introducción a los aportes que realizó a la física, se puede consultar la compilación Livi y Vulpiani (2003). 49 Un caso más curioso que otra cosa: en 1927 Herbert Sellner aplicó una patente para un juego de parque de diversiones que prometía que caos iba a divertir a sus usuarios: “A further object is to provide amusement apparatus wherein the riders will be moved in general through an orbit and will unexpectedly swing, snap from side to side or rotate without in any way being able to figure what movement may next take place in the car.” El juego se llama “Tilt-A-Whirl”. Kautz y Huggard (1994) es la demostración matemática de que un este juego es efectivamente caótico.
53
oscilador electrónico usando un parlante (que probablemente sea la mejor idea para hacer eso
si uno no tiene un osciloscopio, o si todavía no se han inventado). El origen del ruido que
escuchaban en su experimento era el caos determinista. Los matemáticos ingleses Mary
Cartwright y John Littlewood estudiaron profundamente este artículo mientras estaban
trabajando sobre la tecnología del radar durante la segunda guerra mundial.50 Su trabajo fue,
sin duda, mucho más allá de cualquier aplicación práctica para la época y desembocó en
importante aportes a la matemático como Cartwright y Littlewood (1945).
Mencionamos aquí brevemente de nuevo a Stephen Smale y su herradura. Antes de andar
descubriendo herraduras caóticas en las playas de Río (como bien nos cuenta en su Smale
(1998a)), Smale no creía en el caos y había conjeturado que no existía. Sin embargo, Levinson
le hizo conocer su trabajo de 1949, que era una extensión de Cartwright y Littlewood (1945)
en el que mostraba que el caos aparecía en un sistema incluso más simple que el que habían
estudiado ellos. Atendiendo a esto, Smale probó que su conjetura estaba mal y nos dio un
resultado matemático muy robusto, además de además de hacer que muchas personas se
pregunten acerca del destino de los fondos de la National Science Foundation por estar
pagando viajes al extranjero.
El caso más conocido del “descubrimiento” de caos es el de Edward Lorenz. De hecho Lorenz
(1963) es uno de los artículos más citados de todos los tiempos, y es en este caso por donde
pasa el peso de la historia en la popularización de caos de Gleick.
Lorenz estaba trabajando en un modelo matemático no lineal muy simple de la convección en
la atmósfera, implementándolo en una computadora.51 Su modelo tenía tres dimensiones, por
lo que escapaba de los límites del teorema de imposibilidad de Poincaré-Bendixson que
mencionamos recién y consiste en estas tres ecuaciones diferenciales:
𝑑𝑑𝑥𝑥𝑑𝑑𝑑𝑑
= 𝜎𝜎𝑦𝑦 − 𝜎𝜎𝑥𝑥
𝑑𝑑𝑦𝑦𝑑𝑑𝑑𝑑
= −𝑥𝑥𝑥𝑥 + 𝑥𝑥𝑥𝑥 − 𝑦𝑦
𝑑𝑑𝑥𝑥𝑑𝑑𝑑𝑑
= 𝑥𝑥𝑦𝑦 − 𝛽𝛽𝑥𝑥
50 51 Para los curiosos, una LGP-30 que se fabricó por primera vez en 1956.
54
en donde 𝜎𝜎, 𝑥𝑥 y 𝛽𝛽 son parámetros. Lorenz descubrió que fijando a estos parámetros como 10,
28 y 8/3 respectivamente su sistema se comportaba de una manera muy particular. 52
Intentando ahorrarse algunos pasos de cómputo, en un momento Lorenz cargó los datos
manualmente para el estado del sistema en un tiempo más adelante de la simulación, datos
que ya tenía impresos de una simulación anterior. Lo curioso del caso es que la computadora
que estaba usando redondeaba los números impresos a la tercera cifra decimal, mientras que
la profundidad de cálculo original era de 6 dígitos. Creyendo que esa diferencia de precisión
no iba a afectar el estado general del sistema, Lorenz se encontró con que los resultados eran
muy diferentes de los de la simulación anterior: un pequeño cambio en el valor de las
condiciones iniciales desviaban al sistema de su trayectoria anterior. De ese “error”, las
posibilidades tan consabidas de una mariposa metafórica. En su famoso paper, Lorenz
comentaba acerca de las implicaciones que esto tenía para los intentos de predecir la
atmósfera:
Es posible que dos valores que difieren por una cantidad imperceptible, eventualmente evolucionen hacia dos estados considerablemente diferentes […]. Si, entonces, hay un error cualquiera en la observación del estado presente –y en cualquier sistema real esos errores parecen inevitables– una predicción aceptable de un estado instantáneo en un futuro lejano puede bien ser imposible […]. En vista de la inevitable imprecisión e incompletud de las observaciones del tiempo, las predicciones a muy largo plazo parecen ser inexistentes.53 (Lorenz 1963, 141)
52 Una de las imágenes más asociadas al caos es el llamado atractor extraño de Lorenz y que de manera casual su representación en el espacio de fase tiene la forma de una mariposa. En este trabajo decidimos dejar fuera del centro a la noción de atractor así que la trataremos brevemente aquí. En un sistema dinámico, un atractor es el conjunto de propiedades numéricas hacia los que el sistema tiende a evolucionar. Algunos puntos fijos son atractores. Lo que es interesante del atractor de Lorenz es que se trata de un atractor extraño. Se dice así de un atractor que tiene una estructura fractal y la mayoría de los atractores extraños son caóticos. Dado que un sistema caótico muestra extrema sensibilidad a condiciones iniciales, dos puntos arbitrariamente cercanos en un atractor después de un número de iteraciones quedan arbitrariamente separados pero dentro de los límites del atractor, lo que lleva a que después de un número de iteraciones queden de nuevo arbitrariamente cerca. Por esta razón se dice que la dinámica del sistema es “inestable localmente” aunque a la vez “estable globalmente”. El atractor de Lorenz es geométricamente simple de entender, esto es, el resultado de las ecuaciones diferenciales del modelo se puede entender mediante un modelo geométrico simple. Á la Hilbert, Smale propuso una lista de problemas sin resolver en matemáticas en (1998b), a pedido de Vladimir Arnold cuando era presidente de la unión matemática Internacional. En su lista, el problema 14 es justamente el de demostrar que el atractor de Lorenz es efectivamente caótico. El problema fue resuelto por Tucker (2002) utilizando métodos computacionales, en particular matemática de intervalos y publicado en la revista Foundations of Computational Mathematics. Agregamos la imagen del atractor al final de esta sección. 53 Two states differing by imperceptible amounts may eventually evolve into two considerably different states ... If, then, there is any error whatever in observing the present state — and in any real system such errors seem inevitable — an acceptable prediction of an instantaneous state in the distant future may well be impossible....In view of the inevitable inaccuracy and incompleteness of weather observations, precise very-long-range forecasting would seem to be nonexistent.
55
El uso del término “caos” para referirse a los sistemas de esta clase se debe a Li y Yorke
(1975).
Creemos que desde esta perspectiva histórica una de las preguntas más interesantes que
podemos hacernos es ¿por qué se tardó tanto tiempo en descubrir este fenómeno? Como
esperamos que se pueda apreciar desde los comentarios anteriores, son varias las razones que
notamos para este suceso. Por un lado, aceptado el framework galileano-newtoniano en el que
se daban explicaciones sencillas para sistemas muy simples con comportamiento regular, era
difícil de esperar que la misma matemática pudiera servir para explicar sistemas que se
comportaban de manera tan errática. Uno de los insights más relevantes del caos y de los
sistemas complejos en general es justamente que muchas veces cosas muy simples pueden
lograr resultados complicados. Por otro lado, tenemos que destacar lo compleja que puede
volverse la matemática del caos. Creemos que esto hizo que, de la misma manera en la que en
los libros de texto se hace continuamente hincapié en sistemas lineales que pueden ser
resueltos, algunos “monstruos” matemáticos no han sido estudiados por los matemáticos hasta
tener alguna motivación externa para hacerlo. Muchas veces, esa motivación es la de una
aplicación práctica de la teoría como es el caso de la creación de un modelo matemático para
un sistema físico, como sucedió en el caso del caos. La “falsa idea de complejidad” que
mencionamos antes, el hecho de que parecía necesario algo complejo para general algo
complejo, también estaba presente en la interpretación de ciertos mecanismos físicos, como
el movimiento caótico de las moléculas de un gas. La creencia siempre fue que la razón del
aparente movimiento azaroso de las partículas provenía de la complejidad del sistema (su gran
número de moléculas) y no de una dinámica simple pero inestable, lo que favoreció el
acercamiento estadístico en una primera instancia.54 La aparición de la computadora digital,
sujeta a las limitaciones, algunas de las cuales que ya pudimos explorar, fue la princesa del
descubrimiento: su naturaleza exacta y repetitiva permitía dejar al ruido de lado y “aislar” el
fenómeno en cuestión y, de alguna manera, permitió “ver” lo que Poincaré no pudo ver, ni
dibujar.55 La “verdadera revolución”, que tampoco lo es tal en el sentido kuhnenano, fue la
introducción de la computadora digital cómo método de hacer ciencia, una de las “pequeñas
revoluciones” que causó fue la del descubrimiento del caos.
54 Como ya notamos antes, caos nos obliga a volver a un acercamiento estadístico, pero por otras razones. 55 Dicho sea de paso, al parecer Poincaré era muy mal dibujante.
56
FIG 7: Cómo prometía la nota más arriba, aquí la figura del atractor extraño de Lorenz. No sé Uds pero nosotros vemos más un búho que una mariposa.
57
Today our main problem is that of organized complexity. Concepts like those of organization, wholeness, directiveness, teleology, control, self-regulation, differentiation and the like are alien to conventional physics. However, they pop up everywhere in the biological, behavioural and social sciences, and are, in fact, indispensable for dealing with living organisms or social groups. Thus, a basic problem posed to modern science is a general theory of organization.
Von Bertalanffy (1956)
Capítulo 2: Sistemas Complejos
En este capítulo del trabajo nos proponemos revisar algunos de los conceptos generales que
hacen a la llamada “Ciencia de Sistemas Complejos”, o “Ciencia de la complejidad”, como
suele leerse en algunos lugares. En particular nos veremos obligados a detenernos con más
cuidado que en el capítulo anterior en qué es un sistema y cuál es la riqueza epistemológica
que el estudio de los sistemas en general puede traer. Tras esto, nos detenemos en caracterizar
a los sistemas complejos, notando algunas de sus propiedades más importantes. La tercera
sección de este capítulo se concentra en el concepto de complejidad y en las formas de
medición. Las dos secciones que siguen empiezan a atar cabos, primero atacando la pregunta
de la necesidad del azar y luego especulando acerca de la relación entre las nociones que
hemos presentado: caos, azar, complejidad y computabilidad.
2.1 ¿Qué es un sistema?
Puede decirse que el interés moderno por la complejidad como una ciencia tiene ya un tiempo
con nosotros, aunque muchas veces en las descripciones del campo suelen pasarse por alto
algunos resultados teóricos que hasta fueron redescubiertos por no conocer su existencia. Uno
de estos fue la preocupación temprana de algunos por la noción de sistema, de la que podemos
decir que se empezó a estudiar en 1926 con la tesis doctoral de von Bertalanffy sobre
58
organismos vivos entendidos como sistemas, tesis que inició todo un programa de
investigación que desembocó en la llamada Teoría General de los Sistemas (TGS).56
No es fácil decir qué es un sistema, aunque básicamente podemos entenderlos como una
organización de los “todos”: un complejo de componentes en interacción. Rapoport, uno de
los principales personajes en la línea de la TGS, distinguía dos formas fundamentalmente
diferentes de entender el término en su (1968). Una es la forma analítica de entenderlos, que
es la que proviene de las ciencias naturales y de la ingeniería, concepción inherentemente
atada al uso de métodos y modelos matemáticos, aplicados por lo general a sistemas físicos
simples que buscaban ser entendidos y representados. Más o menos así es como entienden los
físicos actualmente al sentido reducido de “sistema” y es la definición que usamos como base
en nuestra discusión sobre caos. Con Bertalanffy se inicia una nueva forma de entender qué
es un sistema, una manera “organísmica” (organismic) de acercarse a los mismos y que podía
incluir a sistemas más complicados como los sistemas vivos y que Rapoport asocia al estudio
de una diversidad de fenómenos en el mundo biológico y social como todos integrados.
Justamente la idea central de la TGS es mostrar que, en realidad, estas distintas formas de ver
a los sistemas son “complementarias en lugar de alternativas, y revelan distintos aspectos de
una aproximación unificada a la teoría de sistemas”. (Rapoport 1986, 7) Otra distinción que
intenta unificar la TGS es entre una lectura normativista de los sistemas y otra descriptivista.
Epistemológicamente hablando, la primera busca responder el “cómo”, la otra el “para qué”.
Desde la segunda mirada, un sistema es algo interesante en sí mismo. Bajo la otra, un sistema
es una entidad que cumple una función para algo, ya sea un objetivo instrumental específico
(por lo que se lo puede evaluar por su rendimiento) o un objetivo no instrumental en el que el
objetivo del sistema es perpetuar su propia existencia. Al intentar dar una visión generalizada
de todo esto, los proponentes de la TGS la veían como un paso hacia la unidad de la ciencia
(Hofkirchner y Schafranek 2009, 179):
56 Una visión general organísmica de las cosas ya se encontraba en la metafísica de Whitehead (1925). Influenciado por los cambios que en la concepción atómica del mundo introdujo la teoría de la relatividad y la importancia del concepto de campo, Whitehead fue uno de los primeros en sugerir una filosofía de la naturaleza de corte holístico, en el que las entidades que perduran no son consideradas como objetos materiales sino como estructuras de actividad, a las que denominó “organismos”. El término era deliberadamente amplio y cubría tanto a los animales y las plantas como a las moléculas y los átomos. Su visión, pues, propone ver a todos los sistemas como organismos: “la biología es el estudio de los organismos grandes, mientras que la física lo es de los organismos más pequeños”. (Whitehead 1925) Quizás toda metafísica de procesos sea una nota al pie a este libro de Whitehead. De hecho, creemos que el estudio de los sistemas complejos nos inclina a adoptar una metafísica de procesos. Si bien aquí nos concentramos en la idea de sistema que surge con a TGS, de ninguna manera acaba ahí él problema filosófico de qué es un sistema (¡ni hablar de qué es un sistema filosófico!).
59
Su principal objetivo es generar una nueva clase de unidad de la ciencia: no una unidad basada en la reducción de los conceptos, los métodos o, incluso, las leyes de todas las ciencias a los de una sola ciencia considerara como más esencial; sino una unidad formal basada en la generalidad y ubiquidad del concepto de sistema y en los “isomorfismos” que induce entre las ciencias, de las que se garantiza la autonomía lógica y metodológica.57 (Pouvreau y Drack 2007, 283)
Para poder cumplir con este objetivo, la TGS debía cumplir otro, el de mostrar la ubicuidad
de los sistemas en el mundo físico, lo que implica mostrar que “la totalidad de los fenómenos
observables muestran uniformidad estructural” (Bertalanffy 168, 87)
Esta es una de las razones por la que podemos notar conexiones entre el estudio de los sistemas
en general y el estudio de los sistemas complejos; en ciertos aspectos parecen mostrar lo
mismo aunque con distinta forma de acercarse a los problemas. Creemos que la actual Ciencia
de los Sistemas Complejos (CSC) es un subproducto de la preocupación original de la TGS,
por lo que una presentación de la primera sin un repaso mínimo como el que presentamos aquí
de la segunda sería incompleto. Sin embargo no es la preocupación principal del trabajo, por
lo que vamos a continuar ahora con una subclase de sistemas, aquellos llamados complejos y
sus propiedades. Notemos antes que hay una diferencia muy grande entre la CSC y la TGS.
Esta última es mucho más abarcadora y menos científica, en tanto puede verse como un primer
intento de una ciencia de la ciencia. Limitándose a una clase de sistemas, la CSC sólo toma
algunas preocupaciones, aunque no los métodos, de la TGS, e intenta someterlas a un estudio
científico empírico, rastreando características esenciales de esta clase de sistemas, tanto físicos
como abstractos, como es el de su complejidad, que pasaremos a revisar.58
57 Its major goal is to generate a new type of unity of science: not a unity based on the reduction of the concepts, methods or even laws of all sciences to the ones of a single science regarded as more essential; but rather a formal unity based on the generality and ubiquity of the system concept and on the ‘isomorphisms’ it induces between sciences of which the logical and methodological autonomy is guaranteed 58 Algunos trabajos que consideramos fundamentales para el surgimiento del estudio de la complejidad ya fueron mencionados en el capítulo anterior y otros son señalados más adelante. Queremos aprovechar esta nota al pie para señalar otros trabajos igualmente importantes que no deberían ser pasados por alto y que llevaron a la generación de este campo de trabajo. El primero es el de Norbert Wiener, fundador de la Cibernética: la primera exploración sistemática de los sistemas regulativos. En estos sistemas hay un bucle de retroalimentación: hay una acción del sistema sobre el ambiente en el que se encuentra que genera un cambio en el ambiente que de alguna manera se refleja en el mismo sistema. Wiener la definió en 1948 como “el estudio científico del control y la comunicación en el animal y la máquina”. Igual de importantes fueron los trabajos de Warren McCulloch y Walter Pitts que generaron la primera descripción de cómo un cerebro formado por células entendidas como simples pueden dar lugar a patrones tan complejos. La “Neurona de McCulloch-Pitts” es el primer modelo de una red neural artificial, que ya es un campo bastante grande dentro de las ciencias de la complejidad. Por último, señalamos los esenciales trabajos de John von Neumann sobre la teoría de los autómata y su auto-
60
2.2 ¿Qué es un sistema complejo?
Es difícil dar una definición cuantitativa de qué es un sistema complejo, basada en una noción
de complejidad dada. Sin embargo, desde un lado más cualitativo, podemos notar que una de
las mejores definiciones de qué es un sistema complejo se la debemos a uno de los pioneros
en el área, Herbert Simon. En su “The Architecture of Complexity” (Simon 1962), el autor
propone definir a los sistemas complejos como aquellos que “están conformados por un gran
número de partes que tienen muchas interacciones”, notando que “en estos sistemas, el todo
es mucho más que la suma de las partes en el sentido que, dadas las propiedades de las partes
y las leyes de sus interacciones, no es una cuestión trivial inferir las propiedades del todo”.
En esta “definición de trabajo”, los ingredientes principales son:
- Componentes: la mayoría de los sistemas complejos están constituidos por elementos
o unidades que son estructuralmente distintos y que suelen ser un sistema en sí mismos,
es decir que funcionan como individuos que generan un comportamiento local dentro
del sistema y pueden tener una dinámica propia. Algunos de estos componentes que
bajo ciertos niveles de análisis son tomados como individuos pueden, a su vez, ser
descompuestos en subsistemas. Los sistemas pueden ser complejos, entonces, en
diferentes niveles formando distintas jerarquías de componentes casi (nearly)
descomponibles.59 La distinción de jerarquías también indica que muchos sistemas son
irreversibles o que resultan de un proceso tal.
- Interacciones: una de las particularidades de estos sistemas es que justamente no son
un mero agregado de partes sino que éstas forman relaciones entre sí de distintas
clases. Estas relaciones suelen ser dinámicas, lo que produce la integración de los
componentes en tiempo y espacio y da a su organización. Son justamente las
interacciones las que modulan el comportamiento de los distintos subsistemas,
alterando localmente el comportamiento y generando el funcionamiento del sistema
reproducibilidad, en los que se puede encontrar el primer modelo lógico-matemático de la reproductibilidad biológica y deja entrever la necesidad de entender a los mecanismos complejos como manipuladores de información simbólica. 59 Aclaramos y decimos más de esto más adelante.
61
como un todo, lo que implica alguna especie de canal de comunicación entre los
subsistemas. Integridad (la unidad orgánica de su función), la situabilidad
(situatedness) (la depedencia de la dinámica de los subsistemas a la micro/macro
estructura en la que se encuentran) y la integración (estructuras o relaciones
funcionales como loops de retroalimentación) son clases de relaciones en los sistemas
complejos. (Cf. Bishop 2009, 112).
- Emergencia: las interacciones entre los componentes suelen dar lugar a fenómenos o
funciones que no pueden, al menos de una manera trivial, reducirse a las propiedades
de los componentes, sino que son propiedades del sistema. Parte de esto se debe a que
la interacción entre los componentes suele ser no-lineal.
Existe un caso especial de sistemas complejos, los llamados adaptativos que también agregan
la propiedad de que el sistema o al menos algunos de sus componentes modifican su
comportamiento y sus propiedades con respecto al ambiente en el que ven incluídos, lo que
trae como resultado la aparición de nuevas propiedades sistémicas que de alguna manera
reflejan los cambios en el ambiente. Algunos autores sostienen que recién cuando un sistema
tiene esta propiedad se puede decir que es propiamente complejo. Nosotros, sin embargo, los
consideramos un caso especial dentro de los sistemas complejos.
Para el estudio de los sistemas complejos es de particular importancia la noción de jerarquía,
en particular por el rol que la organización del sistema juega en esta clase de sistemas y será
central, a la hora de querer medir la complejidad de uno. Simon (1962) notaba la importancia
de esta noción y entendía por sistema jerárquico o por jerarquía a un sistema que está
compuesto por subsistemas interrelacionados, los cuales tienen, a la vez, una estructura
jerárquica, hasta que se llega a un nivel mínimo. Es importante no pensar en la noción intuitiva
de jerarquía, como la que solemos encontrar en las organizaciones humanas en las que suele
haber un control general (un jefe) y luego distintas unidades hacia abajo en la cadena de
mando. El concepto que quiere introducir Simon es mucho más amplio e incluye sistemas en
los que no hay tal subordinación.60 El punto clave está en el grado de interacción de los
60 Es probable que Simon haya sido influenciado por las ideas de Chomsky (1957) en las que se introdujo la teoría de la estructura jerárquica de la sintaxis de los lenguajes naturales, que surge en el momento en el que estaba naciendo la inteligencia artificial, campo en el que estos personajes fueron pioneros. Si bien hay algo de “ciencia de lo artificial” en esta exploración de jerarquía, Simon insiste en que es algo que se da en la naturaleza, y alguno de los ejemplos que da en favor de esta presentación incluye a la estructura básica de la materia
62
componentes, que suele estar atada a la distribución espacial de los mismos, al menos en
sistemas físicos. Según Simon, la estructura jerárquica permite responder a una de las
preguntas más interesantes sobre estos sistemas: ¿cómo surge un sistema complejo de un
sistema más simple? Esto se debe a la posibilidad de crear estructuras intermedias estables a
medida que el sistema se va complejizando. Si no fuera por este recurso, la aparición de esta
clase de estructuras sería altamente improbable. Esta propiedad de los sistemas de “buscar”
estructuras intermedias está dada por la casi descomponibilidad: la tendencia de los
componentes a interactuar con más intensidad internamente que externamente. Por la
intensidad de una interacción se refiere aquí a que el comportamiento de un componente
depende mucho más del comportamiento de otros componentes que están en la misma
subunidad que de otros que están fuera de ella.
Esta propiedad hace que el sistema pueda ir evolucionando hacia formas más complejas, en
un proceso de ensayo y error similar al de la selección natural. Hay un proceso selectivo que
hace que ciertas estructuras sean “elegidas” para construir un nivel más alto. El punto que
enfatiza Simon, para que quede algo más claro todo esto, es que este proceso depende sólo la
las interacciones, nada tiene que ver la naturaleza del sistema. Es por esto que esta descripción
serviría tanto para un sistema físico como para un sistema social o un sistema biológico. La
estructura jerárquica puede explicar mucho de un sistema complejo, en particular sobre su
robustez y sobre la ausencia de un control central.
Otro tema de profundo interés filosófico que el estudio de los sistemas complejos obliga a
revisitar es el de la emergencia de fenómenos y propiedades y el íntimamente ligado debate
filosófico entre los llamados reduccionistas y los anti-reduccionistas u holistas. En resumidas
cuentas, el dictum reduccionista dice que las propiedades y el comportamiento de un sistema
como un todo está completamente determinado por “lo que pasa allá abajo”, ya sea en un tono
ontológico (sólo existen las propiedades y los estados de las partes) o en un tono epistémico
(el comportamiento y las propiedades se pueden explicar por las propiedades de las partes).
Los anti-reduccionistas atacan al menos una de estas formas de ver las cosas y suelen hacer
referencia al estudio de los sistemas complejos para defender su posición.
(moléculas, átomos, partículas elementales). La fuerza que pareciéramos encontrar para que la naturaleza favorezca la aparición de jerarquías es que la división de tareas facilita las cosas y permite la creación de estructuras estables más complejas. Hay una especie de problem solving en la naturaleza que usa los mismos recursos que usamos nosotros para resolver un problema, recursos que tendemos a tener en cuenta a la hora de diseñar un sistema artificial que resuelva problemas. Nuestra insistencia en esta noción se debe a que parece ser ésta la intuición que permitió iniciar el estudio científico de esta clase de sistemas.
63
Como comenta Hooker (2009a, 28), en la literatura científica se suele hablar de “patrones
emergentes” cuando la interacción dinámica entre los componentes del sistema es
sorprendente, o inesperada, o demasiado complicada, aunque una caracterización de la
emergencia en esos términos es demasiado vaga y subjetiva. Una forma de aclararla sería
poner el hincapié en términos de la predictibilidad y limitar, así, los fenómenos emergentes a
aquellos que no pueden ser predichos antes observar las interacciones, aunque esto haría que
muchos fenómenos que intuitivamente no son emergentes sean considerados como tal dados
los límites que tenemos para hacer predicciones. Es justamente a través del estudio de los
sistemas complejos que se puede llegar a una visión alternativa en la que el énfasis esté puesto
en la dinámica. Por ejemplo, se podría tomar el caso de una bifurcación como criterio para
identificar una emergencia, o identificarla con la auto-organización, ya que en estos dos casos
existe una nueva dinámica apreciable. Ésta es esencialmente la postura de Hooker:
Sólo mediante la apelación a la dinámica se puede explicar la relación entre un nuevo emergente y los componentes constituyentes de manera que se le dé coherentemente existencia distintiva a la entidad emergente y no se comprometa la fundamentalidad de los componentes, especialmente para emergentes auto-organizados. […] Es por esto que los sistemas complejos son tan importantes para la reducción y la emergencia: sólo en ellos encontramos las sutiles relaciones dinámicas que les hacen frente a nuestros esfuerzos formales y nos llevan a mejorar nuestro entendimiento.61 (2009b, 198)
2.3 Complejidad
Las primeras subsecciones presentan dos conceptos teóricos sobre los que se elaboran luego
las definiciones de complejidad que podemos encontrar en la literatura, por lo que pasamos a
explorar primero estos resultados, que también nos ayudarán a elucidar la conexión entre el
estudio de los sistemas complejos y la ciencia de la información. El primer concepto sobre el
que nos detendremos en este “excurso” es el de información de Shannon. El segundo es el de
61 Moreover, only through appeal to dynamics can the relation between a new emergent existent and its constituting components be explained so as to coherently both give distinctive existence to the emergent entity and not compromise the fundamentalness of the components, especially for self-organised emergents [...] This is why complex systems are so important to reduction and emergence: uniquely in them we find the subtle dynamical relationships that confront our formal efforts and drive us to improved understanding.
64
Complejidad de Kolmogorov. Luego intentamos mostrar distintas formas de medir la
complejidad de un sistema, viendo los alcances y limitaciones de éstas para dar una versión
cuantitativa de qué es la complejidad.
Información de Shannon
Shannon (1948) y Shannon y Weaver (1949) son los trabajos fundamentales de esta noción,
que básicamente dice que la entropía H de una variable discreta al azar X es una medida de la
incerteza asociada al valor de X. La preocupación de Shannon era poder cuantificar la cantidad
de información en un mensaje para poder optimizar los métodos usados para transmitir el
mensaje, por lo que poco le importaba la semántica del mensaje, en el fondo era un problema
de ingeniería.
Si suponemos un portador de información, sin importar su naturaleza, cualquier intento de
medir esa cantidad de información debería atender a estas intuiciones (Adrieens 2012):
-La información es extensiva: un mensaje más largo contiene potencialmente más
información.
-La información reduce la incerteza: a medida que la información aumenta, la incerteza que
tenemos acerca de algo disminuye. Por ejemplo si tenemos máxima certeza acerca del estado
de algo, ya no podemos obtener más información al respecto. De aquí la sugerencia de
conectar información con la probabilidad: si estamos absolutamente ciertos que un evento A
va a suceder porque tiene probabilidad 1, la información de A es 0. Las estructuras
improbables contienen más información que las probables.
Esto llevó a Shannon a formalizar esta relación inversa entre probabilidad e información en la
siguiente fórmula para un conjunto de mensajes:
𝐻𝐻(𝑋𝑋) = −�𝑃𝑃𝑟𝑟(𝑥𝑥)𝑙𝑙𝑙𝑙𝑙𝑙2𝑃𝑃𝑟𝑟(𝑥𝑥)𝑥𝑥∈𝐴𝐴
donde A es el conjunto de mensajes y Pr(x) es la probabilidad del mensaje x en A. Usar
logaritmo en base 2 nos asegura que la medida queda expresada en bits. Si todos los mensajes
65
tienen la misma probabilidad, la entropía es máxima. La cantidad de información en un
mensaje simple x está dada por -log Pr(x), que satisface las intuiciones que mencionamos
antes. Quizás la forma más simple de ver por qué la entropía de Shannon es una medida de la
aleatoriedad de una distribución probabilística es relacionarlo con el ejemplo clásico de la
probabilidad: tirar una moneda. Una moneda tirada al azar básicamente tiene dos posibilidades
de resultado, por lo que se puede expresar como una variable binaria. La máxima entropía
para la moneda es H=1 bit, lo que significa que cada valor es igual de probable. Si de alguna
manera modificamos la moneda, o nuestro sistema de lanzamiento para que la probabilidad
de que la moneda quede en número sea 0.8, la entropía del sistema disminuye a 0.72 bits.
Estamos frente a menos información, porque “el grado de sorpresa” disminuyó. Aumentar la
probabilidad de número a 0.9 y de cara a 0.1 lleva a la entropía a 0.47 bits. Quizás sea bueno
también mencionar que la entropía de Shannon no mide la información de un objeto sino de
un objeto entre un conjunto de los mismos, por estar definida sobre una distribución de
probabilidad. Es decir que se está midiendo el nivel de “sorpresa” que tal objeto le produce a
un receptor que toma ese objeto del conjunto, siendo la sorpresa inversamente proporcional a
la probabilidad.62
Complejidad de Kolgomorov
Independientemente, Kolmogorov, Chaitin y Solomonoff desarrollaron en los años ‘60 lo que
hoy se conoce como Complejidad de Kolmogorov o Teoría Algorítmica de la Información.
Una de las principales ventajas que tiene, frente a, por ejemplo, una descripción de la
información a la Shannon, es que combinando nociones de computabilidad y estadística puede
dar cuenta de la complejidad de un objeto en particular, sin considerar un conjunto de objetos.
62 Sólo recientemente la filosofía de la información se ha dedicado a explorar las definiciones cuantitativas de la información, aunque todavía parecen dominar las exploraciones en torno a nociones semánticas de la información. Cf. también la nota 16 supra. Se dice que la conexión con la entropía de Boltzmann y la insistencia en usar ese nombre le fueron señalados a Shannon por von Neumann, quien al parecer insistía en que lo mejor de usarlo era que nadie iba a entender de qué se estaba hablando. Y como parece que hasta el caos termina en la información, el mismo Gleick le dedica su último libro de divulgación a la teoría de la información. (Gleick 2011) Dretske (1982) es la primera exploración filosófica de la definición de Shannon. Armado con esta noción, Dretske revisa y ataca varias de las nociones intencionales tales como conocimiento, creencia, percepción, conceptualización y sentido (meaning), viendo a la información como un objeto natural y objetivo; independiente de procesos interpretativos. Es interesante su comentario acerca de la noción de sentido, según el cual pese a que el sentido, como una característica de un estado psicológico, presupone cierta actividad cognitiva, surge del flujo de la información en un simple procesador físico de información, además de resultar de los requisitos adaptativos del mismo. (Dretske 1982, vii). Dado el particular punto de partida que toma, consideramos que es una buena introducción para personas con una formación más bien formal a cuestiones que han sido centrales en la filosofía analítica del siglo XX.
66
Esta “complejidad” es la descripción mínima de la que puede reconstruirse la totalidad del
objeto, normalmente considerando como descripción al programa binario más corto que puede
producir como resultado el objeto en cuestión. Lo primero a señalar es que esta clase de
complejidad es distinta a las nociones clásicas de complejidad computacional, que es una
clasificación de los algoritmos en términos de su costo temporal (el tiempo que tarda computar
una función para cierto valor de entrada) o de su costo espacial (la cantidad de memoria que
el algoritmo necesita durante su ejecución). En cambio en esta teoría lo que es central es el
tamaño de la descripción misma, no la dificultad de correrla.
Como decíamos, la teoría nos lleva a asociar a todos los objetos con una secuencia (string) en
el lenguaje binario que los representa. Si el objeto que queremos describir es un número, la
expansión en binario del mismo es la secuencia que lo describe. El punto está en qué tanto es
posible comprimir una descripción, hasta volverla la más corta posible para ese objeto. El
conjunto de los números pares, por ejemplo, es un conjunto grande (infinito, de hecho); sin
embargo es fácil de describir con un programa bastante corto, dado que hay un patrón muy
simple de encontrar para ese conjunto. En cambio, un conjunto de números al azar, o los
dígitos de la mayoría de los números irracionales, son irreducibles en tanto la descripción más
corta es la misma secuencia de caracteres.
Como en lo que sigue nos limitaremos al uso de esta teoría para una medida de la complejidad,
notamos aquí algunos resultados que la hacen filosóficamente muy interesante como resultado
en sí misma. Por un lado, una de las motivaciones que llevó a Solomonoff a la teoría fue el
problema presentado por Carnap de cómo relacionar un conjunto de enunciados a un conjunto
de observaciones y definir la probabilidad correspondiente, una de las caras del viejo problema
de la inducción. Hutter (2005) sostiene que la teoría resuelve efectivamente el problema de la
inducción, además de varias cuestiones filosóficas asociadas.63 Además propone una versión
moderna de la navaja de Ockham. Nos permite especificar el contenido informacional de
cualquier objeto matemático, hasta de un número natural. Adriaans (2007) la utiliza para
construir una teoría del aprendizaje como compresión de datos. Y hasta nos permite dar una
medida del valor predictivo de una teoría. Uno de los problemas con esta teoría en sí es que
63 El programa de Hutter está enmarcado en un programa general de inteligencia artificial, explotando formalmente la teoría de Solomonoff. El punto central consiste en llevar formalmente el problema de la inducción a un problema de predicción de secuencias, en conjunto con una interpretación subjetivista de la probabilidad por lo que el teorema de Bayes se vuelve central. Estimamos que “resolver el problema de la inducción” es un título un tanto propagandístico, más o menos equivalente a decir que el modus ponens en la formalización de la lógica clásica resolvió el problema del razonamiento deductivo.
67
no es computable, aunque puede ser aproximada por un algoritmo del que se desprende la
llamada complejidad de Lempel y Ziv, que es un cociente entre la longitud del programa y la
de la secuencia original. (Lempel y Ziv 1978). Quizás sea la naturaleza técnica de la teoría la
que haya hecho que no sea muy considerada en la literatura filosófica general.
Midiendo la complejidad
Una interesante taxonomía de las distintas definiciones de complejidad que han aparecido en
la literatura es Lloyd (2001). En este pequeño artículo, Lloyd comenta que si bien es cierto
que ha habido una multiplicación en las formas de medir la complejidad, este hecho no debe
ser considerado como indicador de confusión en el campo de los sistemas complejos. La razón
es que detrás de todas esas medidas que surgen en los distintos campos de aplicación, las
preguntas a las que se está intentando responder son las mismas y pueden usarse como una
clasificación de las medidas de este concepto. Las preguntas que él señala, y que nos parece
que constituyen una buena delimitación de la idea, son:
-- ¿Qué tan difícil es describir X?
--¿Qué tan difícil de crear es X?
--¿Cuál es el grado de organización que tiene X?
Vamos a elaborar sobre las que nos parecen más interesantes de la “lista no exhaustiva” que
propone Lloyd. De alguna manera la primera pregunta fue la que guio a las primeras
investigaciones en complejidad: los primeros intentos de una definición apuntaban a responder
esta pregunta y son ejemplos de esta forma de medirla los ejemplos que vimos de la
información de Shannon y de Complejidad de Kolmogorov. Nos detenemos ahora en algunos
casos paradigmáticos de respuestas a las dos preguntas que quedan.
Profundidad lógica
Dentro de las respuestas a la segunda pregunta, la primera que visitamos en la noción de
profundidad lógica elaborada por Charles Bennett en Bennett (1988). Esta noción se distingue
de las nociones de complejidad que antes trabajamos porque intenta dar cuenta de la noción
un poco más intuitiva de que algo que es complejo o profundo tiene una historia de creación
que lo hace así. Por ejemplo, si tomamos un libro de lógica matemática o de teoría de
68
conjuntos, nadie diría que es un libro “simple”. Rehacer todas las pruebas de todos los
teoremas es algo que hasta a un experto le llevaría bastante tiempo; sin embargo, en tanto
todos estos se deducen de un conjunto pequeño de axiomas, la complejidad de Kolmogorov
de dicho libro es baja. Lo que explota la intuición esa de “complejo” es la historia causal que
tienen los objetos, y los que intenta capturar la medida de Bennett. Para hacer explícita esta
historia causal del objeto, Bennett utiliza el lenguaje de la teoría algorítmica de la información
(TAI): para producir un objeto complejo o profundo se requiere, generalmente, un largo
proceso causal. “Generalmente” porque un objeto de esta clase bien podría ser generado por
un proceso causal corto sólo que con probabilidad muy baja. La idea, pues, es lograr una
medida de la plausibilidad de la historia causal que explica a un objeto: ¿por qué es una mejor
explicación del hecho de que encontré un caracol enterrado en la arena la última vez que estuve
en la playa que el mar lo haya traído después que se haya formado de tal y tal manera tanto
tiempo antes que una explicación del tipo: “cuando excavaba en la arena los átomos de ésta
se reconfiguraron y de pronto un caracol”? Para responder a esta pregunta, Bennett usa la
TAI. El programa más corto que genere una secuencia de símbolos que represente al caracol
es a priori la mejor descripción posible del origen del mismo. El caso de la reconfiguración
de los átomos equivaldría a un programa del tipo “Imprimir(Caracol)” que es más o menos
equivalente a decir “¡Hey, acá ocurrió un caracol!” que no nos dice nada acerca de cómo
obtener uno.64
Dice Bennett:
El trabajo plausible involucrado en crear un mensaje, entonces, es la cantidad de trabajo requerido para derivarlo de una causa hipotética, sin involucrar supuestos innecesarios y ad-hoc. Es esta noción de mensaje la que la profundidad [lógica] intenta formalizar.65 (1988, 230)
Dicho sea de paso, la propuesta de Bennett también nos deja medir lo ad-hoc que es una
afirmación en una hipótesis, midiendo la diferencia con el programa mínimo: una
hipótesis/programa que haga uso de cláusulas ad-hoc como afirmación sin derivar
directamente de una explicación más simple que sea n-bits más largo que el programa de la
hipótesis mínima sufre de n-bits de “ajuste ad-hoc”.
64 Cómo hacer uno. Bien se puede obtener uno yendo a la playa. 65 The plausible work involved in creating a message, then, is the amount of work required to derive it from a hypothetical cause involving no unnecessary, ad-hoc assumptions. It is this notion of the message value that depth attempts to formalize.
69
La profundidad lógica puede definirse así:
PL: Una secuencia x es profunda con respecto a b y d si y sólo si d es el mínimo tiempo
necesario para un programa b que es incompresible para que éste imprima a x.
Como vemos, la profundidad lógica de un sistema está también determinada por el tiempo de
ejecución del programa que lo produce. Bennettt usa un lindo ejemplo con los dígitos de pi
para mostrar la diferencia entre objetos que son algorítmicamente complejos y lógicamente
profundos: un programa del tipo Imprimir(Pi) tiene una complejidad algorítmica alta pero en
realidad se ejecuta muy rápido por lo que no es lógicamente profundo como un programa que
compute los dígitos de pi, aunque este sea un programa corto necesitará más tiempo de
ejecución que el anterior por lo que es lógicamente profundo. Más “complejo”, si se acepta
esta forma de medir la complejidad de un objeto matemático.
Quizás uno de los problemas que sufre esta forma de medir complejidad es estar basada en
una teoría que se sabe que no es computable, por lo que en términos prácticos parece hacerla
correr en desventaja. El otro problema que tiene es que sólo mediante la identificación con un
programa que lo genere, esta medida puede decirse que mida la complejidad de un sistema
físico o de un proceso dinámico existentes realmente.
Profundidad termodinámica
La idea de complejidad como profundidad termodinámica fue introducida por Lloyd y Pagels
(1988), y sigue en la línea de la profundidad lógica en tanto la noción básica sigue siendo que
la complejidad está ligada a la dificultad de producir algo: la complejidad de, por ejemplo, dos
especímenes de una misma clase de planta debería ser apenas mayor que la complejidad de
un único espécimen: es fácil lograr copias cuando ya se tiene el objeto pero la dificultad está
en el proceso de conseguir que la planta llegue a ese estado. Comentan que “[la complejidad]
es una propiedad de la evolución de un estado, y no de un estado en sí; desaparece para los
estados ordenados y desordenados, es una cantidad física y universal”.66 (Lloyd y Pagels 1988,
187)
66 [Complexity] is a property of the evolution of a state and not of the state itself, it vanishes for ordered and disordered states, it is a universal, physical quantity
70
Los autores consideran el conjunto de historias o trayectorias que resultan en el objeto bajo
estudio. Una trayectoria está definida como un conjunto ordenado de estados macroscópicos
{ai, bj, ... , ck}. Si lo que queremos estudiar es la complejidad de un estado d, bajo esta
concepción debemos mirar todas las trayectorias que terminan en un estado d y ver sus
probabilidades. Así, la profundidad termodinámica de d está determinada por la probabilidad
de la trayectoria {ai, bj, ... , ck,..., d} por la que se pudo llegar a d. À la Shannon, la PT(d)
queda deteminada por
𝑃𝑃𝑃𝑃(𝑑𝑑) = −𝑘𝑘𝑃𝑃𝑟𝑟(𝑎𝑎𝑖𝑖, 𝑏𝑏𝑗𝑗 , . . . , 𝑐𝑐𝑘𝑘, . . . ,𝑑𝑑)
en donde k es una constante arbitraria. Para el programa de los autores, lo conveniente es
reemplazarla por la constante de Boltzmann para lograr la conexión entre la teoría de la
información y la mecánica estadística. Justamente en esta conexión está la riqueza de la
definición, pero también la mayoría de sus problemas. Uno es precisamente cómo debe
interpretarse a la probabilidad en este caso. Los autores afirman que lo mejor es descartar una
lectura subjetivista de la misma, dada la conexión experimental:
Pese a que la complejidad depende del conjunto de experimentos que determinan cómo un sistema llega a un estado dado, la medida como está definida no es subjetiva: dos físicos diferentes, frente a los mismos datos experimentales, le asignarán la misma complejidad al estado.67 (Lloyd y Pagels 1988, 190)
En realidad, la interpretación de la probabilidad en la definición hereda toda la discusión
acerca del rol de la misma en la física estadística,68 en la que todavía no hay consenso pero
muchos autores proponen una lectura epistémica de la misma. Pero sin duda el mayor
problema con esta forma de medir complejidad es que no mide la complejidad de un objeto
como se propone hacerlo. Esto se debe a que tal y como lo hace la función de la teoría de la
información de Shannon, la profundidad lógica termina midiendo la cantidad de azar creada
por el proceso generativo que termina en el objeto cuya complejidad queríamos medir, al
punto que no puede distinguir sistemas regulares u ordenados de sistemas aleatorios, algo que
cabría esperar de cualquier intento de capturar la noción de complejidad.
67 Although the complexity depends on the set of experiments that determine how a system reaches a given state, the measure as defined is not subjective: two different physicists given the same experimental data will assign the state the same complexity. 68 De hecho los términos que usan provienen de ahí, como trayectoria, espacio de fase, estado macróscópico/microscópico, etc.
71
Complejidad efectiva
El gran físico Murray Gell-Mann, estando ya más cerca del jaguar que del quark, propuso otra
forma de medir la complejidad de una entidad, a la que llamó complejidad efectiva y es
Una medida que corresponde mucho mejor con lo que usualmente se quiere decir con complejidad, tanto en el discurso ordinario como en el científico, se refiere no a la longitud de la descripción más concisa de una entidad (lo que básicamente es el CIA69), sino a la longitud de una descripción concisa de un conjunto de las regularidades de la entidad.70 (Gell-Mann 1995b, 2)
Para poder obtener la complejidad efectiva de un objeto es necesario, entonces, observar la
descripción más corta no ahora del objeto sino de un conjunto en el que el objeto suele estar
incluido. Si bien es cierto que “no puede existir un procedimiento para encontrar el conjunto
de todas las regularidades de una entidad” (Gell-Mann 1995b, 2),71 sí es posible capturar
algunas clases de regularidades y sobre la descripción (usualmente en una secuencia) de éstas,
calcular la complejidad de Kolmogorov y compararlas con la CK del conjunto entero, cuya
CK es la longitud del programa más corto que lista todos los miembros del conjunto y sus
probabilidades. La medida que resulta es la complejidad efectiva del objeto y como está
pensada para medir las regularidades en una secuencia en lugar de la longitud de la descripción
en sí, es una medida del grado de organización del sistema en estudio, no de la dificultad de
creación, como lo eran las medidas que vimos anteriormente. El mismo Gell-Mann sin
embargo sostiene que la profundidad lógica y la complejidad efectiva son cantidades
complementarias. Por ejemplo, la CE de un conjunto de datos puede ser muy alta si no tenemos
acceso al detalle que se puede obtener mediante una computación muy simple como es el caso
del conjunto de Mandelbrot. Para entender este objeto es mejor ver su profundidad lógica que
su complejidad efectiva. De todas formas es en una clase relativamente baja de casos en los
que la aparente complejidad de un objeto se debe a una simplicidad subyacente y a cierta
cantidad de profundidad lógica, y Gell-Mann sostiene que lo intrincado de la naturaleza del
69 Gell-Mann llama Algoritmhic Information Content (AIC, o CIA en español) a lo que nosotros hemos llamado Complejidad de Kolmogorov. 70 A measure that corresponds much better to what is usually meant by complexity in ordinary conversation, as well as in scientific discourse, refers not to the length of the most concise description of an entity (which is roughly what AIC is), but to the length of a concise description of a set of the entity’s regularities. 71 Lo que hace que esta definición sea también no computable.
72
mundo no proviene de esta cantidad sino de la “incesante operación del azar” que él atribuye
a la estructura cuántica de las cosas y a la naturaleza probabilista de la mecánica cuántica. Así,
la complejidad (efectiva, en este caso) del universo mismo no se debe a un algoritmo con
cierta profundidad lógica sino a una serie de “accidentes congelados” que acumulándose en
el tiempo dan lugar a las regularidades que observamos hoy.
Creemos que ésta es la definición de complejidad que empieza a dar la clave, primero por
concentrarse en el grado de relación y segundo por dejar entrever una característica que parece
estar presente en todos los sistemas complejos: la necesidad de una elección. El azar es un
buen mecanismo para lograr que un sistema haga algo distinto, aunque todavía no esté muy
claro que sea la naturaleza cuántica de las cosas la que sea necesaria como fuente del azar.
Incluso en niveles de descripción mucho más “altos” somos capaces de encontrar razones que
hagan que un sistema “elija” algo, como puede ser el caos que estudiamos antes.
Complejidad estadística
Sin ser tan explícitos, en el capítulo anterior sobre caos mencionamos a esta forma de medir
la complejidad, que fue introducida por Crutchfield y Young (1989) para medir la cantidad de
información procesada por un sistema dinámico no lineal, y se enmarca en un framework
teórico conocido como mecánica computacional. El secreto de esta media está en usar una
técnica de reconstrucción de estados causales que da lugar a un modelo mínimo de un sistema,
llamado “máquina épsilon”. A este modelo se puede llegar desde datos empíricos o desde una
descripción probabilística del comportamiento del sistema, resultando en una representación
de los procesos que llevaron a la generación de dicho comportamiento.
Veamos brevemente cómo se realiza el procedimiento y cómo mide la complejidad. Los datos
que se obtienen empíricamente de sucesivas observaciones o que provienen de una descripción
probabilista se traducen en una serie consecutiva de símbolos, que se agrupan en la misma
clase de equivalencia si tienen la misma probabilidad de dar lugar a una dinámica específica
para el sistema. Es decir que si dos secuencias de símbolos (dos historias posibles de la
dinámica) están contenidos en el mismo estado causal, la probabilidad condicional de
cualquier otro símbolo futuro es el mismo para cualquiera de las historias que se consideran.
El concepto de estado causal tiene toda la apariencia humeana que pueda dársele:
73
Queremos que nuestras representaciones de patrones en procesos dinámicos sea causal —poder decir cómo un estado de cosas lleva a o produce otro. Pese a ser una propiedad clave, la causalidad entra en nuestro desarrollo sólo en un sentido extremadamente débil, el más débil que podemos usar matemáticamente, que es el de Hume: una clase de eventos causa otra si la última siempre sigue a la primera; el efecto invariablemente le sucede a la causa. Como buenos indeterministas, en lo que sigue reemplazamos esta noción de sucesión invariante de la causalidad por una más probabilista, poniendo una distribución homogénea de sucesores en el lugar de un sucesor invariable solitario.72 (Crutchfield y Shalizi 2001, 824)
Una vez que estos estados causales han podido ser identificados, es posible reconocer la
probabilidad de la transición entre los estados causales y así calcular la distribución de
probabilidad a largo plazo sobre todos los estados causales. Y es precisamente aquí que se
puede medir la Complejidad Estadística del proceso como:
𝐶𝐶𝐶𝐶 = 𝐻𝐻(𝑆𝑆)
que no es otra cosa que la entropía de Shannon H de la distribución de estados causales S.
Como vemos, la medida es derivada de la máquina épsilon que es un modelo mínimo de la
organización de un proceso, por eso lo que mide es precisamente el grado de organización o
estructura del mismo. Para que un sistema sea complejo bajo esta mirada, debe poseer muchos
estados causales lo que implica que el sistema tiene regularidades. ¿Qué sucede si usamos esta
técnica para medir un proceso al azar? Si usamos la complejidad de Kolmogorov o por
ejemplo la Profundidad Termodinámica para medir una secuencia de símbolos al azar, éstas
resultarían en alta complejidad por, como vimos antes, estar midiendo el azar en la secuencia.
En cambio, la complejidad estadística de una secuencia al azar es cero mientras que es alta
para secuencias que tienen estructura o dependencias estadísticas. Como sostienen Crutchfield
y Shalizi, “cuando usamos la palabra ‘complejidad’ queremos decir grado de patrones, no de
azar” (2001, 824). Una de las ventajas de esta medida que puede ser calculada analíticamente
para algunos modelos matemáticos abstractos como nuestro ya conocido mapa logístico,
72 We want our representations of patterns in dynamical processes to be causal—to say how one state of affairs leads to or produces another. Although a key property, causality enters our development only in an extremely weak sense, the weakest one can use mathematically, which is Hume’s: one class of event causes another if the latter always follows the former; the effect invariably succeeds the cause. As good indeterminists, in the following we replace this invariant-succession notion of causality with a more probabilistic one, substituting a homogeneous distribution of successors for the solitary invariable successor.
74
automata celulares y procesos de Markov, y procesos computacionales existen para algunos
sistemas un poco más complicados como la turbulencia atmosférica, la configuración de las
proteínas y la auto-organización.
Si aceptamos que ésta es una buena definición de complejidad, podemos seguir a Ladyman et
al (2013) en dar una definición cualitativa de sistemas complejos de la siguiente manera:
Def. Sistema Complejo: Un sistema es complejo si puede producir una secuencia de datos
con Complejidad Estadística alta.
Ahora bien, ¿captura esta definición de complejidad las características de los sistemas
complejos? Seguimos a Ladyman y otros en que sí lo hace, al menos parcialmente. Notamos
aquí solamente la conexión entre esta medida y la importante noción de jerarquía en un sistema
complejo. Una estructura jerárquica tiene la capacidad de producir muchas simetrías que son
las que definen a un conjunto de datos como complejo, según Crutchfield y Young (1990).
Estas “simetrías” son una noción generalizada de estructura e interacción y corresponden, por
ejemplo, a las frecuencias bajas y altas que están asociadas con los diferentes niveles de las
jerarquías que describe Simon (1962). (Cf. Ladyman et al 2013)
La complejidad, en resumidas cuentas, expresa el grado en el que los componentes de un
sistema se presentan en interacciones organizadas y estructuradas, aunque algunas de estas
provengan de interacciones desordenadas.
2.4 La necesidad del azar, la necesidad de la complejidad.
En la literatura científica acerca de la complejidad se repite la frase “la complejidad está entre
el orden y el desorden”, frase que suele estar acompañada por un gráfico como el de la figura
siguiente.
75
FIG 8: Los sistemas complejos están entre el orden y el desorden. (De Huberman y Hogg 1986, 377)
En nuestra discusión anterior hemos visto cómo una de las mejores definiciones de
complejidad, la de complejidad estadística, da cuenta de esta idea intuitiva, cosa que no hacían
las definiciones que “confundían” complejidad con desorden/aleatoriedad. La pregunta que
pretendemos responder ahora es la que de alguna manera estuvo guiando nuestra investigación
desde el principio: ¿por qué la complejidad necesariamente juega un juego de azar? ¿Por qué
la aleatoriedad es mencionada por todos como fundamental para la complejidad? Creemos que
la respuesta es que es la única manera en la que un universo y las cosas en él pueden cambiar.
El problema es que si todo cambia todo el tiempo, nada queda. Esto no es más que el viejo
debate filosófico entre Parménides y Heráclito, puesto en términos más matemáticos y al que
ahora podemos ver en una dimensión mucho mayor.
En esencia, el azar es necesario para lograr entidades complejas y para que puedan mantenerse,
para que las mismas interacciones sean lo suficientemente estables para dar lugar a
interacciones, y para que las mismas interacciones puedan darse. Hay un bucle extraño y
complejo entre orden, desorden y organización. El azar es justamente lo que permite que los
sistemas físicos posean una fuente de variabilidad sobre los que ejercer una búsqueda de
estructuras estables, en un proceso continuo que básicamente es una pelea contra la segunda
ley de la termodinámica. Los sistemas complejos, pues, nunca son estáticos sino que requieren
de algo que los haga mantener su complejidad y lo que lo logra es la posibilidad de un balance
entre interacciones de distintos niveles, interacciones que son posibles gracias al azar. Una
estructura estable está completamente ordenada, no hay posibilidad de cambios salvo por
alguna fuerza externa que la saque de ese estado. Un proceso completamente desordenado no
76
puede producir nada interesante. La interacción entre estos dos opuestos da lugar a la
complejidad, y el azar la mantiene. 73
Para ponerlo en términos un poco más analíticos, el azar es una forma de cambiar las
condiciones iniciales de un sistema, desde el sistema mismo: cumple el rol de sondear las
diferentes potencialidades de un sistema al permitir interacciones que, en ausencia de
variabilidad sólo podrían haberse dado con muy alta improbabilidad.74 Esto es lo que
queríamos decir cuando más arriba mencionamos que en los sistemas complejos hay siempre
una elección.
2.5 Caos, azar, incomputabilidad, complejidad.
Desde un lado un poco más especulativo y filosófico, el fenómeno de caos nos permite mostrar
que conceptos en principio tan dispares como el de azar, el de computabilidad y el de
complejidad están ligados.
Caos y azar
Hasta el descubrimiento del caos, azar y determinismo eran comportamientos que se creían
completamente opuestos. De alguna manera, ahora el caos nos fuerza a verlos como
complementarios, de la misma manera en la que nos obliga a ver que las descripciones
probabilistas de un sistema son complementarias a la descripción determinista del mismo. Una
de las razones por la que esto es así es porque desde el punto de vista del observador, un
proceso caótico determinista puede ser completamente equivalente a arrojar una moneda. Esta
dualidad también está presente en los sistemas complejos.
Intentemos mostrar ahora cómo un proceso caótico efectivamente da lugar al azar, el mismo
de arrojar una moneda. Existe un mapa unidimensional muy simple que se llama el “mapa de
la carpa” [tent map] por cómo queda representado cuando se lo grafica, y está definido como
xn + 1= 2xn para valores de xn mayores que 0 y menores a ½ y como 2(1-xn) para valores de xn
iguales o mayores a ½ y menores a 1. Este mapa es matemáticamente equivalente a nuestro
mapa logístico con r=4, por lo que también presenta un comportamiento caótico cuando las
73 Esta es nuestra interpretación de la visión de Morin (1977) 74 Uno nunca debería descartarla posibilidad de un meteorito. Aunque eso es azar, de nuevo. Desde fuera del sistema, sí, pero dentro de otro sistema complejo más grande.
77
condiciones iniciales son números irracionales.75 Como sabemos que los números irracionales
son muchos más que los números racionales, si tomamos un número al azar del intervalo [0,1]
bajo una distribución uniforme, lo más probable es que obtengamos un número irracional. Si
a esto le sumamos que por una simple convención podemos fijar que si el valor siguiente del
mapa es mayor a ½ es “cara” y si es menor “número”, estamos frente algo realmente
indistinguible de lo que podríamos llamar “azar verdadero” y que sin embargo es aleatorio, lo
que pone en jaque la tesis intuitiva de que un comportamiento aleatorio necesariamente
implique la presencia de algo indeterminado.
Como también hemos visto que caos es un fenómeno que aparece en sistemas físicos, en
principio podemos decir que esta “peculiar” aleatoriedad no es sólo producto de la
representación matemática que usamos, lo que hace al caos a una fuente de azar para los
sistemas complejos.
Azar e (in)computabilidad
No nos hemos concentrado en la noción de computabilidad en este trabajo y queremos hacer
ahora algunas conexiones entre esta noción y la de azar. De hecho creemos que es sólo
mediante la computabilidad que podemos atacar matemáticamente al azar, que antes sólo
había sido atacado en términos de la teoría de la probabilidad.76 No sólo esto, el azar nos dice
algo acerca de los límites que nuestro conocimiento matemático puede tener. La teoría
algorítmica de la información, creemos, es una de las mejores herramientas matemáticas para
ver las conexiones entre estos dos aspectos. Ya vimos que la manera de estudiar un objeto que
tiene esta teoría es mediante su representación en secuencias de bits y que los objetos más
simples en cuanto se pueden comprimir. Los objetos incompresibles son efectivamente
azarosos porque no poseen una descripción más corta posible. Algunos números irracionales
son computables, en el sentido en que existe un programa que nos da sus dígitos, pero la
mayoría de ellos son incomputables. ¿Cómo se relaciona todo esto? Volvamos a nuestro
modelo matemático con el que empezamos todo: el mapa logístico (o el matemáticamente
75 Este mapa también es interesante de estudiar porque su dinámica se puede comprender viendo la expansión binaria de las condiciones iniciales, detalles que omitimos por el momento. Obviamos también la prueba de la equivalencia entre los dos mapas, ya bastante nos hemos aprovechado de los lectores con el formalismo matemático. 76 La teoría de la probabilidad nos permite hablar de las leyes matemáticas que rigen a los eventos fortuitos pero en ello asume al azar, no lo define.
78
equivalente que vimos recién). Si el estado inicial del mapa logístico es un número
computable, sabemos que existe un programa que puede caracterizar cualquier posible estado
futuro del sistema. Esto no sería posible si el estado inicial del sistema hubiera sido un número
no computable. La pregunta por el caos en un sistema bien puede hacerse en términos de la
computabilidad del estado inicial.
Si esto ya parece darnos un límite insuperable en nuestra capacidad de conocer acerca del
mundo usando la matemática y la computación, veamos ahora un límite más fuerte que
proviene de pensar con la misma teoría y son los resultados de Gregory Chaitin, expandiendo
los resultados de Gödel sobre incompletud y de Turing sobre computabilidad. La idea
principal de la postura de Chaitin es que si bien es cierto que hay más números azarosos o
algorítmicamente indescriptibles que números que no son de esta forma, no podemos
distinguir entre ellos. Chaitin prueba que cualquier programa que tenga por función encontrar
patrones en una secuencia de datos (es decir que los datos son comprimibles), siempre va a
existir alguna secuencia de datos comprimible para la que ese programa no va a poder
encontrar un patrón del que pueda surgir. Un programa no puede reconocer un patrón más
complicado que el mismo.
Si aceptamos la tesis de que uno de los objetivos de la ciencia es hacer modelos que sean más
sencillos que los fenómenos que quiere explicar, estos resultados ponen un límite máximo a
la empresa científica. Límites que afectan tanto a los científicos, como a los matemáticos el
resultado de Gödel, pero que da para pensar a los filósofos que les gusta visitar los límites.
De vuelta al caos
La computación es un fenómeno independiente del hardware sobre la que corre y existen
muchos modelos de máquinas que computan. Algunos de estos modelos son físicos, como el
modelo del billar de Fredkin y Toffoli (1982) que es capaz de computación universal
emulando de una manera muy básica el comportamiento de un circuito digital con bolas de
billar idealizadas.77 Lo interesante de éste y muchos otros modelos de computación basados
77 La motivación de este modelo era estudiar la relación entre la computación y los procesos reversibles. Por razones espacio-temporales nuestro tratamiento de la irreversibilidad, un tema hermoso y complejo que también se ve afectada por el estudio de los sistemas complejos, tuvo que verse limitada a alguna que otra mención de la entropía. Aprovechamos la mención a la irreversibilidad para tan solo nombrar otra aproximación a la complejidad que no hemos considerado en este trabajo que es el programa originado por Prigogine. Su particular forma de acercarse a los sistemas físicos da una noción de complejidad que según se ha dicho puede adaptarse para múltiples propósitos. La idea general del programa es acercarse a sistemas físicos fuera de equilibrio de una
79
en sistemas dinámicos es que si el modelo es capaz de realizar computación universal, al
menos una parte del sistema dinámico posee una dinámica caótica. La relación parece estar
dada por la estructura recursiva que tienen tanto los sistemas dinámicos y la computación en
sí. Existe otro aspecto también que nos deja conectar metodológicamente a las dos teorías:
sabemos que hay problemas sobre la dinámica de un sistema que son a priori inaccesibles por
ser computacionalmente intratables.
Nuestro intento de comprender a la naturaleza nos llevó a descubrir que el caos y la
complejidad parecen ser intrínsecos a muchos de los sistemas que son interesantes estudiar
porque se encuentran en la misma escala espacio-temporal que su observador. Nosotros
mismos somos sistemas complejos, y hay caos operando en nosotros. Los sistemas naturales
tienden a estar entre el orden y el caos y entre la predictibilidad y la impredictibilidad, y por
sobre todas las cosas logran un balance entre las dos, y eso les deja ser.78 Recién ahora estamos
aprendiendo cómo es que lo logran, recién ahora estamos aprendiendo entendernos a nosotros
mismos. Intentar resolver estos problemas, en especial el de cómo pudo haber surgido la vida,
va a tener que recurrir a las nociones de caos, de complejidad y, probablemente, de
computabilidad.
manera conjunta y probabilista, en los que las entidades importantes no son las partículas individuales y sus trayectorias sino que lo son las distribuciones de las partículas y estas distribuciones están descriptas por ecuaciones que son irreversibles con respecto al tiempo. Este enfoque deja abierta la posibilidad de ver a sistemas macroscópicos como ontológicamente indeterminados: un indeterminismo que no hace referencia a nuestro acceso epistémico sobre el mismo. Las probabilidades se vuelven, en esta forma de ver las cosas, ontológicamente parte del mundo macroscópico. El principal problema al que se enfrenta este enfoque es justamente el de dar cuenta de la base física de ese indeterminismo. 78 Y como dice Crutchfield: “El resultado es un incremento en la complejidad estructural. Esto suele aparecer como un cambio en la capacidad interna del sistema de realizar computaciones.” (2012, 23)
80
Conclusiones
¿Cómo no se comprendió que el orden puro es la peor locura que existe, la de la abstracción, y la peor de todas las muertes, la que nunca conoció la vida?
Edgar Morin (1977)
El impacto del estudio de los sistemas complejos es una innovación reciente y activa, de vital
importancia para la ciencia en general. Si no fuera por los modelos y métodos de sistemas
complejos, muchas de las disciplinas más importantes de la actualidad no existirían. Entre
ellas podemos mencionar a la biología sintética y de sistemas, los modelos climáticos, la
ingeniería de control, ingeniería de tráfico, la astrofísica y la neurofisiología. Conceptos como
el de auto-organización, el de emergencia y el mismo de complejidad han sido puestos de
nuevo en escena y han demostrado ser epistemológicamente fructíferos.
Los sistemas complejos impactan en casi todos los aspectos de las ciencias (y no sólo se trata
de las llamadas ciencias duras; las humanidades y las ciencias sociales también se han visto
afectadas): el tratamiento y la definición de lo que es un error, el diseño experimental, el
manejo de datos en las cada vez más grandes bases de datos; y en conceptos claves del orden
científico tales como interacción, equilibrio, transición, predicción, dinámica y explicación,
por mencionar algunos.
Creemos que esta ubicuidad se debe a lo fácil que es encontrar a la complejidad en todos los
aspectos de la vida, en todas las escalas que se nos ocurra. Desde los complicados patrones de
las nubes, hasta la estructura simétrica de los copos de nieve. Desde la célula hasta las galaxias
en espiral. Esta complejidad de las cosas proviene, en última instancia, de las leyes de la
naturaleza y las condiciones iniciales, a través de una muy larga secuencia de procesos físicos.
Queremos saber cómo es que se dio todo esto y creemos que el estudio de los sistemas
complejos puede aportarnos tanto, o quizás más, que el estudio de la física elemental.79
79 De hecho intuimos que una descripción “desde la complejidad” puede ser la vía media entre el orden de la mecánica newtoniana y el desorden la mecánica cuántica.
81
Por nuestra parte, hemos iniciado esta investigación en la naturaleza y filosofía de los sistemas
complejos empezando por los sistemas complejos más “simples”, los llamados sistemas
caóticos. Hemos visto las dificultades que existen para definir al fenómeno, aunque
terminamos llegando a una serie de condiciones al menos necesarias para decir que un sistema
es caótico. También pudimos apreciar como el caos aparece en modelos muy simples,
mientras que vimos cómo y qué significa en primera instancia trabajar con esta clase de
modelos. La facilidad con la que el caos aparece en estos modelos no lineales hace sospechar
que el fenómeno aparezca con la misma facilidad en la naturaleza y creemos que es así, y nos
embarcamos en intentar demostrar que el caos es un fenómeno real de la naturaleza y no una
mer constructo matemático o una dinámica que surge por los errores intrínsecos de nuestros
modelos. Desde un punto de vista epistémico, hemos aprendido dos cosas fundamentales. Por
un lado la ventaja que puede traer hacer una distinción entre los estados ónticos de un sistema
y los estados epistémicos de quienes hablan acerca de ese sistema, dejando al determinismo
de un sistema del lado de los primeros y a nuestra incapacidad para determinarlo del lado de
los últimos. Y quizás más fundamentalmente, hemos visto cómo hasta en un sistema
determinista una aproximación probabilística al mismo no sólo nos permite predecir mejor el
sistema en muchos casos sino que también nos revela una faceta escondida del mismo, lo que
plantea una especie de naturaleza dual en estos sistemas. La probabilidad es mucho más
invasiva de lo que podía parecer al principio. El recorrido histórico por la teoría del caos nos
dejó ver un caso en el que un descubrimiento matemático quedó mucho tiempo sin producir
todos sus frutos por la falta de un método sistemático para explorar algunos sistemas: las
simulaciones numéricas. Hoy en día la ciencia es muy distinta gracias al mismo y el estudio
de los sistemas complejos sería impensable sin éste.
Tras estudiar en relativa profundidad el concepto de caos, pasamos a los sistemas complejos
en sí, deteniéndonos primeramente en la noción de sistema tal y como había sido concebida
por la Teoría General de los Sistemas. A este movimiento y al de la Cibernética de Wiener, la
ciencia de sistemas complejo le debe mucho. Luego aprendimos algunas de las características
principales de estos sistemas y vimos cómo su estudio nos hace revisitar nociones filosóficas
de importancia. Por otro lado también nos hace ver cómo conceptos que provienen de
disciplinas como la ciencia de la computación empiezan a tomar el lugar que les corresponde
en las ciencias físicas, en las que la preocupación por el procesamiento físico de la información
y la física como procesamiento de información es cada vez mayor. De esta primera
confluencia de ideas surgen las primeras medidas de complejidad en los sistemas. De estas
82
formas cuantitativas de explorarla hemos visto las más importante, incluyendo los resultados
básicos de la teoría de la información de Shannon y el de complejidad algorítmica de
Kolmogorov. Exploramos las limitaciones de estas y otras y encontramos que una de las
mejores definiciones disponibles en la actualidad corresponde a la de complejidad estadística,
noción que recurre naturalmente a ver a los sistemas en términos de modelos computacionales,
dentro de un marco teórico mayor que es la mecánica computacional. Curiosamente esta
definición nos lleva a una visión probabilística de los sistemas, tal y como el caos lo hizo al
principio. Luego empezamos a especular acerca de por qué las definiciones le asignan un rol
tan importante a la noción de azar, y concluimos que esto se debe a que, de manera tal de
poder crear estructuras intermedias y mantenerlas, en los sistemas complejos debe operar una
función de búsqueda que requiere cierta variabilidad, y es en el azar en donde es más fácil
para la naturaleza encontrar esta variabilidad. Algo parecido sucede en muchos niveles de
descripción de la naturaleza, baste sólo mencionar aquí a la teoría de la selección natural de
Darwin. Una de las conexiones entre complejidad y caos está justamente aquí: el caos es una
fuente de azar de muy fácil acceso para los sistemas complejos y luego mostramos brevemente
cómo el caos es exactamente tan azaroso como el modelo clásico de azar: arrojar una moneda.
Terminamos aprendiendo algo acerca de la conexión entre el caos y la computabilidad, que
nos lleva a afirmar, otra vez, la conexión que parece haber entre las teorías de la física y la
ciencia de la computación.
Debemos decir algo aquí de todo lo que quedó fuera de este trabajo. Muchísimas
implicaciones epistemológicas de los sistemas complejos no han sido siquiera mencionadas,
por requerir ellas mismas una investigación semejante como la que hemos hecho con, por
decir, el determinismo en los sistemas caóticos. Los sistemas complejos han hecho que
nociones clásicas como la causalidad, la explicación, las leyes de la naturaleza, la emergencia,
el realismo y muchas otras deban ser revisados y reajustados a la luz de la nueva evidencia
científica proveniente de estos campos. Es de destacar la importancia de la noción de modelo
en esta ciencia y si bien aquí hemos tocado el tema, apenas hemos empezado a perforar la
cáscara de la manzana. Algunas definiciones todavía más técnicas de caos que las que hemos
presentado aquí han tenido que ser dejadas de lado y en particular se notará la ausencia de la
noción de fractal en nuestra discusión. Esta ha sido dejada de lado adrede y también será objeto
de investigaciones futuras. Si bien ya sabíamos antes de empezar la investigación que el
campo era enorme, resultó ser mucho más grande y complejo de lo que parecía, incluso
teniendo la posibilidad de estar sobre hombros de gigantes.
83
Aunque el caos siempre tuvo connotaciones negativas, hoy sabemos que la vida no es posible
sin el mismo. Que el orden absoluto no puede sostenernos. Curiosamente ya algunos griegos,
que tanto amaban el ordenado mundo del cosmos, veían a Caos como un dios primordial. La
tierra y el amor son sus frutos, igual que la muerte y la noche. La fuente del azar que sostiene
todo. Especialmente, la complejidad de la vida.
Vamos y venimos entre niveles de análisis, hacemos modelos de lo pequeño y de lo grande, y
así intentamos buscar el orden de las cosas, y preguntarnos por nosotros mismos. Creemos
que la mejor descripción de esto es la que dio Vladimir Nabokov y nos parece oportuno
terminar con ella.80
Hay, al parecer, en la escala dimensional del mundo, una especie de delicado lugar de encuentro entre la imaginación y el conocimiento, un punto al que se llega achicando las cosas grandes y agrandando las pequeñas, que es intrínsecamente artístico.
Vladimir Nabokov
80 Aclarando, claro, que hemos resistido la tentación de cambiar “artístico” por “científico”. No sólo por respeto a Nabokov, sino porque en ese cambio hay toda otra tesina posible; si es que no, otra vida.
84
Referencias bibliográficas Abarbanel, H. (1996). Analysis of observed chaotic data. Springer. Adriaans, P. (2007). Learning as data compression. In Computation and Logic in the Real World
(pp. 11–24). Springer. Adriaans, P. (2012). Information. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy
(Fall 2013). Aihara, K. (2008). Chaos in neurons. Scholarpedia, 3(5), 1786.
Andronov, A. A. (1971). Theory of bifurcations of dynamic systems on a plane (Vol. 554). Israel Program for Scientific Translations;[available from the US Dept. of Commerce, National Technical Information Service, Springfield, Va.].
Andronov, A. A. (1973). Qualitative theory of second-order dynamic systems (Vol. 22054). Halsted Press.
Andronov, A. A., & Pontryagin, L. (1937). Systemes grossiers. In Dokl. Akad. Nauk. SSSR (Vol. 14, pp. 247–250).
Anosov, D. V. (1967). Geodesic flows on closed Riemannian manifolds of negative curvature. Trudy Matematicheskogo Instituta Im. VA Steklova, 90, 3–210.
Atmanspacher, H. (2002). Determinism Is Ontic, Determinability Is Epistemic. En Atmanspacher y Bishop 2002.
Atmanspacher, H., & Bishop, R. (2002). Between Chance and Choice: Interdisciplinry Perspectives on Determinism. Andrews UK Limited.
Aubin, D., & Dalmedico, A. D. (2002). Writing the history of dynamical systems and chaos: longue durée and revolution, disciplines and cultures. Historia Mathematica, 29(3), 273–339.
Batterman, R. W. (1993). Defining chaos. Philosophy of Science 60 (1), 43–66. Bendixson, I. (1901). Sur les courbes définies par des équations différentielles. Acta Mathematica,
24(1), 1–88. Bennett, CH. (1988). Logical depth and physical complexity. En Herken, R, The Universal Turing
Machine, a Half-Century Survey. Oxford Univ. Press. Birkhoff, G. D. (1932). Sur quelques courbes fermées remarquables. Bulletin de La Société
Mathématique de France, 60, 1–26. Birknoff, G. D. (1927). Dynamical systems. In American Mathematical Society Colloquium
Publications. Bishop, R. C. (2001), “Chaos, Indeterminism, and Free Will”, en R. Kane (ed.), The Oxford
Handbook of Free Will. Oxford: Oxford University Press, pp. 111–124. Bishop, R. C. (2005). Anvil or onion? Determinism as a layered concept. Erkenntnis, 63(1), 55–
71. Bishop, R. C. (2006). Determinism and Indeterminism. In Encyclopedia of Philosophy (pp. 29–
35). Bishop, R. C. (2008). Chaos. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy (Fall
2009). Bishop, R. C. (2009). Epistemological Issues in Complex Systems. En Hooker 2009. Bowen, R. (1978). On axiom A diffeomorphisms:[expository lectures from the CBMS regional
conference held at North Dakota State University, June 20-24, 1977]. American Math. Soc.
85
Campbell, L., & Garnett, W. (1882). The Life of James Clerk Maxwell. Macmillan and Co., London, 1884.
Cartwright, M. L., & Littlewood, J. E. (1945). On Non-Linear Differential Equations of the Second Order: I. the Equation- k (1-y2)+ y= bλk cos (λl+ α), k Large. Journal of the London Mathematical Society, 1(3), 180–189.
Chomsky, N. (1957). Syntactic Structures. Mouton & Co. Crutchfield, J. P. (2012). Between order and chaos. Nature Physics, 8(1), 17–24. Crutchfield, J., Farmer, J., Packard, N., & Shaw, R. (1986). Chaos. Scientific American, 254(12),
45–57. Crutchfield, J. P., & Young, K. (1989). Inferring statistical complexity. Physical Review Letters,
63(2), 105. Crutchfield, J. P., Shalizi, C. R. (2001). Computational mechanics: Pattern and prediction, structure
and simplicity. Journal of Statistical Physics, 104(3-4), 817–879. Dreteske, F. (1982). Knowledge and the Flow of Information. MIT Press. Earman, J. (1986). A primer on determinism (Vol. 37). Springer. Flake, G. W. (1998). The Computational Beauty of Nature: Computer Explorations of Fractals,
Chaos, Complex Systems, and Adaptation. MIT Press. Ford, J. (1989). What is chaos, that we should be mindful of it. In Davies, P (Ed.), The New Physics. Fredkin, E., & Toffoli, T. (1982). Conservative logic. International Journal of Theoretical Physics,
21(3), 219–253. Gell-Mann, M. (1995a). The Quark and the Jaguar: Adventures in the Simple and the Complex
(ILL). St. Martin’s Griffin. Gell-Mann, M. (1995b). What is complexity? Remarks on simplicity and complexity by the Nobel
Prize-winning author of The Quark and the Jaguar. Complexity, 1(1), 16–19. Gleick, J. (1987). Chaos: Making a new science. Random House. Gleick, J. (2011). The Information: A History, a Theory, a Flood. Pantheon Books. Hadamard, J. (1898). Les surfaces à courbures opposées et leurs lignes géodésique. J. Math. Pures
Appl., 4, 27–73. Hammel, S. M., Yorke, J. A., & Grebogi, C. (1987). Do numerical orbits of chaotic dynamical
processes represent true orbits? Journal of Complexity, 3(2), 136–145. Holmes, P. (2005). Ninety plus thirty years of nonlinear dynamics: Less is more and more is
different. International Journal of Bifurcation and Chaos, 15(09), 2703–2716. Hooker, C. (2011b). (Ed). Philosophy of Complex Systems. Handbook of the Philosophy of
Science. Vol 10. Elsevier. Hooker, C. (2011a). Introduction to Philosophy of Complex Systems: A: Part A: Towards a
framework for complex systems. En Hooker (2011b). Huberman, B. A., & Hogg, T. (1986). Complexity and adaptation. Physica D: Nonlinear
Phenomena, 22(1), 376–384. Hutter, M., 2005, Universal Artificial Intelligence: Sequential Decisions based on Algorithmic
Probability, EATCS Book, Berlin: Springer. Kaneko, K., & Tsuda, I. (2000). Complex Systems: Chaos and Beyond: A Constructive Approach
With Applications in Life Sciences. Springer Science & Business Media. Kellert, S. H. (1993). In the wake of chaos: Unpredictable order in dynamical systems. University
of Chicago press.
86
Koperski, J. (1998). Models, confirmation, and chaos. Philosophy of Science, 624–648. Kostelich, E. J., Kan, I., Grebogi, C., Ott, E., & Yorke, J. A. (1997). Unstable dimension variability:
A source of nonhyperbolicity in chaotic systems. Physica D: Nonlinear Phenomena, 109(1), 81–90.
Ladyman, J., Lambert, J., & Wiesner, K. (2013). What is a complex system? European Journal for Philosophy of Science, 3(1), 33–67.
Lai, Y.-C., Grebogi, C., Yorke, J. A., & Kan, I. (1993). How often are chaotic saddles nonhyperbolic? Nonlinearity, 6(5), 779.
Laplace, P.-S. [1812] (1995). Pierre-Simon Laplace Philosophical Essay on Probabilities (Vol. 13). Springer Science & Business Media.
Lloyd, S. (2001). Measures of complexity: a nonexhaustive list. IEEE Control Systems Magazine, 21(4), 7–8.
Lloyd, S., Pagels, H. (1988). Complexity as thermodynamic depth. Annals of Physics, 188(1), 186–213.
Lorenz, E. N. (1963). Deterministic nonperiodic flow. Journal of the Atmospheric Sciences, 20(2), 130–141.
May, R. M. (1976). Simple mathematical models with very complicated dynamics. Nature, 261(5560), 459–467.
Morin, E. (1977). La Nature de la nature. Le Seuil, Nouvelle édition, coll. Points. Nicolis, G., & Gaspard, P. (1994). Toward a probabilistic approach to complex systems. Chaos,
Solitons & Fractals, 4(1), 41–57. Parker, W. S. (2013). Ensemble modeling, uncertainty and robust predictions. Wiley
Interdisciplinary Reviews: Climate Change, 4(3), 213–223. Poincaré, H. (1890). Sur le probleme des trois corps et les équations de la dynamique. Acta
Mathematica, 13(1), A3–A270. Poincaré, H. (1908). The foundations of science. Popper, K. R. (1988). The open universe: An argument for indeterminism. Routledge. Roulstone, I., & Norbury, J. (2013). Invisible in the Storm: The Role of Mathematics in
Understanding Weather. Princeton University Press. Rouvas-Nicolis, C., & Nicolis, G. (2009). Butterfly effect. Scholarpedia, 4(5), 1720.
doi:10.4249/scholarpedia.1720 Russell, B. (1953). On The Notion Of Cause, With Applications To The Free-Will Problem. In Our
Knowledge of External World. Scheibe, E. (1964). The logical analysis of quantum mechanics. Pergamon Press. Shannon, C. E. (1948). Bell System Tech. J. 27 (1948) 379; CE Shannon. Bell System Tech. J, 27,
623. Shannon, C. E., & Weaver, W. (1949). The Mathematical Theory of Communication. University
of Illinois Press. Shub, M. (2005). Communications-WHAT IS... a Horseshoe?. Notices of the American
Mathematical Society, 52(5), 516-517. Simon, H. (1962). The Architecture of Complexity. Proceedings of the American Philosophical
Society, 106, 467–482. Smale, S. (1967). Differentiable dynamical systems. Bulletin of the American Mathematical
Society, 73(6), 747–817.
87
Smale, S. (1998a). Finding a horseshoe on the beaches of Rio. The Mathematical Intelligencer, 20(1), 39–44.
Smale, S. (1998b). Mathematical problems for the next century. The Mathematical Intelligencer, 20(2), 7–15.
Smith, L. (2007). Chaos: a very short introduction. Oxford University Press. Smith, P. (1998). Explaining Chaos. Cambridge University Press. Stone, M. A. (1989). Chaos, prediction and Laplacean determinism. American Philosophical
Quarterly, 123–131. Thompson, J. M. T., & Stewart, H. B. (2002). Nonlinear dynamics and chaos. John Wiley & Sons. Tucker, W. (2002). A rigorous ODE solver and Smale’s 14th problem. Foundations of
Computational Mathematics, 2(1), 53–117. Van der Pol, B., & Van der Mark, J. (1927). Frequency demultiplication. Nature, 120, 363–364. Verhulst, P. F. (1845). La Loi d’Accroissement de la Population. Nouv. Mem. Acad. Roy. Soc.
Belle-Lettr. Bruxelles, 18, 1. Von Bertalanffy, L. (1956). General system theory. General Systems, 1(1), 11–17. Von Bertalanffy, L. (1968). General system theory: Foundations, development, applications (Vol.
55). Vulpiani, A., & Livi, R. (2003). The Kolmogorov legacy in physics. Springer Science & Business
Media. Whitehead, A. N. (1925). Science and the modem world. Cambridge: Cambridge at the University. Ziv, J., & Lempel, A. (1978). Compression of individual sequences via variable-rate coding.
Information Theory, IEEE Transactions on, 24(5), 530–536.
88