mÁs cerca del jaguar que del quark: (algunas) implicaciones filosÓficas de ciertos sistemas...

88
MÁS CERCA DEL JAGUAR QUE DEL QUARK: (ALGUNAS) IMPLICACIONES FILOSÓFICAS DE CIERTOS SISTEMAS COMPLEJOS Trabajo Final de la Licenciatura en Filosofía Universidad Nacional de Córdoba Facultad de Filosofía y Humanidades Escuela de Filosofía Alumno: Andrés A. Ilcic Director: Prof. Víctor R. Rodríguez

Upload: cordoba

Post on 23-Nov-2023

0 views

Category:

Documents


0 download

TRANSCRIPT

MÁS CERCA DEL JAGUAR QUE DEL QUARK: (ALGUNAS) IMPLICACIONES FILOSÓFICAS DE CIERTOS SISTEMAS COMPLEJOS

Trabajo Final de la Licenciatura en Filosofía

Universidad Nacional de Córdoba

Facultad de Filosofía y Humanidades

Escuela de Filosofía

Alumno: Andrés A. Ilcic

Director: Prof. Víctor R. Rodríguez

We shall not cease from exploration and the end of all our exploring will be to

arrive where we started and know the place for the

first time.

TS Eliot

al inagotable fondo de inversión multidisciplinar del Sr. y la Sra. Ilcic, sin cuya ayuda nada de esto y mucho otro hubiese sido posible.

MÁS CERCA DEL JAGUAR QUE DEL QUARK

A map of the world has everything to do

with the cactus by the window.

The world of the quark has everything to do

with a jaguar circling in the night.

“The Leaves of a Dream are the Leaves of an Onion”

Arthur Tse

It can scarcely be denied that the supreme goal

of all theory is to make the irreducible basic

elements as simple and as few as possible

without having to surrender the adequate

representation of a single datum of experience.

Albert Einstein

La ciencia es una historia del orden. Del orden del mundo y el orden de las cosas. Y es hasta

un intento de imponer orden donde en principio no hay ninguno, donde el ruido no deja lugar

a otra cosa. Una búsqueda de patrones y causas y simetrías y causas y patrones. De lo que no

cambia, o casi nada. ¿Puede existir, entonces, una ciencia que busque describir el ruido? Qué

clase de ciencia es la que incorpora lo que queda fuera en las otras?

En principio son nuestras limitaciones como agentes cognoscentes que hacen que la naturaleza

parezca ruidosa, impredecible y hasta complicada. La muestra de nuestros límites está por

todos lados. La mecánica cuántica, sin entrar en las discusiones acerca de qué tan objetiva

puede ser una medición de un sistema cuántico, pone un límite empírico a nuestra capacidad

de conocer simultáneamente dos aspectos constituyentes del mundo. Kurt Gödel nos mostró

otra clase de límites demostrando que si queremos derivar todas las verdades de un sistema

formal nos vemos obligados a olvidarnos de la consistencia lógica, incluso en un sistema

formal tan simple como el de la aritmética. Poco tiempo después Alan Turing puso otro límite

a nuestra capacidad de crear respuestas sobre un sistema formal. Y si Gregory Chaitin está en

lo cierto, existe un elemento de azar en la misma matemática que de alguna manera limita su

efectividad. Sin embargo, encontramos patrones. Dentro de nuestras limitaciones hacemos lo

mejor que podemos para entender el mundo.

¿Cómo entendemos el mundo? Reduciendo la complejidad de lo que llega a nuestros sentidos

y encontrando patrones, encontrando vestigios de simplicidad en lo complicado que parece

5

todo. Creemos que el peso de la ciencia, como macroactividad, pasa por este ejercicio de

simplificación para poder entender y que la manera de hacerlo es haciendo modelos. La tarea

de un modelo es simplificar, es decir comprimir, nuestros datos en una descripción que esté al

alcance de nuestros límites. La ciencia, entonces, busca explicar fenómenos produciendo

modelos que sean más pequeños que los datos.

La simplicidad y la simetría siempre fueron guías en la búsqueda de los patrones del mundo,

sin embargo hay lugares en los que el mundo es algo completamente diferente: hay ruptura de

simetrías, hay transiciones de fase, hay caos. Hace relativamente poco que hemos encontrado

la manera de atacar estos problemas científicos, haciendo predecibles sistemas que antes no

lo eran. Pero también hemos encontrado que los límites de nuestro conocimiento están más

cerca de lo que pensábamos en muchos casos. Dios no sólo juega a los dados y los tira donde

no podemos verlos: ¡los dados están cargados! Es nuestra tarea descubrir cómo y por qué. La

física se encarga de lo primero, la filosofía del cómo del cómo de la física y del por qué.

Lo que pretendemos hacer en este trabajo es empezar explorar estas ciencias “de la tierra

media”, de lo que está entre lo grande y lo chico aunque de una manera filosófica y por si eso

fuera poco, completamente sesgada por una motivación particular, que es la de entender cómo

se relacionan la física y la lógica, en el sentido más profundo de la cuestión. El estudio de los

sistemas complejos lleva casi naturalmente a hacerse esta pregunta y, a nuestro entender,

aporta nuevas formas de intentar respuestas además de hacerse eco de los intentos de respuesta

que ya habían dado otras disciplinas. El lector sólo encontrará el sesgo en este trabajo, un

intento de articulación de estas nociones vendrá mucho más adelante, si es que se juzga

posible. Mientras tanto, veremos que el mundo del jaguar tiene todo que ver con el mundo del

quark, sin hablar de quarks ni de jaguares, claramente. A ésos se los dejamos a Gell-Mann

(1995a).

6

Science has explored the microcosmos and the macrocosmos; we have a good sense of the lay of the land. The great unexplored frontier is complexity.

Heinz Pagels, The Dreams of Reason I think the next century will be the century of complexity

Stephen W. Hawking

Introducción

Es difícil decir cuándo exactamente comienza una ciencia, y más difícil todavía cuando la

ciencia en particular tiene la característica de ser esencialmente multidisciplinar como es el

caso de la Ciencia de los Sistemas Complejos o Ciencias de la Complejidad, como suele

llamársele. Esta ciencia es nueva y se supone que la aúna el estudio de la complejidad de los

sistemas. En el estado reciente, el mismo concepto de complejidad parece ser una de las cosas

más difusas dentro de esta ciencia, que tiene más la imagen de un conjunto de métodos y

principios provenientes de varias disciplinas para estudiar una clase muy amplia de sistemas

que por alguna razón se les llama complejos: porque tienen muchas partes, porque son difíciles

de predecir, son muy grandes, etc, etc.

En este trabajo nos proponemos explorar algunas características de estos sistemas, desde un

punto de vista filosófico-histórico. Comenzamos con la teoría del caos. Esta teoría matemática

suele ser confundida con el estudio de la complejidad, porque de alguna manera el interés por

los sistemas complejos fue primero guiado por la exploración de sistemas caóticos. Veremos

que los sistemas caóticos son los sistemas más simples que pueden lograr un comportamiento

intrincado y suelen ser la fuente de azar que necesitan los sistemas complejos para crearse y

mantenerse.

En nuestra exploración filosóficamente sesgada de la teoría del caos nos enfrentamos primero

con las dificultades de dar una definición, y primero recurrimos a la presentación de un modelo

matemático y alguna de sus propiedades para lograr una primera aproximación a la cuestión.

Una buena parte de la ciencia actual está centrada en modelos y creemos que es necesario para

cualquier discusión filosófica conocer un poco acerca de cómo funcionan los modelos

7

matemáticos. Muchos de esos modelos son ejecutados en computadoras, por lo que también

veremos un poco qué implica para el conocimiento que podemos sacar de un modelo el hecho

de implementarlo en una simulación.

El corazón del primer capítulo trabaja desde un punto de vista filosófico las implicancias del

caos para la predictibilidad y el determinismo, proponiendo la necesidad de hacer una

distinción entre estados ónticos y estados epistémicos, aunque antes exploramos algunas otras

razones por las que el caos es importante para la filosofía. Luego repasamos la historia del

descubrimiento de este fenómeno. Creemos que su historia es de particular importancia

epistemológica porque muestra cómo resultados importantes pueden ser alcanzados tan “fuera

de su tiempo”. A su vez es uno de los primeros ejemplos en los que una simulación

computacional arrojó resultados muy sorprendentes, y muchos de los resultados matemáticos

de la teoría surgen por una preocupación práctica.

En el segundo capítulo nos concentramos en la noción de sistema, explorando brevemente los

alcances de la Teoría General de los Sistemas, que fue uno de los primeros desarrollos que

desemboca en la Ciencia de los Sistemas Complejos. Tras ver las características principales

de estos sistemas pasamos a explorar el concepto de complejidad en sí, revisitando primero

dos resultados teóricos necesarios (que son, a su vez, medidas de cierta clase de complejidad).

Concluimos que la complejidad estadística es una de las medidas más adecuadas de este

concepto y damos una definición de sistema complejo en base a la misma. En estas

exploraciones encontramos la importancia de la noción de azar y elaboramos una hipótesis

sobre la necesidad del mismo para entender a estos sistemas. Concluimos explorando la

conexión entre caos, azar y computabilidad.

8

We are all deeply conscious today that the enthusiasm of our forebears for the

marvellous achievements of Newtonian mechanics led them to make generalizations

in this area of predictability which, indeed, we may have generally tended to believe

before 1960, but which we now recognize were false. We collectively wish to apologize

for having misled the general educated public by spreading ideas about determinism

of systems satisfying Newton’s laws of motion that, after 1960, were to be proved

incorrect...

(J. Lighthill, Proc. Roy. Soc. (London) A 407, 35 (1986))

After all the pretty contrast of life and death

Proves that these opposite things partake of one,

At least that was the theory, when bishops' books

Resolved the world. We cannot go back to that.

The squirming facts exceed the squamous mind,

If one may say so. And yet relation appears,

A small relation expanding like the shade

Of a cloud on sand, a shape on the side of a hill.

Wallace Stevens

9

You see? The tyrannosaur doesn't obey set

patterns or park schedules. The essence of

Chaos.

Jurassic Park (1993)

Capítulo 1: Caos

1.1 ¿Qué es el caos?

Como vamos a ver, dar una definición suficientemente robusta del caos, es bastante difícil.

Sirva para empezar la discusión la siguiente definición generalizada:

Un sistema caótico es un sistema determinista y no lineal con gran sensibilidad a condiciones

iniciales.

El llamado efecto mariposa, que algunas veces hasta se confunde con caos, es el responsable

de la parte de “gran sensibilidad a condiciones iniciales”. El nombre del efecto proviene de la

idea de que una pequeña perturbación de un sistema (como el aletear de una mariposa en el

Amazonas) puede provocar, a largo plazo, un efecto amplificado (como una tormenta en

Japón). 1 Esta propiedad, que definiremos con mayor precisión en una próxima sección, suele

llamarse SDIC por las siglas en inglés de Sensitive Dependence on Initial Conditions.

Como nos recuerda Smith (2007, 1), además de la sensibilidad a condiciones iniciales, los

sistemas bajo estudio tienen la propiedad de ser deterministas y no-lineales. En lo que sigue

exploraremos qué significa para un sistema tener estas propiedades, para luego regresar a las

definiciones posibles de caos más detenidamente.

1 La primera referencia hace alusión a otro insecto: ¡una langosta! En un review que escribió W.S. Franklin sobre el Traité Elementaire de Méchanique fondé sur la Thermodynamique de Pierre Duhem de 1897, escribía: “La predicción detallada a largo plazo del tiempo es, pues, imposible, y la única predicción detallada que es posible es la inferencia de la tendencia y el carácter finales de una tormenta desde las observaciones de sus etapas más tempranas; y la precisión de esta predicción está sujeta a la condición de que el vuelo de una langosta en Montana pueda desviar una tormenta de Filadelfia a Nueva York”. Todas las traducciones son nuestras, y colocamos al pie las versiones originales.

10

Dejaremos para otra ocasión la discusión acerca de qué es un sistema y por ahora nos

contentaremos con una definición de trabajo, más usual para los físicos: un sistema es algún

proceso físico del mundo que queremos explicar.

Un sistema dinámico, es un sistema que evoluciona con el tiempo de acuerdo a una regla bien

definida y que no varía. La concepción general de éstos los toma como modelos matemáticos

deterministas, que si bien son de profundo interés matemático, se pueden usar para describir

un sistema físico. Como veremos más adelante, fenómenos como complejidad y caos suelen

ser principalmente entendidos como el comportamiento matemático de estos sistemas

dinámicos. En estas descripciones, la variable del tiempo puede ser discreta o continua.2 Una

ecuación que describe el movimiento del péndulo de un reloj o la cantidad de peces en un lago

a medida que pasa el tiempo, son ejemplos de sistemas dinámicos muy simples.

Solemos llamar al estado inicial de un sistema dinámico como sus condiciones iniciales y

como condiciones de contorno (boundary conditions) a la descripción de los límites del

dominio que el modelo tiene.

La dinámica de un sistema puede venir en dos sabores, lineal y no lineal. En el estudio de

sistemas complejos, el principal objeto de estudio suelen ser los sistemas dinámicos no

lineales. Matemáticamente, los sistemas dinámicos suelen ser descritos en términos de

ecuaciones diferenciales. Estas ecuaciones atan el comportamiento de una variable al del

cambio en otra variable, por lo que son la clase de descripción que necesitamos si lo que

queremos es mostrar cómo y cuánto cambia algo (como la trayectoria de un cuerpo, o la

cantidad de peces en el lago) con respecto a algún parámetro (el tiempo, en este caso).

Consideremos una ecuación diferencial cualquiera de la forma

𝑑𝑑𝑥𝑥𝑛𝑛𝑑𝑑𝑑𝑑

= 𝐹𝐹𝑥𝑥

2 Cuando es t continua se dice que el sistema es un flujo (flow), cuando discontinua un mapeo o mapa (mapping).

11

Las variables xn pueden representar estados del sistema como la posición o el momento de una

partícula, o la cantidad de peces en el lago. Supongamos que x1(t) y x2(t) son soluciones para

esta ecuación. Si esta ecuación es lineal, como es este el caso porque todos los factores

involucrados son constantes o factores de constantes y variables con exponente igual a uno,

una propiedad que se llama “principio de superposición lineal” nos asegura que una solución

x3(t) de la forma ax1(t) + bx2(t) en donde a y b son constantes y x1(t) y x2(t) son nuestras

soluciones anteriores, también es una solución para nuestra ecuación. Para los sistemas que

tienen esta propiedad, un cambio en alguna de sus variables por un factor β produce un cambio

proporcional a β en el resultado. La característica de los sistemas no lineales es que esta

propiedad puede no darse, es decir que frente a un pequeño cambio en un factor, el

comportamiento del sistema puede producir grandes y repentinos cambios en el

comportamiento del sistema en cuestión, lo que trae aparejada una dificultad en nuestra

capacidad para decir cosas acerca de él.3 Como ilustra la figura siguiente, de los sistemas

dinámicos que encontramos en la naturaleza, la cantidad de sistemas que no cumplen con el

principio de superposición lineal son muchos más que los que sí lo hacen. Además, la gran

mayoría de esos son efectivamente caóticos, pero esto es algo sobre lo que se sabe hace poco.

FIG 1: La no linealidad es ubicua en el mundo físico: la mecánica de fluidos y de plasma, la dinámica de los gases, la elasticidad, la relatividad, las reacciones químicas,

3 Son tantos los sistemas que son no lineales en la naturaleza que gran parte de la ciencia es efectivamente no lineal. Se dice que Stanislaw Ulam comentaba al respecto que “usar un término como ciencia no lineal es como referirse a la mayor parte de la zoología como el estudio de los animales no-elefantes”. La dicotomía, según él, era falsa: la “linealidad” era una propiedad específica de algunas ecuaciones. También se dice que Enrico Fermi comentaba acerca de la ubiquidad de las expresiones no lineales en la ciencia: “¡En ningún lugar de la Biblia se dice que las ecuaciones tengas que ser lineales!”

12

la combustión, la ecología, la biomecánica y muchísimos otros fenómenos son describibles con precisión sólo por ecuaciones inherentemente no lineales.

Al estudiar un sistema dinámico (ya sea por mor matemático o porque estamos modelando

algún sistema del mundo físico), son dos los aspectos que nos interesan. Uno ya lo

mencionamos: qué parte del sistema es lo que cambia con respecto al tiempo. La velocidad y

la posición cuando estudiamos cómo se mueve un cuerpo, la cantidad de peces en el lago o la

relación entre reactivos en una reacción química. La segunda característica que nos importa

conocer acerca del sistema es las reglas que dan lugar al comportamiento de ese sistema. Si

bien podemos no conocer las reglas que hacen que un sistema pase de un estado a otro, sí

sabemos que si un sistema es determinista, una regla para su evolución temporal existe

realmente.

¿Cómo puede comportarse, o moverse, un sistema dinámico en el tiempo? Hay varias formas

en que lo puede hacer. El más sencillo de todos es el de un punto fijo, que puede observarse

cuando después de una serie de cambios, el sistema se estabiliza en uno en particular, como

cuando el movimiento de un péndulo cesa por acción de la gravedad y la fricción. Lo mismo

sucede con una piedra que rueda desde lo alto de una montaña hasta que la piedra se queda

quieta en un lugar porque ya no tiene más ímpetu para seguir cuesta abajo. Otra clase de

movimientos que pueden tener estos sistemas son los llamados periódicos o con ciclo límite.

La Tierra girando alrededor del Sol es un sistema dinámico con esta característica. Un tipo de

movimiento mucho más complejo todavía es el llamado cuasiperiódico, que es el que tienen

los sistemas dinámicos que contienen un número finito mayor a dos de frecuencias

inconmensurables. Si suponemos un espacio de fase en forma de un toro, la trayectoria del

sistema está modelada por una curva que va envolviendo al toro sin volver a tocarse. Se

repiten, pero no exactamente. Por ejemplo, si a nuestro modelo periódico anterior le sumamos

la Luna y queremos describir el movimiento de estos cuerpos juntos como periódico, debería

existir un momento del tiempo en que vuelva a ocupar un lugar por el que ya estuvieron. Esto

significaría que los movimientos deberían resonar, es decir, encontrar un momento de tiempo

que divida a todas las frecuencias. Como esto no sucede, se dice que las frecuencias son

inconmensurables y por lo tanto el sistema es cuasiperiódico.

13

FIG 2: Ilustración de un movimiento que se acerca a un punto fijo y de uno cuasiperiódico según su representación en un espacio de fase.

.

Ahora a lo interesante: hasta hace poco tiempo se creía que todo en el universo4 se comportaba,

dentro de ciertos límites, de alguna de estas tres maneras: punto fijo, periódico o cuasi

periódico. Resultó ser que la gran mayoría de los sistemas se comportan caóticamente y que

el caos está por todos lados: en los patrones del clima, en la actividad electroquímica del

cerebro y en algo tan “simple” como un péndulo doble. Al caos le debemos mucho más de lo

que se piensa. Ahora bien, uno de los puntos que se suele enfatizar en la literatura es que la

aparición del caos trajo aparejada la imposibilidad de efectivamente predecir la gran mayoría

de los sistemas de la naturaleza y que produjo una revolución en nuestra manera de entender

el mundo. Lo que proponemos en este trabajo es explorar un poco más a fondo las

consecuencias epistemológicas de este descubrimiento, visitando no sólo la historia del mismo

y la dificultad para definirlo, sino su conexión con la predictibilidad y el determinismo, entre

otras.

Mencionamos recién a una construcción matemática llamada espacio de fase, que algunas

veces se la denomina también espacio de estado (state space, phase state). Ésta consiste en un

espacio5 de puntos matemáticos en el que cada punto representa uno de los posibles estados

4 O al menos los objetos que se mueven en él. 5 Por “espacio” en matemática entendemos, básicamente, un conjunto con cierta estructura dada. Sirva la aclaración, además de para notar que es un concepto muy amplio y rico, para notar que no estamos cayendo en una circularidad.

14

del sistema. 6 Un sistema mecánico suele poder ser representado por dos variables como la

posición y el momento o cantidad de movimiento y su espacio de fase sería un plano como el

de la figura 3. Cada grado de libertad o parámetro del sistema se representa en uno de los ejes

de este espacio n-dimensional. Hay un punto para cada uno de los valores posibles que pueda

tener el estado del sistema. Cuando éste evoluciona en el tiempo marca un camino a través de

ese espacio, camino que se suele llamar la trayectoria del sistema. Esta trayectoria hace al

conjunto de estados que son compatibles con cierta condición inicial. Un punto en el espacio

de estado representa al “estado instantáneo” del sistema: son los valores para ese instante de

todas las variables que se consideran necesarias para una descripción completa del sistema.

En esta clase de representación, el tiempo pasa a ser secundario en tanto no se toma como una

de las variables que se representa, es decir que se busca mostrar cómo cambian las variables

entre sí mientras el sistema evoluciona temporalmente. Una forma de estudiar un modelo de

un sistema dinámico es seguir su trayectoria desde las condiciones iniciales hasta un momento

determinado. La ventaja que tiene este tipo de representación es que, dependiendo en

particular del número de variables que estemos estudiando, nos permite estudiar

geométricamente a las trayectorias, algo particularmente útil cuando no tenemos disponibles

soluciones exactas o analíticas.

FIG 3: Un sistema puede ser sujeto a distintas representaciones. En este caso vemos dos posibles para un péndulo idealizado en tanto no está sujeto a fricción. La representación de la serie temporal es el gráfico de una función con respecto al tiempo. En el retrato de fase, un tipo particular de espacio de fase, el tiempo no es representado y cada uno de los ejes representa una de las variables. Las flechas indican la dirección en la que evoluciona el sistema.

6 El concepto fue desarrollado en el siglo XIX principalmente por Boltzmann, Poincaré y Gibbs. En Nolte (2010) podemos encontrar una breve historia de esta importante noción. Cf. Gleick (1987, 136) para una buena introducción de este estilo de representación.

15

Quizás sea éste el momento de introducir una pequeña aclaración acerca un supuesto que

hacemos a la hora de trabajar con esta clase de representación. Como bien nos recuerda Bishop

(2008, 2009), en esta clase de trabajo estamos asumiendo que los valores de las variables

realmente representan al sistema y que por medio de estos valores el estado físico del sistema

corresponde a un punto en el espacio de fase. Esta clase de supuestos está en el núcleo del

trabajo en general con modelos matemáticos de sistemas físicos. Como las llama Bishop

(2005, 2006), esta serie de supuestos hace al supuesto del modelo fiel, que interviene cada vez

que pasamos de hablar del modelo a hablar del sistema y viceversa, en particular en el

escenario del modelo perfecto. A medida que avancemos en nuestra exposición, iremos

encontrando algunas razones por las que la fidelidad de un modelo con el sistema que busca

representar está bastante más comprometida para sistemas no lineales.

Antes de terminar esta sección, y enfrentarnos con las distintas formas de definir a este

fenómeno, exploraremos un sistema dinámico muy simple en el que podremos ver

intuitivamente su comportamiento caótico.

Trabajando con un sistema dinámico muy simple: la ecuación logística.

Uno de los insights de la ciencia de la complejidad es que muchas cosas que parecen

complicadas en realidad resultan de algo muy simple, como también puede ser el caso de que

sistemas muy complicados hagan cosas muy simples. Uno de los casos más estudiados de una

descripción muy sencilla que produce una dinámica muy compleja es el de la llamada ecuación

logística, que pasaremos a describir ahora.7

En 1838, el matemático belga Pierre François Verhulst publicó un modelo muy simple del

crecimiento de una población de individuos vivos. La ecuación de su modelo tiene la forma

𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑

= 𝑟𝑟𝑑𝑑 �1 −𝑑𝑑𝐾𝐾�

7 Otro de los propósitos de esta subsección es mostrar con un caso concreto cómo se trabaja con modelos matemáticos muy simples para representar un sistema objeto.

16

en donde una solución N(t) representa el número de individuos en el tiempo t, r es la tasa de

crecimiento8 y K es la llamada capacidad de carga, es decir, el máximo número de individuos

que cierta región puede albergar. Verhulst (1845) da una solución general para esta ecuación

y la nombra como función logística, por lo que su ecuación se conoce con el nombre de

función logística. Si bien en esta ecuación el tiempo es continuo, la ecuación logística 𝑑𝑑𝑥𝑥𝑑𝑑𝑑𝑑

= 𝑟𝑟𝑥𝑥(1 − 𝑥𝑥)

puede ser reemplazada por la ecuación de recurrencia cuadrática

(1) 𝑥𝑥𝑛𝑛+1 = 𝑟𝑟𝑥𝑥𝑛𝑛 (1 − 𝑥𝑥𝑛𝑛)

que se suele llamar “el mapa logístico”. Este simple mapa cuadrático9 es capaz de producir un

comportamiento bastante complicado.10

Lo “complicado” del comportamiento está ligado al valor que tome el parámetro r. Si

continuamos con nuestro supuesto de que el modelo representa el crecimiento controlado de

una población, podemos distinguir los siguientes comportamientos para distintos valores de r.

● Si r está entre 0 y 1, la población termina extinguiéndose.

● Si r está entre 1 y 2, la población se estabiliza en un valor dependiendo de r.

(Concretamente en r-1/r)

● Para r entre 2 y 3, se puede observar que la población también alcanza el valor

expresado para el caso anterior aunque la cantidad de oscilaciones alrededor de ese

valor aumenta.

● Un curioso comportamiento se deja ya entrever cuando r está entre 3 y 3.44949 porque

la población oscila constantemente entre dos valores para distintas condiciones

iniciales.

8 Esto se suele llamar el “parámetro malthusiano” en la ecuación de crecimiento exponencial de población N(t)=N0ert, donde N0 es el tamaño de la población en t=0 y t es el tiempo transcurrido. 9 Decimos que un polinomio es cuadrático cuando el término de más alto grado es de grado 2. Una recurrencia cuadrática es una ecuación de recurrencia (el análogo discreto de las ecuaciones diferenciales) sobre una secuencia de números que se expresa por un polinomio de grado 2. La forma general de un mapa cuadrático es 𝑥𝑥𝑛𝑛 = 𝑎𝑎𝑥𝑥𝑛𝑛−12 + 𝑏𝑏𝑥𝑥𝑛𝑛−1 + 𝑐𝑐. El mapa logístico suele representarse en la forma factoreada que usamos arriba. 10 Al punto en que John von Neumann había sugerido hacia finales de los años ‘40 que este mapa con r=4 se podía usar como un generador de números al azar. Las propiedades de esta ecuación más allá del simple comportamiento oscilatorio recién fueron estudiadas desde los años 50 por matemáticos como Paul Stein y Stanislaw Ulam. El reporte de estos trabajos secundarios, mientras el grupo en Los Alamos continuaba las investigaciones sobre la bomba de hidrógeno, se publicó en 1959 (Ulam et al 1959) y es la primera referencia escrita de “comportamiento caótico”.

17

● Pasando ese valor y hasta 3.56994, los valores de la población oscilan primero entre

4, luego entre 8, 16 y 32 valores.

● A r aproximadamente igual a 3.57 nos encontramos con que prácticamente todas las

condiciones iniciales tienen un comportamiento distinto y lo mismo sucede cuando el

cambio en la población inicial es muy pequeño: el sistema muestra alta sensibilidad a

condiciones iniciales.

Este comportamiento se puede ver fácilmente reflejado en el siguiente diagrama de

bifurcación, que se consigue haciendo un gráfico de los valores de xn en función de r

empezando de un valor al azar para la población inicial x0, iterando varias veces y descartando

los valores anteriores a la convergencia:

El gráfico siguiente muestra una ampliación del diagrama de bifurcación para r entre 3.44 y

3.58 en el que están marcados los puntos de bifurcación.

18

Las subregiones del diagrama de bifurcación son similares entre sí y también son similares al

diagrama general. Esta auto-similaridad se presente incluso en representación con resolución

mucho más fina y es una de las características de las entidades geométricas que se conocen

como fractales. En este comportamiento de bifurcación hay cierta “universalidad”, que es una

relación fija entre los períodos de bifurcación. Esta relación es una constante y fue descubierta

en 1975 por Mitchel Feigenbaum y tiene un valor aproximado de 4.669. A medida que nos

acercamos a la región del mapa que es efectivamente caótica, cada región periódica es menor

a la anterior en el factor del valor de la constante. Lo “universal” en esta constante no está sólo

en el hecho de que se aplica a todos los mapas caóticos sino que también se ha comprobado

su valor experimentalmente en diversas clases de sistemas, como el caso de un flujo

hidrodinámico. La universalidad, pues, se refiere a que podemos encontrar una misma clase

de caos en sistemas distintos, incluso cuando estos están modelados por una ecucación muy

simple.

El biólogo Robert May escribió un muy citado artículo de review en la revista Nature (May

1976) en el que se propone una descripción muchos de los descubrimientos matemáticos

independientes acerca de fenómenos no-lineales, y se concentra especialmente en la ecuación

logística. Para nosotros, lo más interesante del artículo es su comentario acerca de lo que

podríamos bien llamar un contexto de aplicación de modelos matemáticos:

19

El hecho de que la simple y determinista ecuación (1) 11 puede poseer trayectorias dinámicas que se parecen a alguna clase de ruido al azar tiene implicaciones prácticas inquietantes. Significa, por ejemplo, que las fluctuaciones aparentemente erráticas en los datos censales de una población animal no necesariamente anuncia ni los caprichos de un ambiente impredecible ni errores de muestreo: puede que simplemente se deriven de una relación rígidamente determinista del crecimiento de población como la ecuación (1).12

Y luego comenta específicamente acerca de nuestra capacidad de predicción:

Alternativamente, puede observarse que en el régimen caótico, condiciones iniciales arbitrariamente cercanas pueden llevar a trayectorias que, después de un tiempo suficientemente largo, divergen ampliamente. Esto significa que, incluso si tenemos un modelo simple en el que todos los parámetros están determinados exactamente, la predicción a largo plazo es sin embargo imposible.13 (May 1976, 466)

Como comentamos antes, esta idea acerca de la imposibilidad de hacer predicciones para

sistemas caóticos es muy común de encontrar en la literatura tanto científica como filosófica,

y en la sección 1.4 vamos a explorar más detenidamente las implicancias del caos para nuestra

capacidad de predecir y trabajar con sistemas caóticos.

11 Según nuestra numeración. 12 The fact that the simple and deterministic equation (1) can possess dynamical trajectories which look like some sort of random noise has disturbing practical implications. It means, for example, that apparently erratic fluctuations in the census data for an animal population need not necessarily betoken either the vagaries of an unpredictable environment or sampling errors: they may simply derive from a rigidly deterministic population growth relationship such as equation (1). 13 Alternatively, it may be observed that in the chaotic regime arbitrarily close initial conditions can lead to trajectories which, after a sufficiently long time, diverge widely. This means that, even if we have a simple model in which all the parameters are determined exactly, long term prediction is nevertheless impossible.

20

1.2 Definiciones de Caos

Ahora que hemos visto una aproximación a qué es el caos, exploraremos las distintas

definiciones más o menos precisas que han intentado darse del fenómeno. Estas definiciones

pueden clasificarse en dos grandes grupos, las cualitativas y las cuantitativas, aunque muchas

veces las intuiciones que intentan agarrar están compartidas. También veremos algunos

problemas que surgen de las mismas.

Definiciones Cualitativas

Hacia el final de su famoso libro sobre el caos de 1987, James Gleick comenta que ninguno

de los científicos que entrevistó en la preparación de su libro pudo ponerse de acuerdo en una

definición de caos y lo que hace es listar las propiedades que los sistemas llamados caóticos

tienen de acuerdo a cada uno de estos científicos. Por ejemplo cita a Philip Holmes sosteniendo

que “caótico” se refiere a “las órbitas atractoras complicadas y aperiódicas de ciertos sistemas

dinámicos, usualmente de pocas dimensiones” (Gleick 1987, 306). Bai-Lin Hao es citado

definiendo al caos como “una especie de orden sin periodicidad.” Y la misma disparidad de

definiciones se repite en los otros ejemplos. ¿Es posible dar una buena definición de este

fenómeno?

En una de las primeras exploraciones filosóficas del fenómeno del caos, Stephen Kellert da la

siguiente definición: “el estudio cualitativo del comportamiento inestable aperiódico en

sistemas dinámicos deterministas no lineales” (Kellert 1993, 2) Esta definición nos deja

bastante que desear. Por un lado Kellert habla de “teoría del caos” y aunque a veces parece

sostener que está hablando de sistemas reales, se concentra en el aspecto matemático por lo

que su definición es bastante restrictiva, en particular cuando queremos ver si, por ejemplo,

caos es realmente algo que se da en la naturaleza. Sin duda la definición que propone incluye

los puntos importantes de caos que, como comentábamos al principio, son necesarios según

Smith (2007). Esto es puesto que “inestable” hace referencia a la condición de sensibilidad a

condiciones iniciales y “aperiódico” se refiere que las variables del sistema no parecen

repetirse de ninguna manera significativa. De cualquier forma, esta definición no da una

medida de inestabilidad ni de aperiodicidad y en realidad es tan abarcadora que clasificaría

como caóticos a algunos sistemas que no tienen las otras propiedades del caos, como podría

21

ser un mapa iterativo muy sencillo 𝑥𝑥𝑛𝑛+1 = 𝑐𝑐𝑥𝑥𝑛𝑛. En este caso, sea el que sea el valor inicial x0

con el que empecemos la secuencia, los valores siguientes siempre divergirán del valor

anterior (es no periódico) y sin embargo el mapa no es caótico.

En otra exploración filosófica del asunto, Batterman (1993) ataca las definiciones de caos

atadas a la de impredictibilidad, en particular las de Stone (1989) y la de Ford (1989), la

primera atada a la predictibilidad y la segunda a una noción de complejidad.

Batterman correctamente sostiene que la impredictibilidad no es condición suficiente ni

necesaria para señalar como caótico a un sistema y, por ejemplo, distinguirlo de uno

meramente azaroso (que lo que le ataca a la definición de Ford). Ahora bien, en su discusión

no nos da una definición alternativa del fenómeno, sino que tan solo sugiere que la

“inestabilidad exponencial” es una condición necesaria aunque no suficiente para dar cuenta

del fenómeno, y pareciera hacer notar que una buena definición de caos va a tener que

aumentar la precisión de esta clase de inestabilidad, que hace referencia a que el crecimiento

de la diferencia o distancia de las trayectorias que surgen de condiciones iniciales muy

próximas se da de forma exponencial. Ahora bien, como nos señala Bishop (2008) se puede

leer a Batterman como señalando que la característica esencial del fenómeno es la existencia

en la dinámica del sistema de un mecanismo de “estiramiento y doblamiento” que causaría

que algunas de las trayectorias converjan y otras diverjan rápidamente. Lo bueno de este

indicio de definición es que podría en principio aplicarse tanto a los sistemas físicos (aunque

esta clase de mecanismo sea algo difícil de identificar algunas veces) como a los modelos

matemáticos.

Definciones Cuantitativas

En la literatura es posible encontrar muchas definiciones cuantitativas de este fenómeno. (Por

ejemplo, en Smith (1998, cap. 10), Devany (1989) y un comentario general acerca de ellas en

Bishop (2008)). En esta subsección mencionaremos brevemente dos de las más interesantes

que hemos podido encontrar. Una es matemáticamente interesante y la otra es la que se suele

encontrar en la literatura física. Antes nos detenemos en dar una definición más precisa de lo

que entendemos por sensibilidad a condiciones iniciales.

22

Siguiendo a Smith (1998, 167) es conveniente distinguir dos clases de sensibilidad a

condiciones iniciales, una versión débil y una fuerte, para lo que estableceremos primero un

poco de notación convencional.

Sea f una función definida sobre un conjunto S. Escribimos fn(x) al resultado de aplicar la

función f a la función f(x) un número n de veces. Es decir que f(f(x)) es equivalente a escribir

f2(x). También convenimos en notar que si un conjunto K es un subconjunto de S, nuestra

función f aplicada a K, genera el conjunto de puntos f(x) en los que 𝑥𝑥 ∈ 𝐾𝐾. Si f(K)=K , decimos

que K es invariante con respecto a f.

Una primera aproximación a una definición es la siguiente versión débil. Decimos que un

mapa f es débilmente sensible a condiciones iniciales sobre K si hay un 𝜀𝜀 > 0 tal que para

cualquier x en K se da que

∀𝛿𝛿 > 0,∃𝑦𝑦 ∈ 𝐾𝐾,∃𝑛𝑛 ∶ |𝑥𝑥 − 𝑦𝑦| < 𝛿𝛿 y también |𝑓𝑓𝑛𝑛(𝑥𝑥) − 𝑓𝑓𝑛𝑛(𝑦𝑦)| > 𝜀𝜀

Lo que tanto simbolismo expresa es Estos nos dice que hay sensibilidad a condiciones iniciales

en K si dado un punto x cualquiera, existe algún punto y cercano a él (sin límites a lo que

“cerca” pueda ser) tal que si tomamos a este nuevo punto (que también está en K) como

condición inicial, las órbitas que empiezan del primero y el segundo en algún momento se van

a separar por un épsilon que era la diferencia entre los valores de x y el punto y cercano que

elegimos.

La razón por la que esta definición es débil se debe a que nada nos dice acerca de cuán rápido

crece la diferencia entre las órbitas una vez que se separan y de hecho hasta es compatible con

el crecimiento lineal de esas diferencias. Es por ello que necesitamos una versión más fuerte

de esta noción, que nos dé la seguridad de que las trayectorias divergen exponencialmente.

Una posible definición podría ser la que encontramos en (Smith 1998, 168):

si 𝑥𝑥 ≈ 𝑦𝑦, entonces |𝑓𝑓𝑛𝑛(𝑥𝑥) − 𝑓𝑓𝑛𝑛(𝑦𝑦)| ≈ |𝑥𝑥 − 𝑦𝑦|𝑒𝑒𝜆𝜆𝑛𝑛 donde 𝜆𝜆 > 0

El exponente λ positivo que aparece en nuestra fórmula es el llamado exponente de Lyapunov

y es lo que nos da la rapidez con la que difieren en promedio las trayectorias, medida que nos

da una definición fuerte de la sensibilidad a condiciones iniciales.

23

Uno podría estar tentando a ver aquí una definición de caos. Si bien esta propiedad es esencial

al caos, no es suficiente porque una función muy simple como 𝑓𝑓(𝑥𝑥) = 2𝑥𝑥 cumple para

cualquier valor de x positivo la propiedad antes mencionada: la diferencia entre las órbitas

partiendo de dos condiciones iniciales distinta se duplica en cada iteración, sin embargo la

dinámica no es para nada interesante: si seguimos iterando la función vemos que se acerca a

infinito.14 La razón es que no posee un mecanismo que limite su crecimiento, como lo es el

doblamiento de las trayectorias que mencionamos anteriormente.

Una de las descripciones matemáticas más interesantes del fenómeno es la dada por el

matemático Stephen Smale, que es una formalización del mecanismo de estiramiento y

doblamiento que Batterman reconocía como una de las características principales de la

dinámica de los sistemas caóticos. En Smale (1967), un clásico de la literatura matemática

según David Ruelle, se introduce el concepto de herradura, que ha sido llamado el hallmark

del caos por algunos.15 El corazón de su propuesta es que para describir a un mapa como

caótico tiene que ser posible mapear el intervalo unitario a una herradura, como la de la figura

4.

Fig 4: La herradura de Smale y el cuadrado unitario. Cualquier similitud con una medialuna a medio amasar no es pura coincidencia. (Cf. Gleick 1987, 51).

La herradura de Smale consiste en una serie de operaciones que se realizan sobre un cuadrado

unitario, es decir un cuadrado cuyos lados miden 1. Se empieza por estirar el cuadrado en la

14 No queremos decir que acercarse al infinito no sea algo interesante. Sucede que hay formas y formas de acercarse al infinito, y ésta es una de las aburridas. 15 Cf. Shub (2005). Remitimos además al lector interesado en la sutilezas matemáticas de la herradura a este trabajo.

24

dirección y por un factor mayor a dos y luego se lo comprime en la dirección horizontal x por

más de un factor de dos. Luego se pliega el rectángulo resultante de manera tal que encaje de

nuevo sobre el cuadrado original de la manera en la que está ilustrado: sobresaliendo por arriba

y abajo y sin que llegue a los bordes derecho e izquierdo y con un espacio en el medio. De la

forma de este dibujo viene el nombre de este mapa. Si se repite el proceso se forma una figura

sobre la que es posible mapear cualquier trayectoria de un sistema caótico. El proceso de

estiramiento provee la sensibilidad a condiciones iniciales y el doblamiento es lo que hace que

las trayectorias queden contenidas en un espacio determinado. Esto era lo que no sucedía en

el ejemplo anterior de 𝑓𝑓(𝑥𝑥) = 2𝑥𝑥.

Si bien el resultado matemático es muy fuerte, y tiene la virtud de dar una descripción robusta

del mecanismo de estiramiento y doblamiento e implicar la sensibilidad a condiciones

iniciales por implicar divergencia exponencial, no puede aplicarse a todos los modelos

caóticos, en particular a los mapas invertibles que suelen caracterizar a los sistemas que

muestran caos hamiltoniano (Bishop 2008). Los sistemas hamiltonianos son aquellos en los

que la cantidad total de energía cinética y potencial es conservada. Estos sistemas también

pueden mostrar dinámica caótica. Los sistemas que pierden energía son llamados disipativos,

dado que por algún mecanismo como la fricción disipan energía.

Otra forma muy popular de definir el fenómeno en la literatura física es en términos de los

exponentes de Lyapunov. Con este recurso se puede decir que un mapa es caótico si tiene un

exponente de Lyapunov global positivo. Ya nos encontramos con estos exponentes en la

definición de sensibilidad a condiciones iniciales en tanto es el recurso al que apelamos como

una medida del grado de divergencia de dos trayectorias. La ventaja de esta definición, además

de su íntima conexión con la propiedad de sensibilidad a condiciones iniciales, es que puede

ser aplicada para “medir” caos en conjunto de datos experimentales y su cálculo es

relativamente simple. Claro que esta forma de definir caos tampoco está libre de problemas y

hasta falla en algunos ejemplos muy sencillos. El principal problema está en que implican un

tiempo infinito y claramente nuestros modelos no pueden hablar de un tiempo infinito. (Bishop

2008; 2009, 109)

Con el concepto de caos pareciera pasar algo similar a lo que sucede con el concepto de

complejidad, una buena definición va a depender del contexto en el que se vaya a aplicar y de

las intenciones que se tengan. Así una definición más matemática como la de Smale puede

25

resultar útil como base para demostrar teoremas matemáticos sobre la teoría de los sistemas

dinámicos, una en términos de exponentes de Lyapunov a la hora de buscar dinámica caótica

en resultados experimentales. Uno de los problemas que se le suele presentar a la ciencia de

los sistemas complejos es la imposibilidad de encontrar características comunes a todos estos

sistemas, en particular a la hora de dar una definición de complejidad. Si, como intentamos

mostrar en esta sección, lo mismo sucede cuando intentamos dar una definición lo

suficientemente robusta del mecanismo más simple que puede dar lugar a comportamientos

intrincados, quizás el intento siempre quede en intento. Es muy probable que las definiciones

más robustas tengan que quedar atadas al contexto en el que quieran ser aplicadas.

¿Caos…?

En resumidas cuentas, la literatura física y filosófica parece contentarse con el siguiente

conjunto de condiciones como una definición adecuada de caos:

1. Un mecanismo de estiramiento y doblamiento limita a las trayectorias

2. Las órbitas de las trayectorias son aperiódicas, es decir que no se repiten en ningún

momento t.

3. Las trayectorias son altamente sensibles a condiciones iniciales o tienen un exponente

lambda positivo.

La característica 3 es la más importante para caracterizar el fenómeno en los sistemas o en los

modelos no lineales y está íntimamente ligada a las condiciones 1 y 2. Así, llamamos caótico

a un sistema no-lineal cuya dinámica tiene la característica de que la separación de las

trayectorias cercanas se da exponencialmente.

Esto no quita que existan definiciones en otro nivel de descripción que pueda ser más

fructífera, de acuerdo a lo que se quiera lograr. Por ejemplo, otra perspectiva que está ganando

popularidad y creo que da en uno de los aspectos claves en una posible descripción del

fenómeno de caos exportable a otros sistemas es ver al caos como creación de información.

Gleick (1987) citaba a Jim Crutchfield definiendo a caos como “dinámica con entropía métrica

positiva (aunque finita). La traducción del lenguaje matemático es: comportamiento que

produce información (amplifica pequeñas incertidumbres), pero que no es completamente

impredecible” (1987, 306). Aquí sólo mencionamos esta posible definición de caos, aunque

26

creemos que es una de las más interesantes epistemológicamente hablando. La razón por la

que no la exploramos con un poco más de profundidad en este trabajo se debe a que esta

definición está atada a una perspectiva particular se ha dado a llamar mecánica computacional,

en la que los sistemas físicos son estudiados desde el punto de vista de su capacidad para

almacenar y procesar información o realizar computaciones.

La posibilidad de esta descripción informacional o computacional de la mecánica, resulta de

explorar las conexiones entre caos, computabilidad y complejidad. La mecánica

computacional es básicamente un modelo de la organización espacial y temporal de sistemas

en general, que busca explicar cómo la estructura y el azar (el orden y el caos) se manifiestan

en un sistema. Puntualmente, este programa de investigación, busca encontrar el modelo

mínimo (que se llama casualmente “máquina épsilon”) que es capaz de reproducir ciertos

datos observados. La parte “informacional” se debe a que esta aproximación a los sistemas

lleva casi naturalmente a preguntarse por la capacidad de los sistemas de procesar

información.16

Al usar la expresión “mecánica computacional” hay que tener cuidado; hay dos palabras

peligrosas: “mecánica” y “computacional”. Por el término a veces se suele referir al estudio

de los métodos computacionales para estudiar fenómenos gobernados por los principios de la

mecánica, en sus sabores clásicos. Aquí nos estamos refiriendo con el término al programa de

investigación que empezó Crutchfield con sus estudios sobre el caos y que actualmente sirven

para conectar muchos fenómenos, aunque a veces de manera muy especulativa. Nuestra

introducción a parte de este framework conceptual será la exploración de la definición de

complejidad como complejidad estadística, dejando una exploración más a fondo de este

programa de investigación para más adelante.

16 Desde un punto de vista filosófico, la noción de información es increíblemente rica y dada la aparición de teorías matemáticas de la información y el desarrollo de las teorías empiristas del conocimiento de principios del siglo pasado, este concepto se ha vuelto central. La filosofía de la información es la rama de la filosofía general que se encarga de estudiar este concepto. En este trabajo tomamos una postura más bien extensional del concepto de información, sesgado por las teorías matemáticas y técnicas del mismo. Sin embargo queremos aclarar que de ninguna manera el concepto se agota en esta mirada y que mucho progreso se está haciendo en distintas áreas tomando una concepción semántica de la información o incluso una concepción de la misma como el estado de un agente, las dos visiones más cualitativas.

27

1.3 ¿Por qué el caos es importante para la filosofía?

There is no way of proving the correctness of the position of ‘determinism’ or ‘indeterminism’. Only if science were complete or demonstrably impossible could we decide such questions.

Ernst Mach

El estudio del caos nos hace repensar nuestro mapa intelectual, conectando nociones que antes

no creíamos conectadas y haciéndonos reconsiderar el estatus de algunos conceptos. En la

sección que sigue nos detenemos particularmente en uno de ellos de profundo interés

epistemológico: el de determinismo y su conexión con la predictibilidad, en donde intentamos

mostrar que el caos no necesariamente invalida una visión determinista del mundo, como han

sostenido algunos.17 También veremos cómo el caos nos hizo reconsiderar la importancia de

qué clase de números estamos usando para representar los valores del estado de un sistema.

En esta sección nos proponemos mencionar varios de los conceptos de filosofía de la ciencia

que se vieron afectados por los trabajos sobre caos, en muchos de los cuales se presentan

preguntas para las que todavía no tenemos respuestas, o al menos no muy satisfactorias. Éstas

van desde la naturaleza de los modelos científicos hasta nuestras consideraciones acerca del

azar y el libre albedrío.

Por ejemplo, en la literatura es extremadamente común escuchar hablar de “la teoría del caos”,

mas no queda nada claro a qué se está haciendo referencia con el término. ¿Es “la teoría del

caos” una teoría científica en el mismo sentido en que lo es la mecánica cuántica o la

relatividad general? ¿Es una teoría matemática con algunas aplicaciones al mundo físico?

Claro que responder estas preguntas sería más fácil si supiéramos qué es una teoría con más

precisión. De las dos “grandes corrientes” sobre la concepción de las teorías, una visión

sintáctica o axiomática parece que quedaría descartada en tanto no es posible encontrar

axiomas ni estructuras deductivas para conectar afirmaciones observacionales con teóricas en

lo que se puede apreciar de la literatura sobre el tema. La concepción semántica de las teorías

17 Cf., por ejemplo, la cita de Lighthill que aparece más arriba. Dicho sea de paso, es el mismo Lighthill del reporte crítico sobre el estado del campo de la inteligencia artificial de 1973.

28

podría parecer un candidato, dado el hincapié que pone en la idea de modelo, sin embargo no

sólo lo que se entiende por “modelo” es sustancialmente distinto sino que tampoco está claro

en qué medida se pueden encontrar las hipótesis que conectan a los modelos caóticos con

sistemas físicos idealizados (Bishop 2008). Probablemente lo mejor sea contentarse con una

versión más débil de qué quiere decir “teoría” como podría ser el de “paradigma” en alguna

de las versiones Kuhn, uno en que se hace más énfasis en la noción de inestabilidad, en la de

patrones en lugar de mecanismos y en entendimiento cualitativo más que en precisión

analítica. Creemos que este es uno de los sentidos en que caos es una parte de lo que se dio a

llamar como “Ciencia de Sistemas Complejos”.

En varios sentidos, caos también afecta la noción clásica de reduccionismo, por la que se

entiende que el comportamiento de los macroestados de un sistema puede explicarse por

medio de los microestados. La amplificación exponencial de las pequeñas diferencias entre

las órbitas hace que sea imposible separar órdenes micro de órdenes macro en las variables

(Kaneko y Tsuda 2000, 3). También es posible encontrar en la literatura énfasis en la “visión

holista” que proviene del caos, sin embargo como detectan Kaneko y Tsuda, caos en realidad

no permite pasar al extremo holista puesto que el fenómeno también surge en modelos muy

simples y “reducidos” por lo que sería mejor hablar de un punto intermedio que ellos llaman

una “relación dinámica de muchos a muchos” (2000, 13). Queda mucho trabajo filosófico

todavía para esclarecer las distintas formas en que quienes trabajan con caos, filósofos y

científicos, entienden esta noción de “reducción” pero es interesante notar que en este aspecto

ya se nota la tensión entre las descripciones cuantitativistas de una órbita y las descripciones

estadísticas más generales que se usan para describir un modelo.

Una de las consecuencias epistemológicas más importantes que trae consigo caos es para una

posible epistemología de los modelos científicos. La literatura sobre el tema suele

concentrarse en modelos lineales pero exportar los métodos de confirmación que se aplican a

esta clase de modelos a aquellos en los que el principio de superposición lineal falla trae

consigo algunos problemas. Las dos maneras clásicas de confirmar un modelo se basan en ir

mejorando algunos de los aspectos poco a poco hasta aumentar la similitud de los resultados

del modelo con las observaciones empíricas. 18 Esto se puede lograr, por un lado, aumentando

la precisión de los datos iniciales usados mientras que el modelo permanece sin ser

18 El término inglés que se suele usar es piecemeal improvement.

29

modificado. Esto lograría, aceptando que el modelo sea una buena descripción del sistema a

estudiar, que los resultados en ambos sentidos converjan. La otra estrategia es ajustar de a

poco el modelo mientras son los datos los que permanecen fijos, siguiendo la idea de que al

mejorar el modelo la similitud entre los datos va a ser aún mayor. Koperski (1998) sostiene

que estas son estrategias de confirmación de los modelos: el comportamiento del modelo

converge monotónica y gradualmente con el comportamiento del sistema objeto. Pero cuando

queremos aplicar estas estrategias a modelos no lineales, nos encontramos con que, por

ejemplo, no hay garantía de que aumentar la precisión de las condiciones iniciales nos lleven

a que los resultados observacionales sean más parecidos. Como veremos con más detalle más

abajo, la extrema sensibilidad a condiciones iniciales que presentan estos sistemas nos llevan

a resultados muy distintos incluso cuando la diferencia entre los dos valores es ínfima. Lo

mismo puede suceder si lo que se cambia es alguna variable o algún parámetro del modelo, la

respuesta puede ser no proporcional al cambio realizado y producir un comportamiento

sustancialmente distinto. Ya vimos en nuestro mapa logístico qué tan distinto puede ser el

cambio en los resultados de un modelo a medida que se va variando un simple parámetro.

Quizás no debamos culpar al caos de la imposibilidad de predecir el futuro, sino a nuestra

incapacidad de medir con precisión infinita y al hecho de que nuestros modelos son

inadecuados. Sí podemos culpar al caos, o quizás mejor a la no linealidad, de hacer que

nuestros métodos para mejorar y verificar modelos fallen. Pero, ¿no es nuestra la culpa?

Caos también nos obliga a revisar qué es lo que cuenta como una explicación científica de un

fenómeno caótico o si una explicación que recurra a un modelo caótico cuenta como tal. Esto

se debe a que los dos esquemas básicos de explicación, el unificacionista y el causal

(considerando que el modelo hempeliano queda descartado en tanto no habría leyes)19 tienen

varios problemas para ser aplicados a esta clase de sistemas. Veamos algunos ejemplos. En la

concepción clásica de estos modelos de explicación científica se asume que hay una teoría

aceptada y que los modelos que surgen de esas teorías juegan un rol en la explicación del

fenómeno. En las explicaciones causales, los procesos causales que están presentes en el

modelo, hacen a la explicación. En una explicación unificacionista son las leyes el factor

principal aunque muchas veces se hace la conexión entre las leyes y los fenómenos vía un

modelo. Comentábamos antes que para licenciar el pasaje de los modelos a los sistemas,

debíamos asumir que teníamos un modelo fiel, pero como vimos recién, cuando estamos frente

19 Cf. Kellert (1993).

30

a sistemas extremadamente sensibles a cambios en las condiciones iniciales, determinar

cuándo un modelo es fiel se torna bastante más difícil. De esta manera, sería difícil decir

cuándo tenemos una buena explicación. Incluso en el caso extremo del modelo perfecto,

podemos encontrarnos con una miríada de estados del modelo que producen datos

empíricamente indistinguibles de los realmente presentes en el sistema. (Cf. Bishop 2008).

Encontrar los mecanismos causales en un proceso caótico equivaldría, al menos en principio,

a encontrar el mecanismo que produce el estiramiento y plegamiento de la dinámica. No sólo

esto es difícil de hacer en un sistema físico, sino que para lograrlo por lo general tenemos que

apelar a una interpretación matemática como suele ser la de la herradura de Smale. El

problema es que al hacerlo estaríamos pasando a ver una propiedad general de los sistemas,

por lo que apelaríamos a una explicación más unificacionista que causal.

Otro problema filosófico de muy larga tradición en el que caos puede hacer algún aporte es el

del libre albedrío. Así como muchos autores han recurrido a los principios de la mecánica

cuántica para explicar “el más conflictivo problema de la metafísica” según Hume, también

es posible recurrir al caos para explicar el mismo. Debemos primero aceptar una tesis sobre

la relación mente-cerebro al estilo de la mecanicista tesis minskiana de “las mentes son lo que

los cerebros hacen”. Luego, entiendo que el cerebro también es un sistema dinámico podemos

buscar al caos en el mismo. El argumento acerca del rol del caos para explicar el libre albedrío

suele ir por dos caminos. Por uno, la sensibilidad a condiciones iniciales podría hacer que las

fluctuaciones a nivel cuántico sean amplificadas, teniendo repercusiones incluso en el nivel

en el que usualmente estaríamos frente a un sistema determinista. Esta es una forma de atacar

a los argumentos que sostienen que para el comportamiento del cerebro los efectos cuánticos

son insignificantes. El otro camino por el que suelen ir los argumentos es también mediante

la sensibilidad a condiciones iniciales, sólo que a nivel neuronal. Simplificando bastante la

cuestión, el disparo de una neurona puede afectar el comportamiento de un montón de otras

neuronas, llevando a los estados macroscópicos del cerebro a ser completamente distintos de

los que podrían haber sido si esa neurona no se hubiese disparado. Esta es una manera de

encontrar la libertad humana en una visión del mundo más bien fisicalista.20

20 Véase Bishop (2001) para una buena introducción a la relación entre el indeterminismo y el problema del libre albedrío. En Bishop (2008) también pueden encontrarse algunas referencias a las discusiones acerca de si el caos efectivamente está en el cerebro y sus implicancias para el libre albedrío. Mucha tinta ha corrido sobre la no linealidad y el caos en neurociencias, especialmente con respecto al modelo de Hodgkin-Huxley de las células nerviosas. Una buena primera aproximación al tema es el Aihara (2008).

31

1.4 Newton, Laplace, determinismo y predictabilidad.

Prediction is difficult, especially of the future.

Niels Bohr

Una de las tareas que distingue a la empresa científica es la capacidad de predecir fenómenos.

Esto es, partiendo de cierta observación, mediante alguna clase de cálculo, estimar cómo, por

ejemplo, se comportaría un objeto si se mantienen constantes las fuerzas que actúan sobre él.

Las bases para un entendimiento matemático de los fenómenos naturales se lo debemos

originalmente al trabajo de Johannes Kepler y de Galileo Galilei, y especialmente a Isaac

Newton, quien no sólo descubrió leyes fundamentalmente simples que rigen el

comportamiento de los cuerpos, sino que también inventó una de las herramientas

matemáticas fundamentales para el conocimiento de la dinámica de los cuerpos: el cálculo.21

El trabajo de Newton permitió entender que los problemas de la mecánica tratan sobre cuerpos

que responden a fuerzas que actúan sobre él, y que con esas fuerzas y con el entendimiento

matemático de las leyes que las rigen, una amplia cantidad de fenómenos naturales podían ser

derivados.22 Un caso particularmente interesante era el del movimiento de los planetas en el

sistema solar. Con una idea y un método tan robustos, era fácil imaginarse que los planetas

seguirían las mismas predecibles y muy ordenadas órbitas alrededor del sol, al punto que con

un poco de cálculo alguien podría saber exactamente dónde estaría cada planeta en cualquier

momento del tiempo. Lo que se imaginaban Newton y los que vinieron después de él era que

el sistema solar era un sistema dinámico estable, es decir que básicamente era como un

mecanismo de relojería en el que cada pieza del conjunto se movía de una manera ordenada y

que nunca cambiaría. Resulta ser que escribir las ecuaciones que regulan estos movimientos

21 No entraremos aquí en acusación acerca del muy ingenioso, si no tramposo, uso de infinitesimales y del conocido debate acerca de quién inventó/descubrió el cálculo. 22 Si bien en su fundamental Philosophia naturalis principia mathematica, Newton se concentra en la gravedad y sus efectos sobre los cuerpos, pareciera ser que, como lo harían otros más adelante, estaba dispuesto a ir un poco más lejos ya que en el prefacio de dicha obra comentaba que: “Desearía poder derivar el resto de los fenómenos de la Naturaleza mediante el mismo tipo de razonamiento desde los principios mecánicos, puesto que estoy llevado por varias razones a sospechar que todos ellos dependen de ciertas fuerzas por las que las partículas de los cuerpos, por algunas causas que son todavía desconocidas, se ven mutuamente empujadas hacia unas y otras y cohesionan en figuras regulares, o se repellen y se alejan unas de otras. Siendo estas fuerzas desconocidas, los filósofos hasta ahora han intentado en vano la búsqueda de la Naturaleza.”

32

y resolverlas son cosas completamente distintas, y el poder de cálculo necesario para analizar

la estabilidad del sistema solar claramente no estaba disponible en esa época.

Si el sistema solar sólo consistiera en la Tierra y el Sol, todo sería más simple: una ecuación

diferencial describiría la relación entre las posiciones, velocidades y aceleraciones de los

cuerpos, y tan sólo integrándolas podríamos obtener la trayectoria real que siguen el Sol y la

Tierra en cualquier momento: podríamos decir dónde estaban, dónde van a estar y cómo el

valor de una variable en un instante temporal determina el valor en todos los que siguen. En

esta órbita un tanto idealizada bien podemos decir que el sistema solar de dos cuerpos (o

cualquier sistema de dos cuerpos) es estable. Confiado en que con dos cuerpos la cosa es fácil,

uno agrega otro cuerpo e intenta hacer lo mismo y el resultado es algo completamente distinto.

En la sección siguiente comentaremos un poco más acerca de la historia de cómo se llegó a

descubrir el fenómeno del caos en el estudio de los sistemas dinámicos. Por ahora nos

concentramos en la idea de que el estado de las cosas en un tiempo determina o fija, junto con

las leyes de la naturaleza, el estado de las cosas en un tiempo posterior. Esta idea, que se

conoce como determinismo, es muy fácil de atar con la idea de predictibilidad y el caos nos

trae algunas sorpresas para con ellas.

¿Qué es el determinismo?

El núcleo de la concepción determinista del mundo es que existe algo así como “el estado de

todas las cosas” que es independiente de quién lo observe y que ese único estado de cosas en

un momento del tiempo fija el estado del mundo en un tiempo siguiente, de manera única, por

lo que no hay posibilidad de escape: dada la naturaleza de las leyes naturales, las cosas van a

ser como tienen que ser porque eran lo que eran. Esta es una concepción ontológica acerca de

cómo es el mundo pero hay una posibilidad epistémica que se desprende muy fácilmente: si

conocemos las leyes que operan sobre ciertos fenómenos y de alguna manera podemos medir

el estado del mundo o al menos de las variables que sabemos describen un sistema, en

principio podemos predecir exactamente cuál va a ser el estado en otro tiempo. Esta clase de

determinismo se conoce como “determinismo Laplaciano” (Earman 1987, 13) por Pierre

Simon Laplace quien alguna vez sostuvo que:

Podríamos considerar el estado presente del universo como el efecto de su pasado y la causa de su futuro. Un intelecto que en cierto momento conociera todas las fuerzas que ponen en movimiento a la naturaleza, y la posición de todos los ítems de los que la

33

naturaleza está compuesta, si este intelecto fuera también lo suficientemente vasto para poder analizar estos datos, podría colocar en una sola fórmula los movimientos de los cuerpos más grandes del universo y aquellos del átomo más pequeño; puesto que para ese intelecto nada sería incierto y el futuro, al igual que el pasado, le estaría presente a sus ojos.23

Y luego agrega algo acerca de la razón por la que podríamos llegar a esto y acerca de los

límites que nuestra inteligencia humana tendría:

La mente humana se permite, en la perfección que le ha podido otorgar a la astronomía, un dejo de esta inteligencia. Sus descubrimientos en la mecánica y en la geometría, junto con el descubrimiento de la gravitación universal, le han permitido comprender en las mismas expresiones analíticas, los estados pasados y futuros del sistema del mundo. Al aplicar los mismos métodos a otros objetos de su conocimiento, ha logrado relacionar fenómenos observados a leyes generales, y anticipar aquellos dadas ciertas circunstancias deben aparecer. Todos estos esfuerzos en la búsqueda de la verdad tienden a llevar a la mente de manera continua hacia la inteligencia que acabamos de mencionar, aunque siempre se mantendrá infinitamente distante de esta inteligencia.24 (Laplace 1812, 2)

Su manera de ver el determinismo empieza siendo causal pero termina siendo atada a la noción

de predictibilidad, por medio de este intelecto que suele ser llamado el demonio de Laplace y

que posee capacidades de predicción que van mucho más allá de nuestras capacidades de

conocimiento y observación acerca de un sistema físico. Ya veremos cómo el descubrimiento

de caos trajo graves consecuencias para lo que podríamos llamar el problema del límite

epistémico, que es la diferencia entre lo que puede saber el demonio de Laplace y lo que

podemos saber nosotros. Por lo pronto notemos que ya en esta cita de Laplace podemos ver

una tensión entre una concepción ontológica del determinismo y una epistémica, que él no

23 We may regard the present state of the universe as the effect of its past and the cause of its future. An intellect which at a certain moment would know all forces that set nature in motion, and all positions of all items of which nature is composed, if this intellect were also vast enough to submit these data to analysis, it would embrace in a single formula the movements of the greatest bodies of the universe and those of the tiniest atom; for such an intellect nothing would be uncertain and the future just like the past would be present before its eyes. 24 The human mind affords, in the perfection that it has been able to give to astronomy, a feeble likeness of this intelligence. Its discoveries in mechanics and in geometry, joined to the discovery of universal gravitation, have enabled it to comprehend in the same analytical expressions the past and future states of the system of the world. In applying the same method to some other objects of its knowledge, it has succeeded in relating observed phenomena to general laws, and in anticipating those that given circumstances ought to bring to light. All these efforts in the search for truth tend to lead the mind continually towards the intelligence we have just mentioned, although it will always remain infinitely distant from this intelligence.

34

resuelve en tanto quedan ligadas: determinismo es predictibilidad en manos de un poderoso

demonio.

Varios filósofos importantes ataron la noción de determinismo a la noción de predictibilidad,

los más notorios son los casos de Russell y Popper. Russell pretendía limpiar la idea laplaciana

del contenido epistémico para dar una definición que fuera plenamente ontológica y da la

siguiente definición de un sistema determinista:

Se dice que un sistema es “determinista” cuando, dados ciertos datos e1, e2, …, en en los tiempos t1, t2,…, tn respectivamente que conciernen al sistema, si Et es un estado del sistema en cualquier tiempo t, hay una relación funcional de la forma 𝐸𝐸𝑡𝑡 = 𝑓𝑓((𝑒𝑒1; 𝑑𝑑1), (𝑒𝑒2; 𝑑𝑑2), … , (𝑒𝑒𝑛𝑛; 𝑑𝑑𝑛𝑛)). El sistema va a ser “determinista durante un período dado” si t, en la fórmula de arriba, puede ser cualquier tiempo en ese período, aunque fuera de ese período la fórmula puede ya no ser válida. Si el universo, como un todo, es tal sistema, el determinismo del universo es verdad; si no, no.25 (Russell 1953, 398)

Russell encuentra problemas con esta definición puesto que un sistema muy simple como una

partícula sin dimensiones cuyo estado puede ser descrito por tres variables con respecto al

tiempo, una variable para cada dimensión espacial, x, y, z. Sin importar cómo se mueva la

partícula, sabemos que podemos especificar que existen tres funciones matemáticas f1, f2, f3

tales que xt=f1(t), yt=f2(t), zt=f3(t), de lo que se sigue que el estado completo del universo

material puede ser descrito en función del tiempo, por lo que el universo entero es determinista

en el sentido de la definición anterior y enfáticamente agrega: “si esto es verdad, no aporta

ninguna información acerca del universo”. (cf. Earman (1987, 11-2) para los comentarios

sobre las sugerencias de Russell para no trivializar el sentido de determinismo que si bien son

interesantes, no son necesarias aquí.)

25 A system is said to be “deterministic” when, given certain data, e1, e2, …, en , at times t1, t2,…, tn respectively, concerning this system, if Et is the state of the system at any time t, there is a functional relation of the form 𝐸𝐸_𝑑𝑑 = 𝑓𝑓((𝑒𝑒_1; 𝑑𝑑_1 ), (𝑒𝑒_2; 𝑑𝑑_2 ), … , (𝑒𝑒_𝑛𝑛; 𝑑𝑑_𝑛𝑛 )).The system will be “deterministic throughout a given period” if t, in the above formula, may be any time within that period, though outside that period the formula may be no longer true. If the universe, as a whole, is such a system, determinism is true of the universe; if not, not.

35

La razón por la que falla la definición de Russell en dar una noción estrictamente ontológica

es porque todavía está atada a una noción de predictibilidad, y sigue confundiendo una noción

epistémica con una noción ontológica.

De lo mismo podemos acusar a Popper, quien definía al “determinismo científico” como

la doctrina que sostiene que el estado de cualquier sistema físico cerrado en cualquier instante de tiempo futuro puede ser predicho, incluso desde dentro del sistema, con cualquier grado de precisión especificado, deduciéndolo de las teorías en conjunción con las condiciones iniciales, cuyo grado de precisión requerido siempre puede ser calculado (de acuerdo con el principio de accountability26) si la tarea de predecir es dada. (Popper 1982, 36)

Como era el caso de Russell, Popper toma en serio la conexión entre determinismo y

predicción, aunque esta tiene que ser llevada a cabo por un agente que es parte del sistema en

cuestión y que sabe que dentro de los límites de su capacidad para estimar las condiciones

iniciales, es capaz de hacer predicciones correctas. El principio de accountability es

introducido para asegurarnos de que el grado de precisión de las condiciones iniciales

necesario puede ser conocido de antemano, lo que nos dejaría descartar las predicciones

incorrectas que se deben a que los datos originales no eran lo suficientemente precisos. Popper

sostiene que incluso en el caso de que la mecánica newtoniana sea verdadera, el determinismo

científico es falso. Creemos la conclusión a extraer no es que el determinismo es falso sino

que no es una propiedad epistémica, y lo veremos más claramente con un ejemplo caótico a

continuación. La inestabilidad de un sistema newtoniano que hace que pequeños cambios en

las condiciones iniciales me llevan a estados muy diferentes junto con la incapacidad del

agente que hace las predicciones de medir con infinita precisión esas condiciones iniciales nos

hacen ver que predicción y determinismo son nociones distintas.

Determinismo y caos

Creemos que es más o menos seguro decir que el descubrimiento de la naturaleza de la materia

en lo más pequeño que tenemos acceso dice que el determinismo no es válido del universo.

Sin embargo, no sólo de la cuántica viene el desafío a un universo determinista, del mismo

26 Dejamos esta palabra sin traducir, por no haber podido encontrar una buena traducción.

36

estudio de los sistemas clásico surge la necesidad de desatar determinismo de predictibilidad

y de que azar y determinismo no son conceptos tan enfrentados como parecían serlo.

Visitemos de nuevo nuestro mapa logístico para ver cómo lo afectan dos condiciones iniciales

que son muy parecidas. Supongamos que fijamos X0 como 0.999 y otra condición inicial y0

como 0.998 para r=4. Intuitivamente uno podría creer que dada esa mínima diferencia entre

las condiciones iniciales, mi capacidad de predecir el nuevo estado del sistema va a variar en

una manera proporcional a esa diferencia. Pero como se trata de un sistema no lineal, un

pequeño cambio en uno de los valores puede traer consecuencias bastante grandes a medida

que el sistema evoluciona en el tiempo. El gráfico que sigue es una representación de la

relación del estado n+1 en función del estado n dadas las dos condiciones iniciales que

indicamos antes. Como puede observarse, las dos trayectorias empiezan bastante cerca pero

luego parece que no tienen nada que ver; el sistema amplifica las diferencias.

Nuestra capacidad para predecir un sistema con dinámica caótica se ve comprometida por

nuestra incapacidad de realizar mediciones infinitamente precisas para determinar las

condiciones iniciales correctas o exactas. ¿Pero qué nos dice esto acerca del determinismo?

37

Nada. Nada en tanto lo que está en juego es nuestra capacidad de hacer predicciones, no la

naturaleza del mundo. Nada en tanto ya las ecuaciones que rigen el fenómeno son

deterministas, como probablemente también lo sea el mundo. Creemos que el caos demuestra

por qué es bueno mantener una distinción entre estados ónticos y estados epistémicos y dejar

al determinismo ligado a la primera noción y algo así como la determinabilidad al lado

epistémico. Una consecuencia que tendría esta distinción es que no podríamos hablar de un

sistema como caótico en términos de su impredictibilidad.

Este es uno de los errores más comunes con respecto a caos: creer que los sistemas se

caracterizan por ser impredecibles. De hecho, era la motivación de la definición de Stone

(1989) que criticaba Batterman (1993) Su discusión se ve motivada por que

Los sistemas caóticos representan un subconjunto característico de los sistemas dinámicos clásicos, y debemos tener alguna forma de señalar qué es lo que es característico de ellos. Los métodos que los científicos emplean para estudiar a los sistemas caóticos no se parecen a los métodos empleados cuando el sistema bajo estudio es uno del que se puede esperar que presente predictibilidad absoluta. La manera más natural de señalar esta distinción es en el contexto de la predictibilidad, y de hecho distinguirlos en base a la predictibilidad es el supuesto de trabajo de la mayoría de los científicos.27 (Stone 1989, 129. El énfasis es nuestro).

Los sistemas caóticos son impredecibles sólo en un sentido muy fuerte y no es correcto

caracterizarlos de esa manera. Si bien es cierto que trae límites bien marcados a nuestra

capacidad de predecir algunos sistemas, el estudio del caos en realidad nos muestra que

podemos predecir algunos sistemas que antes habrían sido catalogados como azarosos y

además nos permite controlar algunos sistemas caóticos.

La distinción óntico - epistémico

Algunos años después que Laplace introdujera su famoso demonio, el mismo Maxwell que

introdujo otro famoso demonio en la historia de la física, comentaba en una conferencia acerca

del debate entre el determinismo y el libre albedrío que

27 Chaotic systems represent a distinctive subset of classical dynamical systems, and we must have some way of highlighting what is distinctive about them. The methods scientists employ for studying chaotic systems do not resemble the methods employed when the system under study is one that can be expected to yield absolute predictability. The most natural way to bring out that distinction is in the context of predictability, and indeed distinguishing them on the basis of predictability is already the working assumption of most scientists.

38

Es una doctrina metafísica que de los mismos antecedentes se sigan los mismos consecuentes. Nadie puede negar esto. Pero no es algo tan útil en un mundo como este, en el que los mismos antecedentes nunca vuelven a concurrir, y nunca nada ocurre dos veces. De hecho, por todo lo que sabemos, uno de los antecedentes puede ser la fecha precisa y el lugar del evento, en cuyo caso la experiencia no tendría propósito. El axioma metafísico sólo le sería útil a un ser que posea el conocimiento de los eventos contingentes, scientia simplicis intelligentiae –un grado de conocimiento tal para el que la mera omnisciencia de todos los hechos, scientia visionis, no es sino ignorancia. El axioma físico que tiene un aspecto relativamente similar es “que de antecedentes parecidos se siguen consecuentes parecidos”. Pero aquí hemos pasado de la igualdad a la similitud, de la precisión absoluta a una aproximación más o menos aproximada. Hay ciertas clases de fenómenos, como he dicho, en los que un pequeño error en los datos introduce sólo un pequeño error en el resultado. Tales son, entre otros, los fenómenos más grandes del Sistema Solar, y aquellos en los que las leyes más elementales de la dinámica contribuyen la mayor proporción de los resultados. El curso de los eventos en estos casos es estable. Hay otras clases de fenómenos que son más complicados, y en los que pueden ocurrir casos de inestabilidad, número de casos que incremente de una manera excedentemente rápida a medida que aumenta en número de variables.28 (Maxwell 1873, en Campbell y Garnett 1882, 442. El énfasis es nuestro)

Nos parece que es bastante lo que podemos aprender de esta cita de Maxwell, en especial

porque pareciera dejar entrever la necesidad de distinguir los estados ónticos de los estados

epistémicos en su hablar de estabilidad e incerteza por más que esté hablando acerca de

causalidad (su argumento constantemente va por vía de antecedentes y consecuencias en

términos de causa y efecto). La parte metafísica es claramente la primera, dados estas y todas

estas causas lograrás todos estos efectos y en los sistemas estables podemos encontrar algo

como una causación fuerte que nos asegura cierta acción constante de las causas por lo que

28 It is a metaphysical doctrine that from the same antecedents follow the same consequents. No one can gainsay this. But it is not of much use in a world like this, in which the same antecedents never again concur, and nothing ever happens twice. Indeed, for aught we know, one of the antecedents might be the precise date and place of the event, in which case experience would go for nothing. The metaphysical axiom would be of use only to a being possessed of the knowledge of contingent events, scientia simplicis intelligentiæ,—a degree of knowledge to which mere omniscience of all facts, scientia visionis, is but ignorance. The physical axiom which has a somewhat similar aspect is “That from like antecedents follow like consequents.” But here we have passed from sameness to likeness, from absolute accuracy to a more or less rough approximation. There are certain classes of phenomena, as I have said, in which a small error in the data only introduces a small error in the result. Such are, among others, the larger phenomena of the Solar System, and those in which the more elementary laws in Dynamics contribute the greater part of the result. The course of events in these cases is stable. There are other classes of phenomena which are more complicated, and in which cases of instability may occur, the number of such cases increasing, in an exceedingly rapid manner, as the number of variables increases.

39

una pequeña variación en una causa traería aparejada una variación proporcional en el efecto.

Un sentido más débil de causación es necesario para los sistemas caóticos (cf. Atmanspacher

2002, 62), y esto ya es visto por Maxwell al introducir lo que el llama “fenómenos

complicados” en los que ocurren casos de inestabilidad. Esta noción más débil no contradice

al “axioma metafísico” pero sí pareciera llevarnos a considerar a los antecedentes como

aquellos a los que podemos aproximarnos, porque no podemos conocer todos los eventos

contingentes. En esta noción más débil de “antecedentes”, creemos que Maxwell se refiere a

los estados epistémicos que nos permiten hablar del conocimiento de un sistema, en particular

uno inestable.

Creemos que también es esta idea maxwelliana la que refina Poincaré algunos años más tarde:

Si supiéramos con exactitud las leyes de la naturaleza y la situación del universo en el estado inicial, podríamos predecir exactamente la situación de ese mismo universo en un momento posterior. Pero, incluso si fuera el caso de que las leyes de la naturaleza no nos guarden secreto alguno, sólo podríamos conocer la situación inicial de una manera aproximada. Si eso nos permitiera predecir la situación sucesiva con la misma aproximación, es todo lo que necesitamos, y deberíamos decir que el fenómeno ha sido predicho, que está gobernado por leyes. Pero esto no es siempre así; puede suceder que pequeñas diferencias en las condiciones iniciales produzcan grandes diferencias en el fenómeno final. Un pequeño error en el primer producirá un enorme error en el segundo. La predicción se vuelve imposible.29 (Poincaré 1908, 397)

Aquí no sólo está Poincaré haciendo una de las primeras menciones a sistemas que presentan

SDIC, sino que también deja entrever el límite que tenemos a la hora de conocer un sistema

(puesto en términos de predictibilidad) dado que sólo podemos conocer un estado de manera

aproximada, incluso cuando sea una ley natural determinista la que regula el fenómeno.

Comienza haciendo referencia al demonio de Laplace en tanto es quien tendría capacidad de

conocer exactamente las condiciones iniciales. Luego, como lo hacía Maxwell, empieza a

hablar de causalidad en términos de condiciones iniciales y “momentos sucesivos”, y finaliza

hablando de predictibilidad epistémica.

29 If we knew exactly the laws of nature and the situation of the universe at the initial moment, we could predict exactly the situation of that same universe at a succeeding moment. But, even if it were the case that the natural laws had no longer any secret for us, we could still only know the initial situation approximately. If that enabled us to predict the succeeding situation with the same approximation, that is all we require, and we should say that the phenomenon had been predicted, that it is governed by laws. But it is not always so; it may happen that small differences in the initial conditions produce very great ones in the final phenomena. A small error in the former will produce an enormous error in the latter. Prediction becomes impossible.

40

La distinción entre estados ónticos y estados epistémicos fue introducida en la literatura por

Scheibe (1964) quien propuso hablar de las proposiciones ónticas de una teoría y las

proposiciones epistémicas de la teoría, las que hacen referencia a nuestra capacidad de conocer

algo acerca del sistema. La motivación original fue sobre la teoría cuántica pero creo que con

lo que ya vimos acerca del caos podemos ver que ésta es una distinción que también puede

aclarar algunas cosas en la teoría newtoniana, teoría que tiende a confundir los dos,30 y en la

discusión acerca de la relación entre modelos y el mundo.31 Los estados ónticos se refieren a

los estados del mundo independientemente de cualquier acceso a los mismos por parte de un

agente (“cuando nadie me mira, soy así”) por lo que hablan de una realidad óntica. Los estados

epistémicos, por otro lado, implican a un agente cognoscente y su capacidad para conocer el

sistema bajo estudio. Con respecto a caos, podemos observar una tensión entre la aparente

irregularidad del sistema y el orden subyacente. Esto se debe a que por un lado nos

encontramos con nuestra incapacidad para determinar el estado con precisión infinita del

sistema, ya sea en términos de medir, computar o predecir el mismo, y por el otro, nuestra

descripción de las leyes que rigen la dinámica del sistema en términos de ecuaciones

diferenciales, que son deterministas. Caos, allá abajo, es determinista. Aquí arriba,

indeterminable. Ahora bien, esto no debería hacernos perder la esperanza, puesto que si bien

hay un nuevo límite en nuestra capacidad de predecir sistemas, pagando el pequeño precio de

la pérdida de la certeza, la posibilidad realizar predicciones más o menos precisas de un

sistema caótico está dentro de nuestras capacidades.32

Lo que tenemos que hacer es recordar que mientras nuestros modelos matemáticos crudos

(esto es, sin implementar) de un sistema llamen “estados de un sistema” a puntos y trayectorias

continuas en un espacio de fase con precisión infinita, estaríamos hablando de una descripción

óntica. En cambio, en un contexto empírico (ya sea por tratarse de un experimento o de una

simulación computacional) estamos trabajando con otros límites en los que la precisión

infinita debe ser descartada. En sistemas con dinámica caótica, el uso de espacios de fases

atados con conocimiento finito nos fuerza a meter en nuestras ahora epistémicas

descripciones, cuestiones como medidas de probabilidad y de incertezas.

30 Que no es el caso de la mecánica estadística, en la que se suele hablar en términos epistémicos. 31 Que sólo mencionamos en varias partes del trabajo pero que permanece fuera del alcance nuestra propuesta. 32 De todas formas el precio no es tan alto, ¿quién está realmente cierto de algo?

41

Haciendo predicciones con caos: de las sombras, la probabilidad.

En un popular artículo de 1986 en la revista de divulgación Scientific American, Jim

Crutchfield y otros comentaban que

El descubrimiento del caos ha creado un nuevo paradigma del modelado científico. Por un lado, implica nuevos límites fundamentales en nuestra habilidad para hacer predicciones. Por otro lado, el determinismo inherente en el caos implica que muchos fenómenos azarosos son más predecibles de lo que se había pensado. Información que parece aleatoria que se encontró en el pasado –y archivada porque se asumió que era demasiado complicada- hoy en día puede ser explicada en términos de leyes simples. El caos permite encontrar orden en diversos sistemas tales como la atmósfera, una canilla que gotea, y el corazón. El resultado es una revolución que está afectando muchas ramas diferentes de la ciencia.33 (Crutchfield et al 1986).

Al menos en un contexto de aplicación, la teoría del caos sí se presentó como una “pequeña

revolución”: la aplicación de modelos caóticos efectivamente permitió encontrar cierto orden

en sistemas que antes se creían realmente impredecibles. Sin embargo, también nos mostró

algunas limitaciones en nuestro acceso a la naturaleza. A la hora de realizar predicciones, el

trabajo con sistemas caóticos presenta ciertos desafíos. Como mencionamos antes, esta clase

de sistemas son sólo impredecibles en un sentido muy fuerte. Son dos las razones

fundamentales por la que esto sucede:

(1) Nuestra incapacidad de realizar mediciones de las condiciones iniciales con precisión

infinita.

(2) La profundidad máxima con la que podemos representar un número para hacer

cálculos es finita.

Es importante recordar que todas estas limitaciones son epistémicas, es decir, caen sobre los

estados epistémicos del sistema mientras que el mismo evoluciona de manera única, es

determinista. Ya dijimos algo acerca de (1) anteriormente, por lo que ahora nos concentramos

33 The discovery of chaos has created a new paradigm in scientific modeling. On one hand, it implies new fundamental limits on the ability to make predictions. On the other hand, the determinism inherent in chaos implies that many random phenomena are more predictable than had been thought. Random-looking information gathered in the past—and shelved because it was assumed to be too complicated—can now be explained in terms of simple laws. Chaos allows order to be found in such diverse systems as the atmosphere, dripping faucets, and the heart. The result is a revolution that is affecting many different branches of science.

42

en (2), algo que en particular afecta al trabajo con simulaciones computacionales de sistemas

caóticos, que son el método más usado para investigar al caos. 34

Hay ciertos sistemas que, desde lejos, parecen caóticos.35 Antes del descubrimiento del caos,

un sistema impredecible como una moneda arrojada hubiese sido catalogada como caótica, al

menos popularmente. Hoy en día sabemos que hay una diferencia entre los sistemas caóticos

y los que efectivamente son azarosos y se llaman estocásticos. La diferencia entre un sistema

caótico y un sistema estocástico es que este último es realmente impredecible porque tiene un

componente azaroso irreductible a una regla y sólo pueden ser descritos estadísticamente. Los

sistemas caóticos son predecibles a corto plazo, al menos. Conocer que una moneda haya

caído como cara o cruz en el tiro anterior no me dice nada acerca de cómo caerá en el próximo.

Ex post facto, teniendo disponible toda la historia de los resultados, podríamos afirmar con

cierta seguridad que la mitad de las veces tendió a un resultado y la otra mitad a otros, pero

no hay más orden que éste.

¿Por qué es difícil de predecir un sistema caótico, incluso si conocemos la regla bajo la que

opera el sistema? El problema con los sistemas caóticos es que nuestra capacidad para predecir

cómo va a estar el sistema se pierde en cada paso de evolución del mismo, debido al

mecanismo de estiramiento y doblamiento de su dinámica. Intentaremos ilustrar esto de una

manera sencilla.

Si queremos hacer una masa hojaldrada tendremos que estirar nuestra masa ya mezclada,

plegarla y repetir el proceso varias veces. Cada vez que repetimos el proceso se duplica la

cantidad de capas que tenemos. Si nos proponemos seguir el movimiento de dos granitos de

azúcar que al empezar estaban juntos, notaríamos que en cada proceso los granitos se alejan

entre sí, por más que estén “contenidos” en la masa. Esta clase de “mezclado” en dos procesos

es la característica principal de nuestros sistemas caóticos.36 En el caso del mapa logístico que

hemos presentado, la parte positiva 𝑟𝑟𝑥𝑥𝑛𝑛 de la función estira el espacio de fase, mientras que

la parte negativa (1 − 𝑥𝑥𝑛𝑛) se encarga de plegarla.

Para hacer una predicción del valor de una función en una primera iteración, debemos conocer

esa función f(x). Pero si queremos predecir sobre una segunda iteración debemos conocer el

34 Así como en la primera sección mostramos en relativo detalle un modelo matemático para lograr cierta familiaridad con el trabajo con modelos matemáticos, una parte de la motivación de esta sección es mostrar algunas de las consideraciones que hay que tener en cuenta a la hora de implementar en una computadora alguno de esos modelos. Esta implementación no es tan directa ni tan precisa, por lo que puede introducir errores que no existían en modelo matemático original. 35 O moscas, pero no queremos competir con Borges. 36 Esta también es la idea intuitiva que opera en la herradura de Smale que comentamos antes.

43

resultado de aplicar la función f(x) a f(x), recursivamente. Esto es f2(x) según nuestra

convención notarial anterior. Si ahora volvemos a nuestro mapa logístico y hacemos un

diagrama de fase para 𝑥𝑥𝑡𝑡+1 en función de 𝑥𝑥𝑡𝑡 (es decir que graficamos la relación de un estado

con respecto al que sigue), nos encontramos con una parábola. Pero si ahora graficamos f2(x),

en la representación nos encontramos con dos máximos (o dos crestas). Si volvemos a repetir

la operación para f3(x) volvemos a duplicar la cantidad de crestas, y así sucesivamente. Sucede

lo mismo que con la cantidad de capas en nuestra masa hojaldrada cada vez que la estiramos

y la plegamos.

Vamos a suponer que queremos hacer una predicción extremadamente simple sobre nuestro

mapa logístico: dado un valor de 𝑥𝑥𝑡𝑡 lo que queremos saber es si dado un número n de

iteraciones, 𝑥𝑥𝑡𝑡+𝑛𝑛 va a tener un valor mayor, igual o menor a 0.5. Como para hacer la predicción

podemos vamos a implementar el modelo en una computadora, estaremos usando a fin de

cuentas una representación binaria para cada valor. Procedemos a hacer una predicción para

el primer paso: para n=1, queremos determinar si 𝑥𝑥𝑡𝑡+1 va a ser mayor o menor que 0.5. Para

esto tenemos que partir el espacio de la función en al menos tres partes: uno en donde el

máximo o la cresta es mayor a ese valor y los dos extremos en donde el valor es menor. Ahora

bien, si queremos predecir para cualquier n y para cualquier valor temporal, la cantidad de

secciones que necesitamos dado el comportamiento que conocemos de la función es 2𝑛𝑛+1.

Esto hace que necesitemos una profundidad de representación de 𝑛𝑛 + 1 bits para representar

el valor de 𝑥𝑥𝑡𝑡 sobre el que empezamos nuestra exploración de los valores siguientes. Y acá

está el punto clave: si al correr nuestra búsqueda usamos una representación para el valor de

coma flotante que tiene menos bits que 𝑛𝑛 + 1, básicamente estamos explorando el resultado

al azar. ¡Incluso si es tan sólo menor por un bit! Perdemos un bit de información por cada

momento más allá que queremos predecir. Actualmente nuestras mejores representaciones de

números con coma flotante usan una profundidad de 128 bits, por lo que para el sistema

caótico más sencillo nos es imposible, con memoria finita, predecir para cualquier n mayor a

128. He aquí por qué es importante conocer la profundidad con la que podemos representar

los valores de los números que van a nuestro modelo implementando.

Si a todo esto le sumamos la condición (1) antes mencionada sobre la imprecisión de nuestras

mediciones, parece que predecir sistemas caóticos se vuelve todavía más complicado. De

hecho esto hasta nos podría parecer que hacer predicciones tanto con modelos muy simples

como con modelos complejos como los usados en las ciencias climáticas podrían ser

44

imposibles. En un caso extremo, hasta podríamos pensar que caos no es un fenómeno natural

sino un producto de nuestra imposibilidad de simular una trayectoria con precisión infinita.

¿Cómo podemos asegurarnos que caos es un fenómeno real y que nuestras simulaciones

computacionales dan cuenta del mismo? ¿Cómo podemos hacer predicciones con cierta

precisión de sistemas que poseen extrema sensibilidad a condiciones iniciales? El lema de

sombreado (shadowing lemma) se encarga de respondernos la primera pregunta, la posibilidad

de pasar a descripciones probabilísticas de los sistemas caóticos nos da, al menos, un principio

de respuesta para la segunda.

El lema de sombreado es un resultado matemático que se le debe a Anosov (1967) y a Bowen

(1978). Básicamente, este lema nos garantiza que existe al menos una trayectoria real que le

“hace sombra” de cerca a una trayectoria simulada del mismo sistema dinámico, mientras que

una trayectoria simulada sí va a divergir de una trayectoria exacta del sistema (la siguiente

figura ilustra esto que estamos diciendo). Algo a considerar es que este resultado no se aplica

a cualquier sistema dinámico dado que tienen que tener una estructura hiperbólica.37 Al

margen de sus limitaciones, este resultado nos asegura que el caos es un fenómeno real y no

un producto de nuestra incapacidad de representación infinita. Haciendo estudios numéricos

sobre el mapa de Henon38, sabemos que para algunos valores de los parámetros un sistema

dinámico muy simple puede tener estructura hiperbólica y ser no-hiperbólico para otros

valores (Lai et al. (1993)). Hammel et al (1987) exploraron el mapa logístico numéricamente

y prueban que una órbita aproximada puede ser sombreada por una real “por un largo tiempo”

(1987, 465). Qué tanto tiempo dependerá de la aproximación con la que se esté trabajando,

pero al menos nos da cierta garantía para afirmar que un mapa unidimensional no hiperbólico

como el mapa logístico puede representar caos real y, de acuerdo a cómo interpretemos la

relación entre la matemática y el mundo, que caos es real.

37 Probablemente difícil nota al pie acerca de esto: la dinámica hiperbólica está caracterizada por la presencia de direcciones de la derivada que se expanden y se contraen. Es decir que cada punto en el espacio en donde esté la trayectoria tiene que tener una dirección estable y una inestable. La presencia de una estructura hiperbólica también es algo importante a considerar a la hora de aplicar métodos numéricos a sistemas caóticos, tales como la reducción de ruido. (Abarbanel 1996). En espacios de fase de varias dimensiones, la falta de esta condición puede ser un problema serio: si uno de los exponentes de Lyapunov fluctúa cerca de cero, el sombreado falla tan dramáticamente que se dice que esos sistemas son “inmodelables”. (Kostelich et al 1997, cf. Thompson y Stewart 2002, 206) 38 Este mapa es uno de los sistemas dinámicos discretos más estudiados por ser uno de los más simples con dinámica caótica posible, y es de dos dimensiones. El sistema está definido por 𝑥𝑥𝑛𝑛+1 = 1 − 𝑎𝑎𝑥𝑥𝑛𝑛2 + 𝑦𝑦𝑛𝑛 y 𝑦𝑦𝑛𝑛+1 =𝑏𝑏𝑥𝑥𝑛𝑛, donde a y b son parámetros. El comportamiento caótico se obtiene para algunos valores de estos parámetros, en particular para a=1.4 y b=0.3. En Gleick (1987, 144-153) puede encontrarse una introducción al mismo.

45

FIG 5: A la izquierda se puede observar la trayectoria real de un sistema y cómo se desvía la trayectoria computada por la acumulación de errores. A la derecha se muestra una trayectoria de sombra que es arbitrariamente cercana a la trayectoria computada. (Tomada de Flake (1998, 154))

Las limitaciones que hemos visto nos hacen considerar la posibilidad de buscar una

descripción alternativa a la hora de hacer predicciones del comportamiento de los sistemas

caóticos. Una descripción que parece ser bastante natural, y más aún si defendemos nuestra

distinción entre estados ónticos y estados epistémicos, es una en términos probabilistas. La

posibilidad de hacerlo consiste en que se puede ver a un sistema dinámico caótico como

explorando su espacio de fase: la sensibilidad a condiciones iniciales en particular hace que

frente a un nuevo valor el sistema “actualice” un espacio de fase distinto al anterior. Si este

proceso es iterado muchas veces, podemos ganar una imagen de cómo el sistema tiende a

comportarse frente a esas pequeñas variaciones.

El trabajo de Nicolis y Gaspard (1994) es uno de los primeros intentos de dar una

fundamentación matemática de esta posibilidad, detalles en los que no nos detendremos de

momento, dado que nos interesa mostrar más concretamente un caso de aplicación de esta

clase de descripción para predecir uno de los sistemas caóticos más interesantes: la atmósfera

terrestre.39

39 Probablemente nuestra consideración de este sistema como el más importante sea algo sesgada. Philip Thompson, uno de los pioneros en predicción numérica del tiempo, comentaba acerca de las impresiones de John von Neumann sobre el tema: “[von Neumann] regarded [the weather forecasting problem] as the most complex, interactive, and highly nonlinear problem that had ever been conceived of—one that would challenge the capabilities of the fastest computing devices for many years.”

46

Gregoire Nicolis y Catherine Rouvas-Nicolis comentan años más tarde acerca de la

naturalidad con la que se puede dar esta descripción y cómo se descubre una nueva faceta del

fenómeno:

Un punto fundamental es que la evolución de los sistemas compuestos de varias subunidades y que están sujetos a una dinámica compleja, pueden ser mapeados de una manera auto-consistente a una descripción probabilista, libre de aproximaciones heurísticas. Las visiones probabilista y determinista se vuelven dos caras de una misma realidad, y esto le permite a uno encontrar regularidades de una nueva clase.40 (Nicolis & Nicolis 2009)

Sin duda las dos realidades del fenómeno son bastante distintas: bajo una visión probabilística,

lo importante pasa a ser la evolución de las distribuciones de probabilidades que, a diferencia

de la no-linealidad e inestabilidad inherentemente presentes en la descripción determinista,

son lineales y estables. En un contexto de aplicación, lo que esto permite es una nueva manera

de hacer predicciones. Ahora comentaremos brevemente cómo se implementa esta descripción

sobre un modelo matemático de un sistema objeto en particular que queremos predecir: la

atmósfera.41 En este caso, la aproximación probabilista se conoce como “pronóstico por

conjunto” (ensemble forecasting) y consiste en considerar un conjunto de condiciones

iniciales que sean compatibles con los datos que se tienen, resolver el modelo para cada una

de esas condiciones iniciales y luego evaluar los promedios (o los picos) de los valores de las

variables que se consideren importantes en cada una de estas iteraciones o actualizaciones

(realizations). La ventaja de este método es que atenúa las fluctuaciones que se presentan en

una sola iteración y permite notar las tendencias de la dinámica de las posibilidades del

sistema. En la siguiente figura podemos apreciar cómo funciona este tipo de predicciones.

40 A fundamental point is that the evolution of systems composed of several subunits and undergoing complex dynamics can be mapped into a probabilistic description in a self-consistent manner, free of heuristic approximations. The probabilistic and deterministic views become thus two facets of the same reality, and this allows one to sort out regularities of a new kind. 41 Usamos el término atmósfera de una manera muy general. La literatura específica hace la distinción entre predicciones de tiempo (weather prediction), tormentas (severe weather) y clima (climate). Tomamos “atmósfera” para referirnos a cualquiera de estos sistemas. El nivel de discusión de este trabajo nos permite ser tan generalistas.

47

Fig. 6 Representación gráfica de un pronóstico por conjunto junto con predicciones deterministas. (Tomada de *Roulstone & Norbury 2013, 278))

El círculo gris de la izquierda representa un conjunto de condiciones iniciales consideradas

como las mejores de acuerdo a los datos que se tienen del estado de la atmósfera en un tiempo

t0. Las trayectorias en gris representan predicciones deterministas posibles considerando

condiciones iniciales cercanas, mientras que la trayectoria en negro (la de abajo) representa la

evolución “verdadera” del sistema. Las otras “islas” grises muestran la evolución la

proyección probabilista de cómo se comportará el sistema, usando el pronóstico por conjunto.

La primera en un tiempo t1 cercano a t0 y la isla que se observa en el extremo derecho muestra

la proyección final de la predicción probabilista. La fuerte no linealidad del sistema hace que

las predicciones deterministas a largo plazo sean muy distintas, aunque se mantienen cercanas

en un primer momento. Esta dispersión, junto con el volumen del espacio de fase del estado

final del pronóstico, es indicadora de la incerteza de la predicción, algo que no podríamos

saber si sólo corriéramos el modelo con una única condición inicial. Esto no sólo nos permite

hacer predicciones acerca del sistema sino que nos da información acerca de la confiabilidad

de nuestro modelo; pero no entraremos ahora en esa discusión. Lo que queremos remarcar es

que es posible hacer mejores predicciones (y predicciones de las predicciones) si dejamos de

hablar del sistema en términos del sistema per se (es decir, de sus estados ónticos) y aceptamos

que nuestras descripciones son acerca de los estados epistémicos del mismo y que cuando

hablamos de estos últimos podemos darnos el lujo de introducir términos como incertezas y

probabilidades sin comprometernos con una “incerteza” allá abajo, o fundamental. En

realidad, cuando hacemos una predicción, predecimos lo que vamos a saber del sistema, no

48

cómo estará el mismo en ese tiempo. Si tenemos suerte, los estados serán parecidos. Si no,

habrá que tener un paraguas a mano, por las dudas.42

En esencia, el uso de esta clase de descripciones probabilistas de fenómenos deterministas

deja entrever esta naturaleza dual de estos fenómenos deterministas, dual en tanto aceptemos

la distinción planteada de estados ónticos y estados epistémicos. La dualidad parece estar en

nosotros y no en las cosas, pero eso ya lo sabemos de antes.

42 El lector puede consultar el artículo de Parker (2013) para una buena introducción a este tipo de modelado en ciencias climáticas y algunas reflexiones filosóficas. El capítulo 8 de Roulstone & Norbury (2013) es una introducción un poco más técnica a las predicciones con modelos atmosféricos.

49

1.5 Descubriendo al caos

Nature laughs at the difficulties of integration

Laplace

Se ha dicho varias veces que caos es/fue una revolución y Gleick (1987) es particularmente

responsable. Esta primera popularización sobre el caos tiene un capítulo entero dedicado a la

supuesta revolución, en el sentido kuhneano del término, en el que afirma:

Unos pocos librepensadores trabajando solos, sin poder explicar hacia dónde se estaban dirigiendo, con miedo de hasta comentarle a sus colegas qué es lo que estaban haciendo –esa imagen romántica está en el corazón del esquema de Kuhn, y ha ocurrido en la vida real, una y otra vez, en la exploración del caos.43 (1987, 37).

Creemos que la mejor manera de mostrar que el caos no es esa clase de revolución es revisando

la historia de la idea. Probablemente la razón por la que el caos haya impactado tan

fuertemente en la comunidad científica en el momento en que lo hizo no haya sido por el

fenómeno en sí, sino por cómo hizo notar la relevancia del impacto del modelado matemático

de fenómenos naturales implementados en una simulación computacional. Como ya dejamos

ver en las secciones anteriores, caos no es caos sin la computadora.

Ahora bien, antes de llegar a la computadora repasemos brevemente la historia de la idea.44

La “sorpresa” del caos quedó un tanto oculta en la historia de la matemática y la física por una

novedad un poco más grande que fue el surgimiento de la física cuántica a principios del siglo

pasado. Si alguien se merece el título de “el descubridor del caos” no es otro que Henri

Poincaré, en especial por su “intento” de solucionar el problema de la luna o el problema de

los tres cuerpos, que ya hemos mencionado, aunque sólo al pasar. Se trata del problema de

determinar los posibles movimientos de tres masas puntuales que se atraen entre sí respetando

las leyes del movimiento y de la gravitación universal newtonianas, como puede ser el caso

de la Tierra, la Luna y el Sol, y que ya había sido visto por Newton. Euler, Clairaut, d’Alambert

43 A few freethinkers working alone, unable to explain where they are heading, afraid even to tell their colleagues what they are doing-that romantic image lies at the heart of Kuhn's scheme, and it has occurred in real life, time and time again, in the exploration of chaos. 44 Las reconstrucciones que seguimos son principalmentee las de Gleick (1987), Holmes (2005) y Aubin y Dahan Dalmedico (2002).

50

y hasta los mismos Lagrange y Laplace hicieron algunos aportes. Pero sin duda el principal

hito en la historia de este problema es el trabajo de Poincaré. En 1887, para honrar un poco

más su 60º cumpleaños, el rey Oscar II de Suecia estableció un premio para quien pudiera

solucionar el problema. Probablemente no haya sido el rey sino el matemático sueco Gôsta

Mittag-Leffler quien haya presentado el problema tan específicamente como:

Dado un sistema de una cantidad arbitraria de puntos de masa que se atraen de acuerdo a la ley de Newton, bajo el supuesto de que ninguno de los puntos colisiona, intentar encontrar una representación de las coordenadas de cada punto como una serie en una variable que sea una función conocida del tempo y para la cual todos los valores de la seria converjan uniformemente.45

Fue intentando ganarse este premio que Poincaré descubrió que podían existir órbitas no-

periódicas y que sin embargo no aumentan constantemente ni se acercan a un punto fijo. Un

breve paper de unas 270 páginas (Poincaré 1890) que le sirvió para ganarse el premio, aunque

tenía algún que otro error, como él mismo encontró más adelante. Su trabajo básicamente

funda la teoría moderna de los sistemas dinámicos y en particular descubre que ciertas

ecuaciones diferenciales que describían el movimiento de sistemas supuestamente simples no

eran integrables debido a ciertos puntos que se comportaban de una manera extraña, que ahora

llamamos órbitas homo y heteroclínicas.46 Se podría decir que es la primera vez que se alguien

“ve” algo como el caos. Otro de los resultados interesantes del trabajo de Poincaré es el

teorema que lleva su nombre y el de Bendixson, quien dio una prueba completa del teorema

en su Bendixson (1901). De este teorema, se sigue que para poder dar lugar a un atractor

extraño, un sistema continuo tiene que al menos tener tres dimensiones. Curiosamente, hasta

donde sabemos, Poincaré nunca conectó sus ideas de “inestabilidad geométrica” con el

comportamiento caótico de las moléculas en los gases, que también entendía muy bien, y

tampoco hace referencia a esto en el artículo sobre la sensibilidad a condiciones iniciales que

mencionamos anteriormente.

En su artículo de 1898, el matemático francés Jacques Hadamard introdujo el primer sistema

dinámico considerado como caótico, el billar que lleva su nombre. Este es un sistema en el

que se considera el movimiento libre de una partícula sobre una superficie de curvatura

45 Given a system of arbitrarily many mass points that attract each according to Newton's law, under the assumption that no two points ever collide, try to find a representation of the coordinates of each point as a series in a variable that is some known function of time and for all of whose values the series converges uniformly. 46 En un espacio de fase, decimos que las trayectorias que unen dos puntos de equilibrio son órbitas heteroclínicas. Si el punto de partida es el mismo que el de llegada, llamamos a esas órbitas homoclínicas.

51

negativa. Hadamard demostró que todas las trayectorias divergen siempre de las otras,

exponencialmente.

La teoría de los sistemas dinámicos se vio impulsada por George Birkhoff, quien trabajando

de una manera más directa sobre los resultados de Poincaré y con algunos métodos creados

por Hadamard, probó una serie de teoremas topológicos acerca de los puntos fijos.

Matemáticamente hablando, el caos estaba muy cerca hacia principios de los años ‘30,

especialmente con Birkhoff (1927), mostrando que cerca de cualquier punto homoclínico de

un mapa bidimensional existe una secuencia infinita de órbitas cuyos períodos tienden a

infinito y con Birkhoff (1932), identificado el caos en un sistema dinámico muy simple con

evolución temporal discreta que mostraba “destacables curvas cerradas” con rasgos fractales.

Sin embargo, el verdadero descubrimiento tendría que esperar un poco, a la aparición de

algunos sistemas caóticos físicos y a la aparición de la computadora aplicada a problemas

científicos. Y quizás a la Segunda Guerra Mundial en el medio para cambiar un poco las cosas.

Antes de pasar a esas contribuciones, notamos algunas de los desarrollos matemáticos que se

dieron en el ínterin 1930-1960, en particular en lo que podríamos llamar la “escuela rusa” del

caos matemático, que suele ser dejada de lado en los relatos de esta historia.

En paralelo a los desarrollos matemáticos en occidente, en la ex Unión Soviética surgió un

fuerte grupo de estudio sobre dinámica, en la ciudad de Gorki (actualmente Nizhni-Novgorod)

encabezado por el físico Aleksandr Andronov. Sus trabajos principalmente se concentraron

en la noción de estabilidad de los sistemas dinámicos, en particular la llamada estabilidad

estructural introducida en Andronov y Pontryagin (1937) bajo el nombre de “sistemas toscos”

(systèmes grossiers).47 El trabajo de Andronov siguió con el estudio de las bifurcaciones

locales, es decir, con los cambios cualitativos en la dinámica del sistema a medida que se

varían parámetros, trabajo que fue continuado por su esposa tras la temprana muerte de

Andronov y luego publicados como Andronov et al (1971, 1973). Probablemente haya sido

su formación como físico que haya hecho que las investigaciones del grupo no se vuelvan

completamente abstractas sino que permanezcan cercanas a un contexto de ciencia aplicada.

47 Los puntos fijos o las órbitas periódicas que hemos mencionado anteriormente son claros ejemplos de esta noción: el comportamiento cualitativo de las trayectorias del sistema no se ve afectado por pequeñas perturbaciones.

52

Los otros aportes rusos a la teoría provienen de la “escuela de Moscú”, especialmente de la

mano de figuras como Andrey Kolmogorov48, Dmitri Anosov y Yakov Sinai. Es probable que

resultado más importante que surgió de esta escuela sea lo que se conoce como el “Teorema

KAM” por Kolmogorov, Arnold y Moser que es un resultado “inverso” al de Poincaré. Más

allá de las tecnicidades del caso, es un resultado epistemológicamente interesante por las

aplicaciones que tiene y por el tipo de confirmación que recibió. Recordemos que en el estudio

del problema de los n-cuerpos, Poincaré había notado que existían ciertas dificultades de

integración cuando n era igual o mayor que 3, problemas que provienen de los pequeños

efectos que introduce la interacción gravitatoria entre los cuerpos. La teoría que desarrolla

Kolmogorov (y que fue mejorada por su alumno Vladimir Arnold y por Jürgen Moser) es una

teoría general de los sistemas hamiltonianos sujetos a pequeñas perturbaciones, que pueden

presentar movimientos cuasi-periódicos en esas circunstancias. Esta intuición acerca de la

“cuasi-integrabilidad” de los sistemas llevó al desarrollo métodos computacionales para

trabajar con sistemas caóticos en simulaciones computacionales, en particular en aplicaciones

en mecánica estadística, mecánica celeste y física de plasma.

Más allá de la aplicabilidad de los métodos numéricos para acercarse a esta clase de sistemas,

una de las nociones epistemológicamente más ricas de la aproximación al caos por parte de

Kolmogorov provino del reconocimiento de la importancia de la teoría de la información de

Shannon, que llevó a la introducción de lo que hoy conocemos como Entropía Kolmogorov-

Sinai, que consiste en una medida de la cantidad de información que genera una dinámica

caótica.

En paralelo al desarrollo matemático de la idea, el caos se empezó a observar en sistemas

físicos.49 En van der Pol y van der Mark (1927) los autores describen un “ruido irregular” en

un diodo forzado periódicamente mientras intentaban comprender el comportamiento de un

48 Quizás sea una apuesta brava, y esta nota poco importante para nuestra historia, pero creemos que Kolmogorov es el único matemático que podría competir con John von Neumann en por el título de “el matemático más importante del siglo XX”. Áreas que se vieron si no transformadas al menos enriquecidas por su trabajo incluyen a la probabilidad, la teoría de conjuntos, la teoría de sistemas dinámicos, la teoría de la información, la teoría de los algoritmos, intuicionismo, topología, teoría de la turbulencia y numerosas aplicaciones de la matemática a problemas en biología, geología y hasta en la cristalización de los metales. Para una buena introducción a los aportes que realizó a la física, se puede consultar la compilación Livi y Vulpiani (2003). 49 Un caso más curioso que otra cosa: en 1927 Herbert Sellner aplicó una patente para un juego de parque de diversiones que prometía que caos iba a divertir a sus usuarios: “A further object is to provide amusement apparatus wherein the riders will be moved in general through an orbit and will unexpectedly swing, snap from side to side or rotate without in any way being able to figure what movement may next take place in the car.” El juego se llama “Tilt-A-Whirl”. Kautz y Huggard (1994) es la demostración matemática de que un este juego es efectivamente caótico.

53

oscilador electrónico usando un parlante (que probablemente sea la mejor idea para hacer eso

si uno no tiene un osciloscopio, o si todavía no se han inventado). El origen del ruido que

escuchaban en su experimento era el caos determinista. Los matemáticos ingleses Mary

Cartwright y John Littlewood estudiaron profundamente este artículo mientras estaban

trabajando sobre la tecnología del radar durante la segunda guerra mundial.50 Su trabajo fue,

sin duda, mucho más allá de cualquier aplicación práctica para la época y desembocó en

importante aportes a la matemático como Cartwright y Littlewood (1945).

Mencionamos aquí brevemente de nuevo a Stephen Smale y su herradura. Antes de andar

descubriendo herraduras caóticas en las playas de Río (como bien nos cuenta en su Smale

(1998a)), Smale no creía en el caos y había conjeturado que no existía. Sin embargo, Levinson

le hizo conocer su trabajo de 1949, que era una extensión de Cartwright y Littlewood (1945)

en el que mostraba que el caos aparecía en un sistema incluso más simple que el que habían

estudiado ellos. Atendiendo a esto, Smale probó que su conjetura estaba mal y nos dio un

resultado matemático muy robusto, además de además de hacer que muchas personas se

pregunten acerca del destino de los fondos de la National Science Foundation por estar

pagando viajes al extranjero.

El caso más conocido del “descubrimiento” de caos es el de Edward Lorenz. De hecho Lorenz

(1963) es uno de los artículos más citados de todos los tiempos, y es en este caso por donde

pasa el peso de la historia en la popularización de caos de Gleick.

Lorenz estaba trabajando en un modelo matemático no lineal muy simple de la convección en

la atmósfera, implementándolo en una computadora.51 Su modelo tenía tres dimensiones, por

lo que escapaba de los límites del teorema de imposibilidad de Poincaré-Bendixson que

mencionamos recién y consiste en estas tres ecuaciones diferenciales:

𝑑𝑑𝑥𝑥𝑑𝑑𝑑𝑑

= 𝜎𝜎𝑦𝑦 − 𝜎𝜎𝑥𝑥

𝑑𝑑𝑦𝑦𝑑𝑑𝑑𝑑

= −𝑥𝑥𝑥𝑥 + 𝑥𝑥𝑥𝑥 − 𝑦𝑦

𝑑𝑑𝑥𝑥𝑑𝑑𝑑𝑑

= 𝑥𝑥𝑦𝑦 − 𝛽𝛽𝑥𝑥

50 51 Para los curiosos, una LGP-30 que se fabricó por primera vez en 1956.

54

en donde 𝜎𝜎, 𝑥𝑥 y 𝛽𝛽 son parámetros. Lorenz descubrió que fijando a estos parámetros como 10,

28 y 8/3 respectivamente su sistema se comportaba de una manera muy particular. 52

Intentando ahorrarse algunos pasos de cómputo, en un momento Lorenz cargó los datos

manualmente para el estado del sistema en un tiempo más adelante de la simulación, datos

que ya tenía impresos de una simulación anterior. Lo curioso del caso es que la computadora

que estaba usando redondeaba los números impresos a la tercera cifra decimal, mientras que

la profundidad de cálculo original era de 6 dígitos. Creyendo que esa diferencia de precisión

no iba a afectar el estado general del sistema, Lorenz se encontró con que los resultados eran

muy diferentes de los de la simulación anterior: un pequeño cambio en el valor de las

condiciones iniciales desviaban al sistema de su trayectoria anterior. De ese “error”, las

posibilidades tan consabidas de una mariposa metafórica. En su famoso paper, Lorenz

comentaba acerca de las implicaciones que esto tenía para los intentos de predecir la

atmósfera:

Es posible que dos valores que difieren por una cantidad imperceptible, eventualmente evolucionen hacia dos estados considerablemente diferentes […]. Si, entonces, hay un error cualquiera en la observación del estado presente –y en cualquier sistema real esos errores parecen inevitables– una predicción aceptable de un estado instantáneo en un futuro lejano puede bien ser imposible […]. En vista de la inevitable imprecisión e incompletud de las observaciones del tiempo, las predicciones a muy largo plazo parecen ser inexistentes.53 (Lorenz 1963, 141)

52 Una de las imágenes más asociadas al caos es el llamado atractor extraño de Lorenz y que de manera casual su representación en el espacio de fase tiene la forma de una mariposa. En este trabajo decidimos dejar fuera del centro a la noción de atractor así que la trataremos brevemente aquí. En un sistema dinámico, un atractor es el conjunto de propiedades numéricas hacia los que el sistema tiende a evolucionar. Algunos puntos fijos son atractores. Lo que es interesante del atractor de Lorenz es que se trata de un atractor extraño. Se dice así de un atractor que tiene una estructura fractal y la mayoría de los atractores extraños son caóticos. Dado que un sistema caótico muestra extrema sensibilidad a condiciones iniciales, dos puntos arbitrariamente cercanos en un atractor después de un número de iteraciones quedan arbitrariamente separados pero dentro de los límites del atractor, lo que lleva a que después de un número de iteraciones queden de nuevo arbitrariamente cerca. Por esta razón se dice que la dinámica del sistema es “inestable localmente” aunque a la vez “estable globalmente”. El atractor de Lorenz es geométricamente simple de entender, esto es, el resultado de las ecuaciones diferenciales del modelo se puede entender mediante un modelo geométrico simple. Á la Hilbert, Smale propuso una lista de problemas sin resolver en matemáticas en (1998b), a pedido de Vladimir Arnold cuando era presidente de la unión matemática Internacional. En su lista, el problema 14 es justamente el de demostrar que el atractor de Lorenz es efectivamente caótico. El problema fue resuelto por Tucker (2002) utilizando métodos computacionales, en particular matemática de intervalos y publicado en la revista Foundations of Computational Mathematics. Agregamos la imagen del atractor al final de esta sección. 53 Two states differing by imperceptible amounts may eventually evolve into two considerably different states ... If, then, there is any error whatever in observing the present state — and in any real system such errors seem inevitable — an acceptable prediction of an instantaneous state in the distant future may well be impossible....In view of the inevitable inaccuracy and incompleteness of weather observations, precise very-long-range forecasting would seem to be nonexistent.

55

El uso del término “caos” para referirse a los sistemas de esta clase se debe a Li y Yorke

(1975).

Creemos que desde esta perspectiva histórica una de las preguntas más interesantes que

podemos hacernos es ¿por qué se tardó tanto tiempo en descubrir este fenómeno? Como

esperamos que se pueda apreciar desde los comentarios anteriores, son varias las razones que

notamos para este suceso. Por un lado, aceptado el framework galileano-newtoniano en el que

se daban explicaciones sencillas para sistemas muy simples con comportamiento regular, era

difícil de esperar que la misma matemática pudiera servir para explicar sistemas que se

comportaban de manera tan errática. Uno de los insights más relevantes del caos y de los

sistemas complejos en general es justamente que muchas veces cosas muy simples pueden

lograr resultados complicados. Por otro lado, tenemos que destacar lo compleja que puede

volverse la matemática del caos. Creemos que esto hizo que, de la misma manera en la que en

los libros de texto se hace continuamente hincapié en sistemas lineales que pueden ser

resueltos, algunos “monstruos” matemáticos no han sido estudiados por los matemáticos hasta

tener alguna motivación externa para hacerlo. Muchas veces, esa motivación es la de una

aplicación práctica de la teoría como es el caso de la creación de un modelo matemático para

un sistema físico, como sucedió en el caso del caos. La “falsa idea de complejidad” que

mencionamos antes, el hecho de que parecía necesario algo complejo para general algo

complejo, también estaba presente en la interpretación de ciertos mecanismos físicos, como

el movimiento caótico de las moléculas de un gas. La creencia siempre fue que la razón del

aparente movimiento azaroso de las partículas provenía de la complejidad del sistema (su gran

número de moléculas) y no de una dinámica simple pero inestable, lo que favoreció el

acercamiento estadístico en una primera instancia.54 La aparición de la computadora digital,

sujeta a las limitaciones, algunas de las cuales que ya pudimos explorar, fue la princesa del

descubrimiento: su naturaleza exacta y repetitiva permitía dejar al ruido de lado y “aislar” el

fenómeno en cuestión y, de alguna manera, permitió “ver” lo que Poincaré no pudo ver, ni

dibujar.55 La “verdadera revolución”, que tampoco lo es tal en el sentido kuhnenano, fue la

introducción de la computadora digital cómo método de hacer ciencia, una de las “pequeñas

revoluciones” que causó fue la del descubrimiento del caos.

54 Como ya notamos antes, caos nos obliga a volver a un acercamiento estadístico, pero por otras razones. 55 Dicho sea de paso, al parecer Poincaré era muy mal dibujante.

56

FIG 7: Cómo prometía la nota más arriba, aquí la figura del atractor extraño de Lorenz. No sé Uds pero nosotros vemos más un búho que una mariposa.

57

Today our main problem is that of organized complexity. Concepts like those of organization, wholeness, directiveness, teleology, control, self-regulation, differentiation and the like are alien to conventional physics. However, they pop up everywhere in the biological, behavioural and social sciences, and are, in fact, indispensable for dealing with living organisms or social groups. Thus, a basic problem posed to modern science is a general theory of organization.

Von Bertalanffy (1956)

Capítulo 2: Sistemas Complejos

En este capítulo del trabajo nos proponemos revisar algunos de los conceptos generales que

hacen a la llamada “Ciencia de Sistemas Complejos”, o “Ciencia de la complejidad”, como

suele leerse en algunos lugares. En particular nos veremos obligados a detenernos con más

cuidado que en el capítulo anterior en qué es un sistema y cuál es la riqueza epistemológica

que el estudio de los sistemas en general puede traer. Tras esto, nos detenemos en caracterizar

a los sistemas complejos, notando algunas de sus propiedades más importantes. La tercera

sección de este capítulo se concentra en el concepto de complejidad y en las formas de

medición. Las dos secciones que siguen empiezan a atar cabos, primero atacando la pregunta

de la necesidad del azar y luego especulando acerca de la relación entre las nociones que

hemos presentado: caos, azar, complejidad y computabilidad.

2.1 ¿Qué es un sistema?

Puede decirse que el interés moderno por la complejidad como una ciencia tiene ya un tiempo

con nosotros, aunque muchas veces en las descripciones del campo suelen pasarse por alto

algunos resultados teóricos que hasta fueron redescubiertos por no conocer su existencia. Uno

de estos fue la preocupación temprana de algunos por la noción de sistema, de la que podemos

decir que se empezó a estudiar en 1926 con la tesis doctoral de von Bertalanffy sobre

58

organismos vivos entendidos como sistemas, tesis que inició todo un programa de

investigación que desembocó en la llamada Teoría General de los Sistemas (TGS).56

No es fácil decir qué es un sistema, aunque básicamente podemos entenderlos como una

organización de los “todos”: un complejo de componentes en interacción. Rapoport, uno de

los principales personajes en la línea de la TGS, distinguía dos formas fundamentalmente

diferentes de entender el término en su (1968). Una es la forma analítica de entenderlos, que

es la que proviene de las ciencias naturales y de la ingeniería, concepción inherentemente

atada al uso de métodos y modelos matemáticos, aplicados por lo general a sistemas físicos

simples que buscaban ser entendidos y representados. Más o menos así es como entienden los

físicos actualmente al sentido reducido de “sistema” y es la definición que usamos como base

en nuestra discusión sobre caos. Con Bertalanffy se inicia una nueva forma de entender qué

es un sistema, una manera “organísmica” (organismic) de acercarse a los mismos y que podía

incluir a sistemas más complicados como los sistemas vivos y que Rapoport asocia al estudio

de una diversidad de fenómenos en el mundo biológico y social como todos integrados.

Justamente la idea central de la TGS es mostrar que, en realidad, estas distintas formas de ver

a los sistemas son “complementarias en lugar de alternativas, y revelan distintos aspectos de

una aproximación unificada a la teoría de sistemas”. (Rapoport 1986, 7) Otra distinción que

intenta unificar la TGS es entre una lectura normativista de los sistemas y otra descriptivista.

Epistemológicamente hablando, la primera busca responder el “cómo”, la otra el “para qué”.

Desde la segunda mirada, un sistema es algo interesante en sí mismo. Bajo la otra, un sistema

es una entidad que cumple una función para algo, ya sea un objetivo instrumental específico

(por lo que se lo puede evaluar por su rendimiento) o un objetivo no instrumental en el que el

objetivo del sistema es perpetuar su propia existencia. Al intentar dar una visión generalizada

de todo esto, los proponentes de la TGS la veían como un paso hacia la unidad de la ciencia

(Hofkirchner y Schafranek 2009, 179):

56 Una visión general organísmica de las cosas ya se encontraba en la metafísica de Whitehead (1925). Influenciado por los cambios que en la concepción atómica del mundo introdujo la teoría de la relatividad y la importancia del concepto de campo, Whitehead fue uno de los primeros en sugerir una filosofía de la naturaleza de corte holístico, en el que las entidades que perduran no son consideradas como objetos materiales sino como estructuras de actividad, a las que denominó “organismos”. El término era deliberadamente amplio y cubría tanto a los animales y las plantas como a las moléculas y los átomos. Su visión, pues, propone ver a todos los sistemas como organismos: “la biología es el estudio de los organismos grandes, mientras que la física lo es de los organismos más pequeños”. (Whitehead 1925) Quizás toda metafísica de procesos sea una nota al pie a este libro de Whitehead. De hecho, creemos que el estudio de los sistemas complejos nos inclina a adoptar una metafísica de procesos. Si bien aquí nos concentramos en la idea de sistema que surge con a TGS, de ninguna manera acaba ahí él problema filosófico de qué es un sistema (¡ni hablar de qué es un sistema filosófico!).

59

Su principal objetivo es generar una nueva clase de unidad de la ciencia: no una unidad basada en la reducción de los conceptos, los métodos o, incluso, las leyes de todas las ciencias a los de una sola ciencia considerara como más esencial; sino una unidad formal basada en la generalidad y ubiquidad del concepto de sistema y en los “isomorfismos” que induce entre las ciencias, de las que se garantiza la autonomía lógica y metodológica.57 (Pouvreau y Drack 2007, 283)

Para poder cumplir con este objetivo, la TGS debía cumplir otro, el de mostrar la ubicuidad

de los sistemas en el mundo físico, lo que implica mostrar que “la totalidad de los fenómenos

observables muestran uniformidad estructural” (Bertalanffy 168, 87)

Esta es una de las razones por la que podemos notar conexiones entre el estudio de los sistemas

en general y el estudio de los sistemas complejos; en ciertos aspectos parecen mostrar lo

mismo aunque con distinta forma de acercarse a los problemas. Creemos que la actual Ciencia

de los Sistemas Complejos (CSC) es un subproducto de la preocupación original de la TGS,

por lo que una presentación de la primera sin un repaso mínimo como el que presentamos aquí

de la segunda sería incompleto. Sin embargo no es la preocupación principal del trabajo, por

lo que vamos a continuar ahora con una subclase de sistemas, aquellos llamados complejos y

sus propiedades. Notemos antes que hay una diferencia muy grande entre la CSC y la TGS.

Esta última es mucho más abarcadora y menos científica, en tanto puede verse como un primer

intento de una ciencia de la ciencia. Limitándose a una clase de sistemas, la CSC sólo toma

algunas preocupaciones, aunque no los métodos, de la TGS, e intenta someterlas a un estudio

científico empírico, rastreando características esenciales de esta clase de sistemas, tanto físicos

como abstractos, como es el de su complejidad, que pasaremos a revisar.58

57 Its major goal is to generate a new type of unity of science: not a unity based on the reduction of the concepts, methods or even laws of all sciences to the ones of a single science regarded as more essential; but rather a formal unity based on the generality and ubiquity of the system concept and on the ‘isomorphisms’ it induces between sciences of which the logical and methodological autonomy is guaranteed 58 Algunos trabajos que consideramos fundamentales para el surgimiento del estudio de la complejidad ya fueron mencionados en el capítulo anterior y otros son señalados más adelante. Queremos aprovechar esta nota al pie para señalar otros trabajos igualmente importantes que no deberían ser pasados por alto y que llevaron a la generación de este campo de trabajo. El primero es el de Norbert Wiener, fundador de la Cibernética: la primera exploración sistemática de los sistemas regulativos. En estos sistemas hay un bucle de retroalimentación: hay una acción del sistema sobre el ambiente en el que se encuentra que genera un cambio en el ambiente que de alguna manera se refleja en el mismo sistema. Wiener la definió en 1948 como “el estudio científico del control y la comunicación en el animal y la máquina”. Igual de importantes fueron los trabajos de Warren McCulloch y Walter Pitts que generaron la primera descripción de cómo un cerebro formado por células entendidas como simples pueden dar lugar a patrones tan complejos. La “Neurona de McCulloch-Pitts” es el primer modelo de una red neural artificial, que ya es un campo bastante grande dentro de las ciencias de la complejidad. Por último, señalamos los esenciales trabajos de John von Neumann sobre la teoría de los autómata y su auto-

60

2.2 ¿Qué es un sistema complejo?

Es difícil dar una definición cuantitativa de qué es un sistema complejo, basada en una noción

de complejidad dada. Sin embargo, desde un lado más cualitativo, podemos notar que una de

las mejores definiciones de qué es un sistema complejo se la debemos a uno de los pioneros

en el área, Herbert Simon. En su “The Architecture of Complexity” (Simon 1962), el autor

propone definir a los sistemas complejos como aquellos que “están conformados por un gran

número de partes que tienen muchas interacciones”, notando que “en estos sistemas, el todo

es mucho más que la suma de las partes en el sentido que, dadas las propiedades de las partes

y las leyes de sus interacciones, no es una cuestión trivial inferir las propiedades del todo”.

En esta “definición de trabajo”, los ingredientes principales son:

- Componentes: la mayoría de los sistemas complejos están constituidos por elementos

o unidades que son estructuralmente distintos y que suelen ser un sistema en sí mismos,

es decir que funcionan como individuos que generan un comportamiento local dentro

del sistema y pueden tener una dinámica propia. Algunos de estos componentes que

bajo ciertos niveles de análisis son tomados como individuos pueden, a su vez, ser

descompuestos en subsistemas. Los sistemas pueden ser complejos, entonces, en

diferentes niveles formando distintas jerarquías de componentes casi (nearly)

descomponibles.59 La distinción de jerarquías también indica que muchos sistemas son

irreversibles o que resultan de un proceso tal.

- Interacciones: una de las particularidades de estos sistemas es que justamente no son

un mero agregado de partes sino que éstas forman relaciones entre sí de distintas

clases. Estas relaciones suelen ser dinámicas, lo que produce la integración de los

componentes en tiempo y espacio y da a su organización. Son justamente las

interacciones las que modulan el comportamiento de los distintos subsistemas,

alterando localmente el comportamiento y generando el funcionamiento del sistema

reproducibilidad, en los que se puede encontrar el primer modelo lógico-matemático de la reproductibilidad biológica y deja entrever la necesidad de entender a los mecanismos complejos como manipuladores de información simbólica. 59 Aclaramos y decimos más de esto más adelante.

61

como un todo, lo que implica alguna especie de canal de comunicación entre los

subsistemas. Integridad (la unidad orgánica de su función), la situabilidad

(situatedness) (la depedencia de la dinámica de los subsistemas a la micro/macro

estructura en la que se encuentran) y la integración (estructuras o relaciones

funcionales como loops de retroalimentación) son clases de relaciones en los sistemas

complejos. (Cf. Bishop 2009, 112).

- Emergencia: las interacciones entre los componentes suelen dar lugar a fenómenos o

funciones que no pueden, al menos de una manera trivial, reducirse a las propiedades

de los componentes, sino que son propiedades del sistema. Parte de esto se debe a que

la interacción entre los componentes suele ser no-lineal.

Existe un caso especial de sistemas complejos, los llamados adaptativos que también agregan

la propiedad de que el sistema o al menos algunos de sus componentes modifican su

comportamiento y sus propiedades con respecto al ambiente en el que ven incluídos, lo que

trae como resultado la aparición de nuevas propiedades sistémicas que de alguna manera

reflejan los cambios en el ambiente. Algunos autores sostienen que recién cuando un sistema

tiene esta propiedad se puede decir que es propiamente complejo. Nosotros, sin embargo, los

consideramos un caso especial dentro de los sistemas complejos.

Para el estudio de los sistemas complejos es de particular importancia la noción de jerarquía,

en particular por el rol que la organización del sistema juega en esta clase de sistemas y será

central, a la hora de querer medir la complejidad de uno. Simon (1962) notaba la importancia

de esta noción y entendía por sistema jerárquico o por jerarquía a un sistema que está

compuesto por subsistemas interrelacionados, los cuales tienen, a la vez, una estructura

jerárquica, hasta que se llega a un nivel mínimo. Es importante no pensar en la noción intuitiva

de jerarquía, como la que solemos encontrar en las organizaciones humanas en las que suele

haber un control general (un jefe) y luego distintas unidades hacia abajo en la cadena de

mando. El concepto que quiere introducir Simon es mucho más amplio e incluye sistemas en

los que no hay tal subordinación.60 El punto clave está en el grado de interacción de los

60 Es probable que Simon haya sido influenciado por las ideas de Chomsky (1957) en las que se introdujo la teoría de la estructura jerárquica de la sintaxis de los lenguajes naturales, que surge en el momento en el que estaba naciendo la inteligencia artificial, campo en el que estos personajes fueron pioneros. Si bien hay algo de “ciencia de lo artificial” en esta exploración de jerarquía, Simon insiste en que es algo que se da en la naturaleza, y alguno de los ejemplos que da en favor de esta presentación incluye a la estructura básica de la materia

62

componentes, que suele estar atada a la distribución espacial de los mismos, al menos en

sistemas físicos. Según Simon, la estructura jerárquica permite responder a una de las

preguntas más interesantes sobre estos sistemas: ¿cómo surge un sistema complejo de un

sistema más simple? Esto se debe a la posibilidad de crear estructuras intermedias estables a

medida que el sistema se va complejizando. Si no fuera por este recurso, la aparición de esta

clase de estructuras sería altamente improbable. Esta propiedad de los sistemas de “buscar”

estructuras intermedias está dada por la casi descomponibilidad: la tendencia de los

componentes a interactuar con más intensidad internamente que externamente. Por la

intensidad de una interacción se refiere aquí a que el comportamiento de un componente

depende mucho más del comportamiento de otros componentes que están en la misma

subunidad que de otros que están fuera de ella.

Esta propiedad hace que el sistema pueda ir evolucionando hacia formas más complejas, en

un proceso de ensayo y error similar al de la selección natural. Hay un proceso selectivo que

hace que ciertas estructuras sean “elegidas” para construir un nivel más alto. El punto que

enfatiza Simon, para que quede algo más claro todo esto, es que este proceso depende sólo la

las interacciones, nada tiene que ver la naturaleza del sistema. Es por esto que esta descripción

serviría tanto para un sistema físico como para un sistema social o un sistema biológico. La

estructura jerárquica puede explicar mucho de un sistema complejo, en particular sobre su

robustez y sobre la ausencia de un control central.

Otro tema de profundo interés filosófico que el estudio de los sistemas complejos obliga a

revisitar es el de la emergencia de fenómenos y propiedades y el íntimamente ligado debate

filosófico entre los llamados reduccionistas y los anti-reduccionistas u holistas. En resumidas

cuentas, el dictum reduccionista dice que las propiedades y el comportamiento de un sistema

como un todo está completamente determinado por “lo que pasa allá abajo”, ya sea en un tono

ontológico (sólo existen las propiedades y los estados de las partes) o en un tono epistémico

(el comportamiento y las propiedades se pueden explicar por las propiedades de las partes).

Los anti-reduccionistas atacan al menos una de estas formas de ver las cosas y suelen hacer

referencia al estudio de los sistemas complejos para defender su posición.

(moléculas, átomos, partículas elementales). La fuerza que pareciéramos encontrar para que la naturaleza favorezca la aparición de jerarquías es que la división de tareas facilita las cosas y permite la creación de estructuras estables más complejas. Hay una especie de problem solving en la naturaleza que usa los mismos recursos que usamos nosotros para resolver un problema, recursos que tendemos a tener en cuenta a la hora de diseñar un sistema artificial que resuelva problemas. Nuestra insistencia en esta noción se debe a que parece ser ésta la intuición que permitió iniciar el estudio científico de esta clase de sistemas.

63

Como comenta Hooker (2009a, 28), en la literatura científica se suele hablar de “patrones

emergentes” cuando la interacción dinámica entre los componentes del sistema es

sorprendente, o inesperada, o demasiado complicada, aunque una caracterización de la

emergencia en esos términos es demasiado vaga y subjetiva. Una forma de aclararla sería

poner el hincapié en términos de la predictibilidad y limitar, así, los fenómenos emergentes a

aquellos que no pueden ser predichos antes observar las interacciones, aunque esto haría que

muchos fenómenos que intuitivamente no son emergentes sean considerados como tal dados

los límites que tenemos para hacer predicciones. Es justamente a través del estudio de los

sistemas complejos que se puede llegar a una visión alternativa en la que el énfasis esté puesto

en la dinámica. Por ejemplo, se podría tomar el caso de una bifurcación como criterio para

identificar una emergencia, o identificarla con la auto-organización, ya que en estos dos casos

existe una nueva dinámica apreciable. Ésta es esencialmente la postura de Hooker:

Sólo mediante la apelación a la dinámica se puede explicar la relación entre un nuevo emergente y los componentes constituyentes de manera que se le dé coherentemente existencia distintiva a la entidad emergente y no se comprometa la fundamentalidad de los componentes, especialmente para emergentes auto-organizados. […] Es por esto que los sistemas complejos son tan importantes para la reducción y la emergencia: sólo en ellos encontramos las sutiles relaciones dinámicas que les hacen frente a nuestros esfuerzos formales y nos llevan a mejorar nuestro entendimiento.61 (2009b, 198)

2.3 Complejidad

Las primeras subsecciones presentan dos conceptos teóricos sobre los que se elaboran luego

las definiciones de complejidad que podemos encontrar en la literatura, por lo que pasamos a

explorar primero estos resultados, que también nos ayudarán a elucidar la conexión entre el

estudio de los sistemas complejos y la ciencia de la información. El primer concepto sobre el

que nos detendremos en este “excurso” es el de información de Shannon. El segundo es el de

61 Moreover, only through appeal to dynamics can the relation between a new emergent existent and its constituting components be explained so as to coherently both give distinctive existence to the emergent entity and not compromise the fundamentalness of the components, especially for self-organised emergents [...] This is why complex systems are so important to reduction and emergence: uniquely in them we find the subtle dynamical relationships that confront our formal efforts and drive us to improved understanding.

64

Complejidad de Kolmogorov. Luego intentamos mostrar distintas formas de medir la

complejidad de un sistema, viendo los alcances y limitaciones de éstas para dar una versión

cuantitativa de qué es la complejidad.

Información de Shannon

Shannon (1948) y Shannon y Weaver (1949) son los trabajos fundamentales de esta noción,

que básicamente dice que la entropía H de una variable discreta al azar X es una medida de la

incerteza asociada al valor de X. La preocupación de Shannon era poder cuantificar la cantidad

de información en un mensaje para poder optimizar los métodos usados para transmitir el

mensaje, por lo que poco le importaba la semántica del mensaje, en el fondo era un problema

de ingeniería.

Si suponemos un portador de información, sin importar su naturaleza, cualquier intento de

medir esa cantidad de información debería atender a estas intuiciones (Adrieens 2012):

-La información es extensiva: un mensaje más largo contiene potencialmente más

información.

-La información reduce la incerteza: a medida que la información aumenta, la incerteza que

tenemos acerca de algo disminuye. Por ejemplo si tenemos máxima certeza acerca del estado

de algo, ya no podemos obtener más información al respecto. De aquí la sugerencia de

conectar información con la probabilidad: si estamos absolutamente ciertos que un evento A

va a suceder porque tiene probabilidad 1, la información de A es 0. Las estructuras

improbables contienen más información que las probables.

Esto llevó a Shannon a formalizar esta relación inversa entre probabilidad e información en la

siguiente fórmula para un conjunto de mensajes:

𝐻𝐻(𝑋𝑋) = −�𝑃𝑃𝑟𝑟(𝑥𝑥)𝑙𝑙𝑙𝑙𝑙𝑙2𝑃𝑃𝑟𝑟(𝑥𝑥)𝑥𝑥∈𝐴𝐴

donde A es el conjunto de mensajes y Pr(x) es la probabilidad del mensaje x en A. Usar

logaritmo en base 2 nos asegura que la medida queda expresada en bits. Si todos los mensajes

65

tienen la misma probabilidad, la entropía es máxima. La cantidad de información en un

mensaje simple x está dada por -log Pr(x), que satisface las intuiciones que mencionamos

antes. Quizás la forma más simple de ver por qué la entropía de Shannon es una medida de la

aleatoriedad de una distribución probabilística es relacionarlo con el ejemplo clásico de la

probabilidad: tirar una moneda. Una moneda tirada al azar básicamente tiene dos posibilidades

de resultado, por lo que se puede expresar como una variable binaria. La máxima entropía

para la moneda es H=1 bit, lo que significa que cada valor es igual de probable. Si de alguna

manera modificamos la moneda, o nuestro sistema de lanzamiento para que la probabilidad

de que la moneda quede en número sea 0.8, la entropía del sistema disminuye a 0.72 bits.

Estamos frente a menos información, porque “el grado de sorpresa” disminuyó. Aumentar la

probabilidad de número a 0.9 y de cara a 0.1 lleva a la entropía a 0.47 bits. Quizás sea bueno

también mencionar que la entropía de Shannon no mide la información de un objeto sino de

un objeto entre un conjunto de los mismos, por estar definida sobre una distribución de

probabilidad. Es decir que se está midiendo el nivel de “sorpresa” que tal objeto le produce a

un receptor que toma ese objeto del conjunto, siendo la sorpresa inversamente proporcional a

la probabilidad.62

Complejidad de Kolgomorov

Independientemente, Kolmogorov, Chaitin y Solomonoff desarrollaron en los años ‘60 lo que

hoy se conoce como Complejidad de Kolmogorov o Teoría Algorítmica de la Información.

Una de las principales ventajas que tiene, frente a, por ejemplo, una descripción de la

información a la Shannon, es que combinando nociones de computabilidad y estadística puede

dar cuenta de la complejidad de un objeto en particular, sin considerar un conjunto de objetos.

62 Sólo recientemente la filosofía de la información se ha dedicado a explorar las definiciones cuantitativas de la información, aunque todavía parecen dominar las exploraciones en torno a nociones semánticas de la información. Cf. también la nota 16 supra. Se dice que la conexión con la entropía de Boltzmann y la insistencia en usar ese nombre le fueron señalados a Shannon por von Neumann, quien al parecer insistía en que lo mejor de usarlo era que nadie iba a entender de qué se estaba hablando. Y como parece que hasta el caos termina en la información, el mismo Gleick le dedica su último libro de divulgación a la teoría de la información. (Gleick 2011) Dretske (1982) es la primera exploración filosófica de la definición de Shannon. Armado con esta noción, Dretske revisa y ataca varias de las nociones intencionales tales como conocimiento, creencia, percepción, conceptualización y sentido (meaning), viendo a la información como un objeto natural y objetivo; independiente de procesos interpretativos. Es interesante su comentario acerca de la noción de sentido, según el cual pese a que el sentido, como una característica de un estado psicológico, presupone cierta actividad cognitiva, surge del flujo de la información en un simple procesador físico de información, además de resultar de los requisitos adaptativos del mismo. (Dretske 1982, vii). Dado el particular punto de partida que toma, consideramos que es una buena introducción para personas con una formación más bien formal a cuestiones que han sido centrales en la filosofía analítica del siglo XX.

66

Esta “complejidad” es la descripción mínima de la que puede reconstruirse la totalidad del

objeto, normalmente considerando como descripción al programa binario más corto que puede

producir como resultado el objeto en cuestión. Lo primero a señalar es que esta clase de

complejidad es distinta a las nociones clásicas de complejidad computacional, que es una

clasificación de los algoritmos en términos de su costo temporal (el tiempo que tarda computar

una función para cierto valor de entrada) o de su costo espacial (la cantidad de memoria que

el algoritmo necesita durante su ejecución). En cambio en esta teoría lo que es central es el

tamaño de la descripción misma, no la dificultad de correrla.

Como decíamos, la teoría nos lleva a asociar a todos los objetos con una secuencia (string) en

el lenguaje binario que los representa. Si el objeto que queremos describir es un número, la

expansión en binario del mismo es la secuencia que lo describe. El punto está en qué tanto es

posible comprimir una descripción, hasta volverla la más corta posible para ese objeto. El

conjunto de los números pares, por ejemplo, es un conjunto grande (infinito, de hecho); sin

embargo es fácil de describir con un programa bastante corto, dado que hay un patrón muy

simple de encontrar para ese conjunto. En cambio, un conjunto de números al azar, o los

dígitos de la mayoría de los números irracionales, son irreducibles en tanto la descripción más

corta es la misma secuencia de caracteres.

Como en lo que sigue nos limitaremos al uso de esta teoría para una medida de la complejidad,

notamos aquí algunos resultados que la hacen filosóficamente muy interesante como resultado

en sí misma. Por un lado, una de las motivaciones que llevó a Solomonoff a la teoría fue el

problema presentado por Carnap de cómo relacionar un conjunto de enunciados a un conjunto

de observaciones y definir la probabilidad correspondiente, una de las caras del viejo problema

de la inducción. Hutter (2005) sostiene que la teoría resuelve efectivamente el problema de la

inducción, además de varias cuestiones filosóficas asociadas.63 Además propone una versión

moderna de la navaja de Ockham. Nos permite especificar el contenido informacional de

cualquier objeto matemático, hasta de un número natural. Adriaans (2007) la utiliza para

construir una teoría del aprendizaje como compresión de datos. Y hasta nos permite dar una

medida del valor predictivo de una teoría. Uno de los problemas con esta teoría en sí es que

63 El programa de Hutter está enmarcado en un programa general de inteligencia artificial, explotando formalmente la teoría de Solomonoff. El punto central consiste en llevar formalmente el problema de la inducción a un problema de predicción de secuencias, en conjunto con una interpretación subjetivista de la probabilidad por lo que el teorema de Bayes se vuelve central. Estimamos que “resolver el problema de la inducción” es un título un tanto propagandístico, más o menos equivalente a decir que el modus ponens en la formalización de la lógica clásica resolvió el problema del razonamiento deductivo.

67

no es computable, aunque puede ser aproximada por un algoritmo del que se desprende la

llamada complejidad de Lempel y Ziv, que es un cociente entre la longitud del programa y la

de la secuencia original. (Lempel y Ziv 1978). Quizás sea la naturaleza técnica de la teoría la

que haya hecho que no sea muy considerada en la literatura filosófica general.

Midiendo la complejidad

Una interesante taxonomía de las distintas definiciones de complejidad que han aparecido en

la literatura es Lloyd (2001). En este pequeño artículo, Lloyd comenta que si bien es cierto

que ha habido una multiplicación en las formas de medir la complejidad, este hecho no debe

ser considerado como indicador de confusión en el campo de los sistemas complejos. La razón

es que detrás de todas esas medidas que surgen en los distintos campos de aplicación, las

preguntas a las que se está intentando responder son las mismas y pueden usarse como una

clasificación de las medidas de este concepto. Las preguntas que él señala, y que nos parece

que constituyen una buena delimitación de la idea, son:

-- ¿Qué tan difícil es describir X?

--¿Qué tan difícil de crear es X?

--¿Cuál es el grado de organización que tiene X?

Vamos a elaborar sobre las que nos parecen más interesantes de la “lista no exhaustiva” que

propone Lloyd. De alguna manera la primera pregunta fue la que guio a las primeras

investigaciones en complejidad: los primeros intentos de una definición apuntaban a responder

esta pregunta y son ejemplos de esta forma de medirla los ejemplos que vimos de la

información de Shannon y de Complejidad de Kolmogorov. Nos detenemos ahora en algunos

casos paradigmáticos de respuestas a las dos preguntas que quedan.

Profundidad lógica

Dentro de las respuestas a la segunda pregunta, la primera que visitamos en la noción de

profundidad lógica elaborada por Charles Bennett en Bennett (1988). Esta noción se distingue

de las nociones de complejidad que antes trabajamos porque intenta dar cuenta de la noción

un poco más intuitiva de que algo que es complejo o profundo tiene una historia de creación

que lo hace así. Por ejemplo, si tomamos un libro de lógica matemática o de teoría de

68

conjuntos, nadie diría que es un libro “simple”. Rehacer todas las pruebas de todos los

teoremas es algo que hasta a un experto le llevaría bastante tiempo; sin embargo, en tanto

todos estos se deducen de un conjunto pequeño de axiomas, la complejidad de Kolmogorov

de dicho libro es baja. Lo que explota la intuición esa de “complejo” es la historia causal que

tienen los objetos, y los que intenta capturar la medida de Bennett. Para hacer explícita esta

historia causal del objeto, Bennett utiliza el lenguaje de la teoría algorítmica de la información

(TAI): para producir un objeto complejo o profundo se requiere, generalmente, un largo

proceso causal. “Generalmente” porque un objeto de esta clase bien podría ser generado por

un proceso causal corto sólo que con probabilidad muy baja. La idea, pues, es lograr una

medida de la plausibilidad de la historia causal que explica a un objeto: ¿por qué es una mejor

explicación del hecho de que encontré un caracol enterrado en la arena la última vez que estuve

en la playa que el mar lo haya traído después que se haya formado de tal y tal manera tanto

tiempo antes que una explicación del tipo: “cuando excavaba en la arena los átomos de ésta

se reconfiguraron y de pronto un caracol”? Para responder a esta pregunta, Bennett usa la

TAI. El programa más corto que genere una secuencia de símbolos que represente al caracol

es a priori la mejor descripción posible del origen del mismo. El caso de la reconfiguración

de los átomos equivaldría a un programa del tipo “Imprimir(Caracol)” que es más o menos

equivalente a decir “¡Hey, acá ocurrió un caracol!” que no nos dice nada acerca de cómo

obtener uno.64

Dice Bennett:

El trabajo plausible involucrado en crear un mensaje, entonces, es la cantidad de trabajo requerido para derivarlo de una causa hipotética, sin involucrar supuestos innecesarios y ad-hoc. Es esta noción de mensaje la que la profundidad [lógica] intenta formalizar.65 (1988, 230)

Dicho sea de paso, la propuesta de Bennett también nos deja medir lo ad-hoc que es una

afirmación en una hipótesis, midiendo la diferencia con el programa mínimo: una

hipótesis/programa que haga uso de cláusulas ad-hoc como afirmación sin derivar

directamente de una explicación más simple que sea n-bits más largo que el programa de la

hipótesis mínima sufre de n-bits de “ajuste ad-hoc”.

64 Cómo hacer uno. Bien se puede obtener uno yendo a la playa. 65 The plausible work involved in creating a message, then, is the amount of work required to derive it from a hypothetical cause involving no unnecessary, ad-hoc assumptions. It is this notion of the message value that depth attempts to formalize.

69

La profundidad lógica puede definirse así:

PL: Una secuencia x es profunda con respecto a b y d si y sólo si d es el mínimo tiempo

necesario para un programa b que es incompresible para que éste imprima a x.

Como vemos, la profundidad lógica de un sistema está también determinada por el tiempo de

ejecución del programa que lo produce. Bennettt usa un lindo ejemplo con los dígitos de pi

para mostrar la diferencia entre objetos que son algorítmicamente complejos y lógicamente

profundos: un programa del tipo Imprimir(Pi) tiene una complejidad algorítmica alta pero en

realidad se ejecuta muy rápido por lo que no es lógicamente profundo como un programa que

compute los dígitos de pi, aunque este sea un programa corto necesitará más tiempo de

ejecución que el anterior por lo que es lógicamente profundo. Más “complejo”, si se acepta

esta forma de medir la complejidad de un objeto matemático.

Quizás uno de los problemas que sufre esta forma de medir complejidad es estar basada en

una teoría que se sabe que no es computable, por lo que en términos prácticos parece hacerla

correr en desventaja. El otro problema que tiene es que sólo mediante la identificación con un

programa que lo genere, esta medida puede decirse que mida la complejidad de un sistema

físico o de un proceso dinámico existentes realmente.

Profundidad termodinámica

La idea de complejidad como profundidad termodinámica fue introducida por Lloyd y Pagels

(1988), y sigue en la línea de la profundidad lógica en tanto la noción básica sigue siendo que

la complejidad está ligada a la dificultad de producir algo: la complejidad de, por ejemplo, dos

especímenes de una misma clase de planta debería ser apenas mayor que la complejidad de

un único espécimen: es fácil lograr copias cuando ya se tiene el objeto pero la dificultad está

en el proceso de conseguir que la planta llegue a ese estado. Comentan que “[la complejidad]

es una propiedad de la evolución de un estado, y no de un estado en sí; desaparece para los

estados ordenados y desordenados, es una cantidad física y universal”.66 (Lloyd y Pagels 1988,

187)

66 [Complexity] is a property of the evolution of a state and not of the state itself, it vanishes for ordered and disordered states, it is a universal, physical quantity

70

Los autores consideran el conjunto de historias o trayectorias que resultan en el objeto bajo

estudio. Una trayectoria está definida como un conjunto ordenado de estados macroscópicos

{ai, bj, ... , ck}. Si lo que queremos estudiar es la complejidad de un estado d, bajo esta

concepción debemos mirar todas las trayectorias que terminan en un estado d y ver sus

probabilidades. Así, la profundidad termodinámica de d está determinada por la probabilidad

de la trayectoria {ai, bj, ... , ck,..., d} por la que se pudo llegar a d. À la Shannon, la PT(d)

queda deteminada por

𝑃𝑃𝑃𝑃(𝑑𝑑) = −𝑘𝑘𝑃𝑃𝑟𝑟(𝑎𝑎𝑖𝑖, 𝑏𝑏𝑗𝑗 , . . . , 𝑐𝑐𝑘𝑘, . . . ,𝑑𝑑)

en donde k es una constante arbitraria. Para el programa de los autores, lo conveniente es

reemplazarla por la constante de Boltzmann para lograr la conexión entre la teoría de la

información y la mecánica estadística. Justamente en esta conexión está la riqueza de la

definición, pero también la mayoría de sus problemas. Uno es precisamente cómo debe

interpretarse a la probabilidad en este caso. Los autores afirman que lo mejor es descartar una

lectura subjetivista de la misma, dada la conexión experimental:

Pese a que la complejidad depende del conjunto de experimentos que determinan cómo un sistema llega a un estado dado, la medida como está definida no es subjetiva: dos físicos diferentes, frente a los mismos datos experimentales, le asignarán la misma complejidad al estado.67 (Lloyd y Pagels 1988, 190)

En realidad, la interpretación de la probabilidad en la definición hereda toda la discusión

acerca del rol de la misma en la física estadística,68 en la que todavía no hay consenso pero

muchos autores proponen una lectura epistémica de la misma. Pero sin duda el mayor

problema con esta forma de medir complejidad es que no mide la complejidad de un objeto

como se propone hacerlo. Esto se debe a que tal y como lo hace la función de la teoría de la

información de Shannon, la profundidad lógica termina midiendo la cantidad de azar creada

por el proceso generativo que termina en el objeto cuya complejidad queríamos medir, al

punto que no puede distinguir sistemas regulares u ordenados de sistemas aleatorios, algo que

cabría esperar de cualquier intento de capturar la noción de complejidad.

67 Although the complexity depends on the set of experiments that determine how a system reaches a given state, the measure as defined is not subjective: two different physicists given the same experimental data will assign the state the same complexity. 68 De hecho los términos que usan provienen de ahí, como trayectoria, espacio de fase, estado macróscópico/microscópico, etc.

71

Complejidad efectiva

El gran físico Murray Gell-Mann, estando ya más cerca del jaguar que del quark, propuso otra

forma de medir la complejidad de una entidad, a la que llamó complejidad efectiva y es

Una medida que corresponde mucho mejor con lo que usualmente se quiere decir con complejidad, tanto en el discurso ordinario como en el científico, se refiere no a la longitud de la descripción más concisa de una entidad (lo que básicamente es el CIA69), sino a la longitud de una descripción concisa de un conjunto de las regularidades de la entidad.70 (Gell-Mann 1995b, 2)

Para poder obtener la complejidad efectiva de un objeto es necesario, entonces, observar la

descripción más corta no ahora del objeto sino de un conjunto en el que el objeto suele estar

incluido. Si bien es cierto que “no puede existir un procedimiento para encontrar el conjunto

de todas las regularidades de una entidad” (Gell-Mann 1995b, 2),71 sí es posible capturar

algunas clases de regularidades y sobre la descripción (usualmente en una secuencia) de éstas,

calcular la complejidad de Kolmogorov y compararlas con la CK del conjunto entero, cuya

CK es la longitud del programa más corto que lista todos los miembros del conjunto y sus

probabilidades. La medida que resulta es la complejidad efectiva del objeto y como está

pensada para medir las regularidades en una secuencia en lugar de la longitud de la descripción

en sí, es una medida del grado de organización del sistema en estudio, no de la dificultad de

creación, como lo eran las medidas que vimos anteriormente. El mismo Gell-Mann sin

embargo sostiene que la profundidad lógica y la complejidad efectiva son cantidades

complementarias. Por ejemplo, la CE de un conjunto de datos puede ser muy alta si no tenemos

acceso al detalle que se puede obtener mediante una computación muy simple como es el caso

del conjunto de Mandelbrot. Para entender este objeto es mejor ver su profundidad lógica que

su complejidad efectiva. De todas formas es en una clase relativamente baja de casos en los

que la aparente complejidad de un objeto se debe a una simplicidad subyacente y a cierta

cantidad de profundidad lógica, y Gell-Mann sostiene que lo intrincado de la naturaleza del

69 Gell-Mann llama Algoritmhic Information Content (AIC, o CIA en español) a lo que nosotros hemos llamado Complejidad de Kolmogorov. 70 A measure that corresponds much better to what is usually meant by complexity in ordinary conversation, as well as in scientific discourse, refers not to the length of the most concise description of an entity (which is roughly what AIC is), but to the length of a concise description of a set of the entity’s regularities. 71 Lo que hace que esta definición sea también no computable.

72

mundo no proviene de esta cantidad sino de la “incesante operación del azar” que él atribuye

a la estructura cuántica de las cosas y a la naturaleza probabilista de la mecánica cuántica. Así,

la complejidad (efectiva, en este caso) del universo mismo no se debe a un algoritmo con

cierta profundidad lógica sino a una serie de “accidentes congelados” que acumulándose en

el tiempo dan lugar a las regularidades que observamos hoy.

Creemos que ésta es la definición de complejidad que empieza a dar la clave, primero por

concentrarse en el grado de relación y segundo por dejar entrever una característica que parece

estar presente en todos los sistemas complejos: la necesidad de una elección. El azar es un

buen mecanismo para lograr que un sistema haga algo distinto, aunque todavía no esté muy

claro que sea la naturaleza cuántica de las cosas la que sea necesaria como fuente del azar.

Incluso en niveles de descripción mucho más “altos” somos capaces de encontrar razones que

hagan que un sistema “elija” algo, como puede ser el caos que estudiamos antes.

Complejidad estadística

Sin ser tan explícitos, en el capítulo anterior sobre caos mencionamos a esta forma de medir

la complejidad, que fue introducida por Crutchfield y Young (1989) para medir la cantidad de

información procesada por un sistema dinámico no lineal, y se enmarca en un framework

teórico conocido como mecánica computacional. El secreto de esta media está en usar una

técnica de reconstrucción de estados causales que da lugar a un modelo mínimo de un sistema,

llamado “máquina épsilon”. A este modelo se puede llegar desde datos empíricos o desde una

descripción probabilística del comportamiento del sistema, resultando en una representación

de los procesos que llevaron a la generación de dicho comportamiento.

Veamos brevemente cómo se realiza el procedimiento y cómo mide la complejidad. Los datos

que se obtienen empíricamente de sucesivas observaciones o que provienen de una descripción

probabilista se traducen en una serie consecutiva de símbolos, que se agrupan en la misma

clase de equivalencia si tienen la misma probabilidad de dar lugar a una dinámica específica

para el sistema. Es decir que si dos secuencias de símbolos (dos historias posibles de la

dinámica) están contenidos en el mismo estado causal, la probabilidad condicional de

cualquier otro símbolo futuro es el mismo para cualquiera de las historias que se consideran.

El concepto de estado causal tiene toda la apariencia humeana que pueda dársele:

73

Queremos que nuestras representaciones de patrones en procesos dinámicos sea causal —poder decir cómo un estado de cosas lleva a o produce otro. Pese a ser una propiedad clave, la causalidad entra en nuestro desarrollo sólo en un sentido extremadamente débil, el más débil que podemos usar matemáticamente, que es el de Hume: una clase de eventos causa otra si la última siempre sigue a la primera; el efecto invariablemente le sucede a la causa. Como buenos indeterministas, en lo que sigue reemplazamos esta noción de sucesión invariante de la causalidad por una más probabilista, poniendo una distribución homogénea de sucesores en el lugar de un sucesor invariable solitario.72 (Crutchfield y Shalizi 2001, 824)

Una vez que estos estados causales han podido ser identificados, es posible reconocer la

probabilidad de la transición entre los estados causales y así calcular la distribución de

probabilidad a largo plazo sobre todos los estados causales. Y es precisamente aquí que se

puede medir la Complejidad Estadística del proceso como:

𝐶𝐶𝐶𝐶 = 𝐻𝐻(𝑆𝑆)

que no es otra cosa que la entropía de Shannon H de la distribución de estados causales S.

Como vemos, la medida es derivada de la máquina épsilon que es un modelo mínimo de la

organización de un proceso, por eso lo que mide es precisamente el grado de organización o

estructura del mismo. Para que un sistema sea complejo bajo esta mirada, debe poseer muchos

estados causales lo que implica que el sistema tiene regularidades. ¿Qué sucede si usamos esta

técnica para medir un proceso al azar? Si usamos la complejidad de Kolmogorov o por

ejemplo la Profundidad Termodinámica para medir una secuencia de símbolos al azar, éstas

resultarían en alta complejidad por, como vimos antes, estar midiendo el azar en la secuencia.

En cambio, la complejidad estadística de una secuencia al azar es cero mientras que es alta

para secuencias que tienen estructura o dependencias estadísticas. Como sostienen Crutchfield

y Shalizi, “cuando usamos la palabra ‘complejidad’ queremos decir grado de patrones, no de

azar” (2001, 824). Una de las ventajas de esta medida que puede ser calculada analíticamente

para algunos modelos matemáticos abstractos como nuestro ya conocido mapa logístico,

72 We want our representations of patterns in dynamical processes to be causal—to say how one state of affairs leads to or produces another. Although a key property, causality enters our development only in an extremely weak sense, the weakest one can use mathematically, which is Hume’s: one class of event causes another if the latter always follows the former; the effect invariably succeeds the cause. As good indeterminists, in the following we replace this invariant-succession notion of causality with a more probabilistic one, substituting a homogeneous distribution of successors for the solitary invariable successor.

74

automata celulares y procesos de Markov, y procesos computacionales existen para algunos

sistemas un poco más complicados como la turbulencia atmosférica, la configuración de las

proteínas y la auto-organización.

Si aceptamos que ésta es una buena definición de complejidad, podemos seguir a Ladyman et

al (2013) en dar una definición cualitativa de sistemas complejos de la siguiente manera:

Def. Sistema Complejo: Un sistema es complejo si puede producir una secuencia de datos

con Complejidad Estadística alta.

Ahora bien, ¿captura esta definición de complejidad las características de los sistemas

complejos? Seguimos a Ladyman y otros en que sí lo hace, al menos parcialmente. Notamos

aquí solamente la conexión entre esta medida y la importante noción de jerarquía en un sistema

complejo. Una estructura jerárquica tiene la capacidad de producir muchas simetrías que son

las que definen a un conjunto de datos como complejo, según Crutchfield y Young (1990).

Estas “simetrías” son una noción generalizada de estructura e interacción y corresponden, por

ejemplo, a las frecuencias bajas y altas que están asociadas con los diferentes niveles de las

jerarquías que describe Simon (1962). (Cf. Ladyman et al 2013)

La complejidad, en resumidas cuentas, expresa el grado en el que los componentes de un

sistema se presentan en interacciones organizadas y estructuradas, aunque algunas de estas

provengan de interacciones desordenadas.

2.4 La necesidad del azar, la necesidad de la complejidad.

En la literatura científica acerca de la complejidad se repite la frase “la complejidad está entre

el orden y el desorden”, frase que suele estar acompañada por un gráfico como el de la figura

siguiente.

75

FIG 8: Los sistemas complejos están entre el orden y el desorden. (De Huberman y Hogg 1986, 377)

En nuestra discusión anterior hemos visto cómo una de las mejores definiciones de

complejidad, la de complejidad estadística, da cuenta de esta idea intuitiva, cosa que no hacían

las definiciones que “confundían” complejidad con desorden/aleatoriedad. La pregunta que

pretendemos responder ahora es la que de alguna manera estuvo guiando nuestra investigación

desde el principio: ¿por qué la complejidad necesariamente juega un juego de azar? ¿Por qué

la aleatoriedad es mencionada por todos como fundamental para la complejidad? Creemos que

la respuesta es que es la única manera en la que un universo y las cosas en él pueden cambiar.

El problema es que si todo cambia todo el tiempo, nada queda. Esto no es más que el viejo

debate filosófico entre Parménides y Heráclito, puesto en términos más matemáticos y al que

ahora podemos ver en una dimensión mucho mayor.

En esencia, el azar es necesario para lograr entidades complejas y para que puedan mantenerse,

para que las mismas interacciones sean lo suficientemente estables para dar lugar a

interacciones, y para que las mismas interacciones puedan darse. Hay un bucle extraño y

complejo entre orden, desorden y organización. El azar es justamente lo que permite que los

sistemas físicos posean una fuente de variabilidad sobre los que ejercer una búsqueda de

estructuras estables, en un proceso continuo que básicamente es una pelea contra la segunda

ley de la termodinámica. Los sistemas complejos, pues, nunca son estáticos sino que requieren

de algo que los haga mantener su complejidad y lo que lo logra es la posibilidad de un balance

entre interacciones de distintos niveles, interacciones que son posibles gracias al azar. Una

estructura estable está completamente ordenada, no hay posibilidad de cambios salvo por

alguna fuerza externa que la saque de ese estado. Un proceso completamente desordenado no

76

puede producir nada interesante. La interacción entre estos dos opuestos da lugar a la

complejidad, y el azar la mantiene. 73

Para ponerlo en términos un poco más analíticos, el azar es una forma de cambiar las

condiciones iniciales de un sistema, desde el sistema mismo: cumple el rol de sondear las

diferentes potencialidades de un sistema al permitir interacciones que, en ausencia de

variabilidad sólo podrían haberse dado con muy alta improbabilidad.74 Esto es lo que

queríamos decir cuando más arriba mencionamos que en los sistemas complejos hay siempre

una elección.

2.5 Caos, azar, incomputabilidad, complejidad.

Desde un lado un poco más especulativo y filosófico, el fenómeno de caos nos permite mostrar

que conceptos en principio tan dispares como el de azar, el de computabilidad y el de

complejidad están ligados.

Caos y azar

Hasta el descubrimiento del caos, azar y determinismo eran comportamientos que se creían

completamente opuestos. De alguna manera, ahora el caos nos fuerza a verlos como

complementarios, de la misma manera en la que nos obliga a ver que las descripciones

probabilistas de un sistema son complementarias a la descripción determinista del mismo. Una

de las razones por la que esto es así es porque desde el punto de vista del observador, un

proceso caótico determinista puede ser completamente equivalente a arrojar una moneda. Esta

dualidad también está presente en los sistemas complejos.

Intentemos mostrar ahora cómo un proceso caótico efectivamente da lugar al azar, el mismo

de arrojar una moneda. Existe un mapa unidimensional muy simple que se llama el “mapa de

la carpa” [tent map] por cómo queda representado cuando se lo grafica, y está definido como

xn + 1= 2xn para valores de xn mayores que 0 y menores a ½ y como 2(1-xn) para valores de xn

iguales o mayores a ½ y menores a 1. Este mapa es matemáticamente equivalente a nuestro

mapa logístico con r=4, por lo que también presenta un comportamiento caótico cuando las

73 Esta es nuestra interpretación de la visión de Morin (1977) 74 Uno nunca debería descartarla posibilidad de un meteorito. Aunque eso es azar, de nuevo. Desde fuera del sistema, sí, pero dentro de otro sistema complejo más grande.

77

condiciones iniciales son números irracionales.75 Como sabemos que los números irracionales

son muchos más que los números racionales, si tomamos un número al azar del intervalo [0,1]

bajo una distribución uniforme, lo más probable es que obtengamos un número irracional. Si

a esto le sumamos que por una simple convención podemos fijar que si el valor siguiente del

mapa es mayor a ½ es “cara” y si es menor “número”, estamos frente algo realmente

indistinguible de lo que podríamos llamar “azar verdadero” y que sin embargo es aleatorio, lo

que pone en jaque la tesis intuitiva de que un comportamiento aleatorio necesariamente

implique la presencia de algo indeterminado.

Como también hemos visto que caos es un fenómeno que aparece en sistemas físicos, en

principio podemos decir que esta “peculiar” aleatoriedad no es sólo producto de la

representación matemática que usamos, lo que hace al caos a una fuente de azar para los

sistemas complejos.

Azar e (in)computabilidad

No nos hemos concentrado en la noción de computabilidad en este trabajo y queremos hacer

ahora algunas conexiones entre esta noción y la de azar. De hecho creemos que es sólo

mediante la computabilidad que podemos atacar matemáticamente al azar, que antes sólo

había sido atacado en términos de la teoría de la probabilidad.76 No sólo esto, el azar nos dice

algo acerca de los límites que nuestro conocimiento matemático puede tener. La teoría

algorítmica de la información, creemos, es una de las mejores herramientas matemáticas para

ver las conexiones entre estos dos aspectos. Ya vimos que la manera de estudiar un objeto que

tiene esta teoría es mediante su representación en secuencias de bits y que los objetos más

simples en cuanto se pueden comprimir. Los objetos incompresibles son efectivamente

azarosos porque no poseen una descripción más corta posible. Algunos números irracionales

son computables, en el sentido en que existe un programa que nos da sus dígitos, pero la

mayoría de ellos son incomputables. ¿Cómo se relaciona todo esto? Volvamos a nuestro

modelo matemático con el que empezamos todo: el mapa logístico (o el matemáticamente

75 Este mapa también es interesante de estudiar porque su dinámica se puede comprender viendo la expansión binaria de las condiciones iniciales, detalles que omitimos por el momento. Obviamos también la prueba de la equivalencia entre los dos mapas, ya bastante nos hemos aprovechado de los lectores con el formalismo matemático. 76 La teoría de la probabilidad nos permite hablar de las leyes matemáticas que rigen a los eventos fortuitos pero en ello asume al azar, no lo define.

78

equivalente que vimos recién). Si el estado inicial del mapa logístico es un número

computable, sabemos que existe un programa que puede caracterizar cualquier posible estado

futuro del sistema. Esto no sería posible si el estado inicial del sistema hubiera sido un número

no computable. La pregunta por el caos en un sistema bien puede hacerse en términos de la

computabilidad del estado inicial.

Si esto ya parece darnos un límite insuperable en nuestra capacidad de conocer acerca del

mundo usando la matemática y la computación, veamos ahora un límite más fuerte que

proviene de pensar con la misma teoría y son los resultados de Gregory Chaitin, expandiendo

los resultados de Gödel sobre incompletud y de Turing sobre computabilidad. La idea

principal de la postura de Chaitin es que si bien es cierto que hay más números azarosos o

algorítmicamente indescriptibles que números que no son de esta forma, no podemos

distinguir entre ellos. Chaitin prueba que cualquier programa que tenga por función encontrar

patrones en una secuencia de datos (es decir que los datos son comprimibles), siempre va a

existir alguna secuencia de datos comprimible para la que ese programa no va a poder

encontrar un patrón del que pueda surgir. Un programa no puede reconocer un patrón más

complicado que el mismo.

Si aceptamos la tesis de que uno de los objetivos de la ciencia es hacer modelos que sean más

sencillos que los fenómenos que quiere explicar, estos resultados ponen un límite máximo a

la empresa científica. Límites que afectan tanto a los científicos, como a los matemáticos el

resultado de Gödel, pero que da para pensar a los filósofos que les gusta visitar los límites.

De vuelta al caos

La computación es un fenómeno independiente del hardware sobre la que corre y existen

muchos modelos de máquinas que computan. Algunos de estos modelos son físicos, como el

modelo del billar de Fredkin y Toffoli (1982) que es capaz de computación universal

emulando de una manera muy básica el comportamiento de un circuito digital con bolas de

billar idealizadas.77 Lo interesante de éste y muchos otros modelos de computación basados

77 La motivación de este modelo era estudiar la relación entre la computación y los procesos reversibles. Por razones espacio-temporales nuestro tratamiento de la irreversibilidad, un tema hermoso y complejo que también se ve afectada por el estudio de los sistemas complejos, tuvo que verse limitada a alguna que otra mención de la entropía. Aprovechamos la mención a la irreversibilidad para tan solo nombrar otra aproximación a la complejidad que no hemos considerado en este trabajo que es el programa originado por Prigogine. Su particular forma de acercarse a los sistemas físicos da una noción de complejidad que según se ha dicho puede adaptarse para múltiples propósitos. La idea general del programa es acercarse a sistemas físicos fuera de equilibrio de una

79

en sistemas dinámicos es que si el modelo es capaz de realizar computación universal, al

menos una parte del sistema dinámico posee una dinámica caótica. La relación parece estar

dada por la estructura recursiva que tienen tanto los sistemas dinámicos y la computación en

sí. Existe otro aspecto también que nos deja conectar metodológicamente a las dos teorías:

sabemos que hay problemas sobre la dinámica de un sistema que son a priori inaccesibles por

ser computacionalmente intratables.

Nuestro intento de comprender a la naturaleza nos llevó a descubrir que el caos y la

complejidad parecen ser intrínsecos a muchos de los sistemas que son interesantes estudiar

porque se encuentran en la misma escala espacio-temporal que su observador. Nosotros

mismos somos sistemas complejos, y hay caos operando en nosotros. Los sistemas naturales

tienden a estar entre el orden y el caos y entre la predictibilidad y la impredictibilidad, y por

sobre todas las cosas logran un balance entre las dos, y eso les deja ser.78 Recién ahora estamos

aprendiendo cómo es que lo logran, recién ahora estamos aprendiendo entendernos a nosotros

mismos. Intentar resolver estos problemas, en especial el de cómo pudo haber surgido la vida,

va a tener que recurrir a las nociones de caos, de complejidad y, probablemente, de

computabilidad.

manera conjunta y probabilista, en los que las entidades importantes no son las partículas individuales y sus trayectorias sino que lo son las distribuciones de las partículas y estas distribuciones están descriptas por ecuaciones que son irreversibles con respecto al tiempo. Este enfoque deja abierta la posibilidad de ver a sistemas macroscópicos como ontológicamente indeterminados: un indeterminismo que no hace referencia a nuestro acceso epistémico sobre el mismo. Las probabilidades se vuelven, en esta forma de ver las cosas, ontológicamente parte del mundo macroscópico. El principal problema al que se enfrenta este enfoque es justamente el de dar cuenta de la base física de ese indeterminismo. 78 Y como dice Crutchfield: “El resultado es un incremento en la complejidad estructural. Esto suele aparecer como un cambio en la capacidad interna del sistema de realizar computaciones.” (2012, 23)

80

Conclusiones

¿Cómo no se comprendió que el orden puro es la peor locura que existe, la de la abstracción, y la peor de todas las muertes, la que nunca conoció la vida?

Edgar Morin (1977)

El impacto del estudio de los sistemas complejos es una innovación reciente y activa, de vital

importancia para la ciencia en general. Si no fuera por los modelos y métodos de sistemas

complejos, muchas de las disciplinas más importantes de la actualidad no existirían. Entre

ellas podemos mencionar a la biología sintética y de sistemas, los modelos climáticos, la

ingeniería de control, ingeniería de tráfico, la astrofísica y la neurofisiología. Conceptos como

el de auto-organización, el de emergencia y el mismo de complejidad han sido puestos de

nuevo en escena y han demostrado ser epistemológicamente fructíferos.

Los sistemas complejos impactan en casi todos los aspectos de las ciencias (y no sólo se trata

de las llamadas ciencias duras; las humanidades y las ciencias sociales también se han visto

afectadas): el tratamiento y la definición de lo que es un error, el diseño experimental, el

manejo de datos en las cada vez más grandes bases de datos; y en conceptos claves del orden

científico tales como interacción, equilibrio, transición, predicción, dinámica y explicación,

por mencionar algunos.

Creemos que esta ubicuidad se debe a lo fácil que es encontrar a la complejidad en todos los

aspectos de la vida, en todas las escalas que se nos ocurra. Desde los complicados patrones de

las nubes, hasta la estructura simétrica de los copos de nieve. Desde la célula hasta las galaxias

en espiral. Esta complejidad de las cosas proviene, en última instancia, de las leyes de la

naturaleza y las condiciones iniciales, a través de una muy larga secuencia de procesos físicos.

Queremos saber cómo es que se dio todo esto y creemos que el estudio de los sistemas

complejos puede aportarnos tanto, o quizás más, que el estudio de la física elemental.79

79 De hecho intuimos que una descripción “desde la complejidad” puede ser la vía media entre el orden de la mecánica newtoniana y el desorden la mecánica cuántica.

81

Por nuestra parte, hemos iniciado esta investigación en la naturaleza y filosofía de los sistemas

complejos empezando por los sistemas complejos más “simples”, los llamados sistemas

caóticos. Hemos visto las dificultades que existen para definir al fenómeno, aunque

terminamos llegando a una serie de condiciones al menos necesarias para decir que un sistema

es caótico. También pudimos apreciar como el caos aparece en modelos muy simples,

mientras que vimos cómo y qué significa en primera instancia trabajar con esta clase de

modelos. La facilidad con la que el caos aparece en estos modelos no lineales hace sospechar

que el fenómeno aparezca con la misma facilidad en la naturaleza y creemos que es así, y nos

embarcamos en intentar demostrar que el caos es un fenómeno real de la naturaleza y no una

mer constructo matemático o una dinámica que surge por los errores intrínsecos de nuestros

modelos. Desde un punto de vista epistémico, hemos aprendido dos cosas fundamentales. Por

un lado la ventaja que puede traer hacer una distinción entre los estados ónticos de un sistema

y los estados epistémicos de quienes hablan acerca de ese sistema, dejando al determinismo

de un sistema del lado de los primeros y a nuestra incapacidad para determinarlo del lado de

los últimos. Y quizás más fundamentalmente, hemos visto cómo hasta en un sistema

determinista una aproximación probabilística al mismo no sólo nos permite predecir mejor el

sistema en muchos casos sino que también nos revela una faceta escondida del mismo, lo que

plantea una especie de naturaleza dual en estos sistemas. La probabilidad es mucho más

invasiva de lo que podía parecer al principio. El recorrido histórico por la teoría del caos nos

dejó ver un caso en el que un descubrimiento matemático quedó mucho tiempo sin producir

todos sus frutos por la falta de un método sistemático para explorar algunos sistemas: las

simulaciones numéricas. Hoy en día la ciencia es muy distinta gracias al mismo y el estudio

de los sistemas complejos sería impensable sin éste.

Tras estudiar en relativa profundidad el concepto de caos, pasamos a los sistemas complejos

en sí, deteniéndonos primeramente en la noción de sistema tal y como había sido concebida

por la Teoría General de los Sistemas. A este movimiento y al de la Cibernética de Wiener, la

ciencia de sistemas complejo le debe mucho. Luego aprendimos algunas de las características

principales de estos sistemas y vimos cómo su estudio nos hace revisitar nociones filosóficas

de importancia. Por otro lado también nos hace ver cómo conceptos que provienen de

disciplinas como la ciencia de la computación empiezan a tomar el lugar que les corresponde

en las ciencias físicas, en las que la preocupación por el procesamiento físico de la información

y la física como procesamiento de información es cada vez mayor. De esta primera

confluencia de ideas surgen las primeras medidas de complejidad en los sistemas. De estas

82

formas cuantitativas de explorarla hemos visto las más importante, incluyendo los resultados

básicos de la teoría de la información de Shannon y el de complejidad algorítmica de

Kolmogorov. Exploramos las limitaciones de estas y otras y encontramos que una de las

mejores definiciones disponibles en la actualidad corresponde a la de complejidad estadística,

noción que recurre naturalmente a ver a los sistemas en términos de modelos computacionales,

dentro de un marco teórico mayor que es la mecánica computacional. Curiosamente esta

definición nos lleva a una visión probabilística de los sistemas, tal y como el caos lo hizo al

principio. Luego empezamos a especular acerca de por qué las definiciones le asignan un rol

tan importante a la noción de azar, y concluimos que esto se debe a que, de manera tal de

poder crear estructuras intermedias y mantenerlas, en los sistemas complejos debe operar una

función de búsqueda que requiere cierta variabilidad, y es en el azar en donde es más fácil

para la naturaleza encontrar esta variabilidad. Algo parecido sucede en muchos niveles de

descripción de la naturaleza, baste sólo mencionar aquí a la teoría de la selección natural de

Darwin. Una de las conexiones entre complejidad y caos está justamente aquí: el caos es una

fuente de azar de muy fácil acceso para los sistemas complejos y luego mostramos brevemente

cómo el caos es exactamente tan azaroso como el modelo clásico de azar: arrojar una moneda.

Terminamos aprendiendo algo acerca de la conexión entre el caos y la computabilidad, que

nos lleva a afirmar, otra vez, la conexión que parece haber entre las teorías de la física y la

ciencia de la computación.

Debemos decir algo aquí de todo lo que quedó fuera de este trabajo. Muchísimas

implicaciones epistemológicas de los sistemas complejos no han sido siquiera mencionadas,

por requerir ellas mismas una investigación semejante como la que hemos hecho con, por

decir, el determinismo en los sistemas caóticos. Los sistemas complejos han hecho que

nociones clásicas como la causalidad, la explicación, las leyes de la naturaleza, la emergencia,

el realismo y muchas otras deban ser revisados y reajustados a la luz de la nueva evidencia

científica proveniente de estos campos. Es de destacar la importancia de la noción de modelo

en esta ciencia y si bien aquí hemos tocado el tema, apenas hemos empezado a perforar la

cáscara de la manzana. Algunas definiciones todavía más técnicas de caos que las que hemos

presentado aquí han tenido que ser dejadas de lado y en particular se notará la ausencia de la

noción de fractal en nuestra discusión. Esta ha sido dejada de lado adrede y también será objeto

de investigaciones futuras. Si bien ya sabíamos antes de empezar la investigación que el

campo era enorme, resultó ser mucho más grande y complejo de lo que parecía, incluso

teniendo la posibilidad de estar sobre hombros de gigantes.

83

Aunque el caos siempre tuvo connotaciones negativas, hoy sabemos que la vida no es posible

sin el mismo. Que el orden absoluto no puede sostenernos. Curiosamente ya algunos griegos,

que tanto amaban el ordenado mundo del cosmos, veían a Caos como un dios primordial. La

tierra y el amor son sus frutos, igual que la muerte y la noche. La fuente del azar que sostiene

todo. Especialmente, la complejidad de la vida.

Vamos y venimos entre niveles de análisis, hacemos modelos de lo pequeño y de lo grande, y

así intentamos buscar el orden de las cosas, y preguntarnos por nosotros mismos. Creemos

que la mejor descripción de esto es la que dio Vladimir Nabokov y nos parece oportuno

terminar con ella.80

Hay, al parecer, en la escala dimensional del mundo, una especie de delicado lugar de encuentro entre la imaginación y el conocimiento, un punto al que se llega achicando las cosas grandes y agrandando las pequeñas, que es intrínsecamente artístico.

Vladimir Nabokov

80 Aclarando, claro, que hemos resistido la tentación de cambiar “artístico” por “científico”. No sólo por respeto a Nabokov, sino porque en ese cambio hay toda otra tesina posible; si es que no, otra vida.

84

Referencias bibliográficas Abarbanel, H. (1996). Analysis of observed chaotic data. Springer. Adriaans, P. (2007). Learning as data compression. In Computation and Logic in the Real World

(pp. 11–24). Springer. Adriaans, P. (2012). Information. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy

(Fall 2013). Aihara, K. (2008). Chaos in neurons. Scholarpedia, 3(5), 1786.

Andronov, A. A. (1971). Theory of bifurcations of dynamic systems on a plane (Vol. 554). Israel Program for Scientific Translations;[available from the US Dept. of Commerce, National Technical Information Service, Springfield, Va.].

Andronov, A. A. (1973). Qualitative theory of second-order dynamic systems (Vol. 22054). Halsted Press.

Andronov, A. A., & Pontryagin, L. (1937). Systemes grossiers. In Dokl. Akad. Nauk. SSSR (Vol. 14, pp. 247–250).

Anosov, D. V. (1967). Geodesic flows on closed Riemannian manifolds of negative curvature. Trudy Matematicheskogo Instituta Im. VA Steklova, 90, 3–210.

Atmanspacher, H. (2002). Determinism Is Ontic, Determinability Is Epistemic. En Atmanspacher y Bishop 2002.

Atmanspacher, H., & Bishop, R. (2002). Between Chance and Choice: Interdisciplinry Perspectives on Determinism. Andrews UK Limited.

Aubin, D., & Dalmedico, A. D. (2002). Writing the history of dynamical systems and chaos: longue durée and revolution, disciplines and cultures. Historia Mathematica, 29(3), 273–339.

Batterman, R. W. (1993). Defining chaos. Philosophy of Science 60 (1), 43–66. Bendixson, I. (1901). Sur les courbes définies par des équations différentielles. Acta Mathematica,

24(1), 1–88. Bennett, CH. (1988). Logical depth and physical complexity. En Herken, R, The Universal Turing

Machine, a Half-Century Survey. Oxford Univ. Press. Birkhoff, G. D. (1932). Sur quelques courbes fermées remarquables. Bulletin de La Société

Mathématique de France, 60, 1–26. Birknoff, G. D. (1927). Dynamical systems. In American Mathematical Society Colloquium

Publications. Bishop, R. C. (2001), “Chaos, Indeterminism, and Free Will”, en R. Kane (ed.), The Oxford

Handbook of Free Will. Oxford: Oxford University Press, pp. 111–124. Bishop, R. C. (2005). Anvil or onion? Determinism as a layered concept. Erkenntnis, 63(1), 55–

71. Bishop, R. C. (2006). Determinism and Indeterminism. In Encyclopedia of Philosophy (pp. 29–

35). Bishop, R. C. (2008). Chaos. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy (Fall

2009). Bishop, R. C. (2009). Epistemological Issues in Complex Systems. En Hooker 2009. Bowen, R. (1978). On axiom A diffeomorphisms:[expository lectures from the CBMS regional

conference held at North Dakota State University, June 20-24, 1977]. American Math. Soc.

85

Campbell, L., & Garnett, W. (1882). The Life of James Clerk Maxwell. Macmillan and Co., London, 1884.

Cartwright, M. L., & Littlewood, J. E. (1945). On Non-Linear Differential Equations of the Second Order: I. the Equation- k (1-y2)+ y= bλk cos (λl+ α), k Large. Journal of the London Mathematical Society, 1(3), 180–189.

Chomsky, N. (1957). Syntactic Structures. Mouton & Co. Crutchfield, J. P. (2012). Between order and chaos. Nature Physics, 8(1), 17–24. Crutchfield, J., Farmer, J., Packard, N., & Shaw, R. (1986). Chaos. Scientific American, 254(12),

45–57. Crutchfield, J. P., & Young, K. (1989). Inferring statistical complexity. Physical Review Letters,

63(2), 105. Crutchfield, J. P., Shalizi, C. R. (2001). Computational mechanics: Pattern and prediction, structure

and simplicity. Journal of Statistical Physics, 104(3-4), 817–879. Dreteske, F. (1982). Knowledge and the Flow of Information. MIT Press. Earman, J. (1986). A primer on determinism (Vol. 37). Springer. Flake, G. W. (1998). The Computational Beauty of Nature: Computer Explorations of Fractals,

Chaos, Complex Systems, and Adaptation. MIT Press. Ford, J. (1989). What is chaos, that we should be mindful of it. In Davies, P (Ed.), The New Physics. Fredkin, E., & Toffoli, T. (1982). Conservative logic. International Journal of Theoretical Physics,

21(3), 219–253. Gell-Mann, M. (1995a). The Quark and the Jaguar: Adventures in the Simple and the Complex

(ILL). St. Martin’s Griffin. Gell-Mann, M. (1995b). What is complexity? Remarks on simplicity and complexity by the Nobel

Prize-winning author of The Quark and the Jaguar. Complexity, 1(1), 16–19. Gleick, J. (1987). Chaos: Making a new science. Random House. Gleick, J. (2011). The Information: A History, a Theory, a Flood. Pantheon Books. Hadamard, J. (1898). Les surfaces à courbures opposées et leurs lignes géodésique. J. Math. Pures

Appl., 4, 27–73. Hammel, S. M., Yorke, J. A., & Grebogi, C. (1987). Do numerical orbits of chaotic dynamical

processes represent true orbits? Journal of Complexity, 3(2), 136–145. Holmes, P. (2005). Ninety plus thirty years of nonlinear dynamics: Less is more and more is

different. International Journal of Bifurcation and Chaos, 15(09), 2703–2716. Hooker, C. (2011b). (Ed). Philosophy of Complex Systems. Handbook of the Philosophy of

Science. Vol 10. Elsevier. Hooker, C. (2011a). Introduction to Philosophy of Complex Systems: A: Part A: Towards a

framework for complex systems. En Hooker (2011b). Huberman, B. A., & Hogg, T. (1986). Complexity and adaptation. Physica D: Nonlinear

Phenomena, 22(1), 376–384. Hutter, M., 2005, Universal Artificial Intelligence: Sequential Decisions based on Algorithmic

Probability, EATCS Book, Berlin: Springer. Kaneko, K., & Tsuda, I. (2000). Complex Systems: Chaos and Beyond: A Constructive Approach

With Applications in Life Sciences. Springer Science & Business Media. Kellert, S. H. (1993). In the wake of chaos: Unpredictable order in dynamical systems. University

of Chicago press.

86

Koperski, J. (1998). Models, confirmation, and chaos. Philosophy of Science, 624–648. Kostelich, E. J., Kan, I., Grebogi, C., Ott, E., & Yorke, J. A. (1997). Unstable dimension variability:

A source of nonhyperbolicity in chaotic systems. Physica D: Nonlinear Phenomena, 109(1), 81–90.

Ladyman, J., Lambert, J., & Wiesner, K. (2013). What is a complex system? European Journal for Philosophy of Science, 3(1), 33–67.

Lai, Y.-C., Grebogi, C., Yorke, J. A., & Kan, I. (1993). How often are chaotic saddles nonhyperbolic? Nonlinearity, 6(5), 779.

Laplace, P.-S. [1812] (1995). Pierre-Simon Laplace Philosophical Essay on Probabilities (Vol. 13). Springer Science & Business Media.

Lloyd, S. (2001). Measures of complexity: a nonexhaustive list. IEEE Control Systems Magazine, 21(4), 7–8.

Lloyd, S., Pagels, H. (1988). Complexity as thermodynamic depth. Annals of Physics, 188(1), 186–213.

Lorenz, E. N. (1963). Deterministic nonperiodic flow. Journal of the Atmospheric Sciences, 20(2), 130–141.

May, R. M. (1976). Simple mathematical models with very complicated dynamics. Nature, 261(5560), 459–467.

Morin, E. (1977). La Nature de la nature. Le Seuil, Nouvelle édition, coll. Points. Nicolis, G., & Gaspard, P. (1994). Toward a probabilistic approach to complex systems. Chaos,

Solitons & Fractals, 4(1), 41–57. Parker, W. S. (2013). Ensemble modeling, uncertainty and robust predictions. Wiley

Interdisciplinary Reviews: Climate Change, 4(3), 213–223. Poincaré, H. (1890). Sur le probleme des trois corps et les équations de la dynamique. Acta

Mathematica, 13(1), A3–A270. Poincaré, H. (1908). The foundations of science. Popper, K. R. (1988). The open universe: An argument for indeterminism. Routledge. Roulstone, I., & Norbury, J. (2013). Invisible in the Storm: The Role of Mathematics in

Understanding Weather. Princeton University Press. Rouvas-Nicolis, C., & Nicolis, G. (2009). Butterfly effect. Scholarpedia, 4(5), 1720.

doi:10.4249/scholarpedia.1720 Russell, B. (1953). On The Notion Of Cause, With Applications To The Free-Will Problem. In Our

Knowledge of External World. Scheibe, E. (1964). The logical analysis of quantum mechanics. Pergamon Press. Shannon, C. E. (1948). Bell System Tech. J. 27 (1948) 379; CE Shannon. Bell System Tech. J, 27,

623. Shannon, C. E., & Weaver, W. (1949). The Mathematical Theory of Communication. University

of Illinois Press. Shub, M. (2005). Communications-WHAT IS... a Horseshoe?. Notices of the American

Mathematical Society, 52(5), 516-517. Simon, H. (1962). The Architecture of Complexity. Proceedings of the American Philosophical

Society, 106, 467–482. Smale, S. (1967). Differentiable dynamical systems. Bulletin of the American Mathematical

Society, 73(6), 747–817.

87

Smale, S. (1998a). Finding a horseshoe on the beaches of Rio. The Mathematical Intelligencer, 20(1), 39–44.

Smale, S. (1998b). Mathematical problems for the next century. The Mathematical Intelligencer, 20(2), 7–15.

Smith, L. (2007). Chaos: a very short introduction. Oxford University Press. Smith, P. (1998). Explaining Chaos. Cambridge University Press. Stone, M. A. (1989). Chaos, prediction and Laplacean determinism. American Philosophical

Quarterly, 123–131. Thompson, J. M. T., & Stewart, H. B. (2002). Nonlinear dynamics and chaos. John Wiley & Sons. Tucker, W. (2002). A rigorous ODE solver and Smale’s 14th problem. Foundations of

Computational Mathematics, 2(1), 53–117. Van der Pol, B., & Van der Mark, J. (1927). Frequency demultiplication. Nature, 120, 363–364. Verhulst, P. F. (1845). La Loi d’Accroissement de la Population. Nouv. Mem. Acad. Roy. Soc.

Belle-Lettr. Bruxelles, 18, 1. Von Bertalanffy, L. (1956). General system theory. General Systems, 1(1), 11–17. Von Bertalanffy, L. (1968). General system theory: Foundations, development, applications (Vol.

55). Vulpiani, A., & Livi, R. (2003). The Kolmogorov legacy in physics. Springer Science & Business

Media. Whitehead, A. N. (1925). Science and the modem world. Cambridge: Cambridge at the University. Ziv, J., & Lempel, A. (1978). Compression of individual sequences via variable-rate coding.

Information Theory, IEEE Transactions on, 24(5), 530–536.

88