introducción al pensamiento complejo - …€¦ · 4 en el pensamiento neurocientífico observo...
TRANSCRIPT
1
Introducción al Pensamiento Complejo
(Lecturas complemetarias)
Dr. Bernardo Fontal/ ULA‐ Ciencias.
2
De lo ecológico a lo meta‐complejo
Oscar Fernández Universidad Pedagógica Experimental Libertador.
Centro de Investigaciones Contemporáneas (CINCO) Línea de Investigación: viejas y nuevas racionalidades científicas. Coordinación de
investigación y postgrado E‐Mail: [email protected].
§ Según Edgar Morin los tres principios del pensamiento complejo son:
‐ “El principio dialógico que se basa en la asociación compleja (complementaria, concurrente, antagonista) de instancias necesarias juntas para la existencia, el funcionamiento y el desarrollo de un fenómeno organizado.
‐ El principio recursivo: en el que todo momento es, a la vez, producto y productor, causante y causado, y en el que el producto es productor de lo que lo produce, el efecto causante de lo que causa.
‐ El principio hologramático: en el que no solo la parte está en el todo, sino que el todo, en cierto modo, está en la parte”.
. La complejidad se hipercomplejiza cuando surgen nuevos paradigmas tales como el:ecológico, el cybernético, el neurológico y el semiótico los cuales de forma aleatoriainteractúan entre sí y con el pensamiento complejo creando una filosofíapostcontemporánea y en consecuencia una nueva cultura o subculturas. En el pensamiento cybernético distingo tres principios; éstos son: ‐ El principio de discontinuidad espacio‐temporal. Aquí las nociones clásicas de
espacio y tiempo se reconfiguran, pues el aquí y el ahora y el allá y después, se confunden en un estado cuántico que es y no es al mismo tiempo, estamos sin estar, existimos sin existir y todo por culpa del Internet.
‐ Principio de multidimencionalidades sensorial: en la realidad virtual con aplicaciones diversas en simuladores, atracciones en parques temáticos, etc; el objetivo principal es confundir los sentidos y en consecuencia crear una dimensión paralela que hace real lo irreal e irreal lo real por lo menos por un tiempo.
‐ Principio de realidad virtual: lo virtual existe, en condiciones de tiempo y espacio distintas, pero tangibles y medibles. Es decir, se siente, se ve, se oye, etc.; en consecuencia produce estímulos y genera respuestas. Se plantea entonces el surgimiento de una nueva lógica. La lógica virtual que nos hablará de una verdad virtual, de una ética virtual de una vida virtual.
En el pensamiento eclógico observó los siguientes principios: ‐ Principio homoestático: Este principio se refiere al continuo equilibrio
dinámico que se mantiene desde el nivel molecular hasta el sistémico en todos los seres vivos y que les permitan realizar sus funciones y conservar una
3
estructura pero que además de todo esto nos sugiere una nueva forma de pensar el orden y en consecuencia nuestras vidas.
‐ Principio de cooperación y competencia: Según la selección natural de Darwin los seres vivos compiten entre sí para poder sobre vivir; pero también es cierto que cooperan entre ellos, de hecho el segundo fenómeno es más frecuente que el primero. De allí que encontremos ideas que compitan con otras y que logren dominar por diversas razones tales como: ‐ Superioridad argumentativa ‐ Correspondencia histórica ‐ Correspondencia política ‐ Evidencia empírica, etc.
Más sin embargo podríamos rescatar algunos elementos de ellas y hasta la totalidad de las ideas si las analizamos bajo otras lógicas. De igual modo la cooperación sería más eficiente si trascendemos las barreras de las disciplinas y si nos vemos no como creadores particulares sino copartícipes de un colectivo intelectual que a su vez no renuncia a su mérito pero que reconoce en el colectivo la posibilidad de crear más y más rápido. Tomando en cuenta que por nuestra condición limitada corporal o podemos aprenderlo todo por nosotros mismos, en consecuencia la colaboración intersubjetiva se convierte en una oportunidad para romper nuestros paradigmas.
‐ Principio de Autoorganización: “hay descubrimientos que están invitando a que los biólogos cambien sus enfoques. Los seres vivos son sistemas de alto orden. Poseen estructuras intrincadas, que se han mantenido y aún se han duplicado, a través de un ballet muy preciso de actividades químicas y comportamentales. Desde Darwin, los biólogos consideran que la selección natural es virtualmente la sola fuente de dicho orden. Pero Darwin no podía haber sospechado la existencia de la autoorganización, una propiedad recientemente descubierta e innata de algunos sistemas complejos”. (Stuart A. Kauffman, antichos and Adaptation, scientific American, agosto 1991, p.64). En el pensamiento los procesos que conllevan a la construcción de nuevas ideas no están claramente establecidos; pero muchas veces surgen como fenómenos espontáneos de origen incierto pensamientos que de alguna forma buscan la autoorganización. “… el neocórtex humano es un prodigioso tejido anárquico, donde las uniones sinápticas se efectúan de manera aleatoria. Aunque está constituido por células especializadas (neuronas), el cerebro es un campo no‐especializado, donde se implantan innumerables localizaciones y a través del cual se efectúan interacciones laterales. Son las interacciones anárquicas las que están en la fuente del orden central… No hay equilibrio, sino inestabilidad, tensión permanente entre estos aspectos que, al mismo tiempo que son fundamentalmente complementarios, resultan fácilmente concurrentes y antagonistas”. (Edgar Morín). “… el cerebro es el objeto material más complejo que conocemos en el universo y muestra una enorme variabilidad entre individuos” (Edelman).
4
En el pensamiento neurocientífico observo los siguientes principios: Principio de redes neuronales: son relaciones multivariadas de condiciones pluridimensionales, las cuales superan la comprensión humana dadas su múltiples interconexiones relacionales y a la vez simultáneas. La única vía posible (hasta la fecha) para aproximarse a la comprensión de ésta dinámica, es la simulación computacional la cual con la ayuda de supercomputadores pueden correlacionar aleatoriamente infinidad de interconexiones que sin la ayuda de éste elemento sería prácticamente imposible comprender la naturaleza de éste fenómeno neuro‐cibernético. Principio Neurogenético: Apenas comenzamos a conocer el intricado universo de los genes y aunado a esto, las neurociencias abren aún más espacio de incomprensión, que pareciera en algunos momentos hacerse ilimitado. Sin embrago pareciera haber cierto indicios que nos hablan de la posibilidad de ciertos comportamientos los cuales pudieran ser influenciados por detonantes genéticos. En tal sentido sea cual sea el futuro de esta idea; la misma ofrece en este momento un puerta que no puede dejarse de abrir por muy incierta que nos parezca, porque de allí puede surgir toda una nueva filosofía. Principio de programación Neurolingûístico: La programación neurolingüística se expresa como un modelo de conducta orientado a través de técnicas de corte conductista y psicoanalítica, modificar de modo satisfactorio las interpretaciones desfavorables generadas a través de los cinco sentidos y las cuales requieren u nuevo enfoque para ser superadas. En tal sentido éste modelo ha mostrado un aparente éxito que va desde la terapéutica sicológica (depresión, estrés, esquizofrenia) pasando por métodos aplicados en le campo empresarial; hasta el desarrollo de técnicas aplicadas en la enseñanza y el aprendizaje (aprender a aprender) si se quiere éste puede considerarse como el punto cumbre del conductivismo, el cuál podría conducirnos a la alineación total (mensajes subliminales) o a la liberación total. De todos modos este principio sirve como conexión importante entre lo conocido y el conocedor; y aunque aún nos falta mucho para entender el funcionamiento del sistema nervioso (de modo integral parcial, no total). Este puede ser un interesante elemento de interfase entre nosotros y nuestras ideas.
5
LOS SIETE SABERES NECESARIOS PARA LA
EDUCACIÓN DEL FUTURO
Por Edgar Morin Ex director de l'École des Hautes Études en Sciencies Sociales. Paris.
Presentación del texto publicado por Unesco.
1 . Una educac ión que cure l a ceguera de l conoc im iento
Todo conoc im ien to con l l eva e l r i e sgo de l er ro r y de l a i l u s ión . La educac ión de l f u tu ro debe conta r s i empre con esa pos ib i l i dad . E lconoc im ien to humano es f r ág i l y es tá expues to a a luc inac iones , ae r ro res de percepc ión o de j u i c i o , a per tu rbac iones y ru idos , a l ai n f l uenc i a d i s to r s i onadora de l o s a fec tos , a l impr in t i ng de l a prop ia cu l tu ra , a l con fo rmi smo , a l a se lecc ión meramente soc io lóg i ca denues t ra s i deas , e t c .
Se podr í a pensa r , por e jemp lo que , despo jando de a fec to todoconoc im ien to , e l im inamos e l r i e sgo de er ro r . Es c ie r to que e l od io ,l a ami s tad o e l amor pueden enceguece rnos , pero t amb ién esc i e r to que e l desar ro l l o de l a i n te l i genc i a es i n sepa rab le de l de l aa fec t i v i dad . La a fec t i v i dad puede oscu rece r e l conoc im ien to perotamb ién puede f o r ta l e ce r lo .
Se podr í a t amb ién c ree r que e l conoc im ien to c i en t í f i co ga ran t i za l a detecc ión de er ro res y mi l i t a con t ra l a i l u s ión percep t i va . Pe ron inguna t eo r í a c ien t í f i c a es tá i nmun i zada para s i empre con t ra e le r ro r . I n c lu so hay t eo r í a s y doc t r i nas que pro tegen con apar i enc i ain te l ec tua l sus prop ios er ro res .
La pr imera e i ne lud ib le ta rea de l a educac ión es enseñar unconoc im ien to capaz de c r i t i c a r e l prop io conoc im ien to . Debemosenseñar a ev i t a r l a dob le ena jenac ión : l a de nues t ra mente por susideas y l a de l a s prop ia s i deas por nues t ra mente . "Los d ioses senut ren de nues t ra s i deas sobre Dios , pero i nmed ia tamente seto rnan desp iadadamente ex i gen te s" . La búsqueda de l a ve rdadex i ge re f l e x ib i l i dad , c r í t i c a y co r recc ión de er ro res . Pero , además ,neces i t amos una c i e r ta conv i venc i a l i dad con nues t ra s i deas y con
6
nues t ros mitos . E l pr imer ob je t i vo de l a educac ión de l f u tu ro se rádota r a l o s a lumnos de l a capac idad para detec ta r y subsanar l o se r ro re s e i l u s i ones de l conoc im ien to y , a l mismo t i empo ,enseñar le s a conv i v i r con sus i deas , s in se r des t ru idos por e l l a s .
2 . Una educac ión que garant i ce e l conoc im iento per t inente
Ante e l a luv ión de i n fo rmac iones es necesa r io d i s ce rn i r cuá le s sonla s i n fo rmac iones c l ave . Ante e l número i ngen te de prob lemas esnecesa r io d i fe renc i a r l o s que son prob lemas c l ave . Pero , ¿cómose lecc iona r l a i n fo rmac ión , l o s prob lemas y l o s s i gn i f i c adosper t i nen tes? S in duda , desve l ando e l contex to , l o g loba l , l omu l t i d imens iona l y l a i n te racc ión comp le j a .
Como consecuenc i a , l a educac ión debe promover una " in te l i genc i agenera l " apta para re fe r i r se a l con tex to , a l o g loba l , a l o mul t id imens iona l y a l a i n te racc ión comp le ja de l o s e lementos .E s ta i n te l i genc i a genera l se cons t ruye a par t i r de l o sconoc im ien tos ex i s ten tes y de l a c r í t i c a de l o s mismos . Sucon f i gu rac ión f undamenta l es l a capac idad de p lan tea r y de re so l ve r prob lemas . Para e l l o , l a i n te l i genc i a ut i l i z a y comb inatodas l a s hab i l i dades par t i cu l a re s . E l conoc im ien to per t inen te ess i empre y a l mismo t i empo genera l y par t i cu l a r . En es te punto ,Mor in i n t rodu jo una "pe r t i nen te" d i s t i nc ión ent re l ar ac iona l i za c ión ( cons t rucc ión menta l que só lo a t i ende a l o genera l )y l a r ac iona l i dad , que a t i ende s imu l táneamente a l o genera l y a l opa r t i cu l a r .
3 . Enseñar l a cond i c ión humana
Una aventu ra común ha embarcado a todos l o s humanos de nues t rae ra . Todos e l l o s deben reconoce r se en su human idad común y , a lm i smo t i empo , reconoce r l a d i ve r s idad cu l tu ra l i nhe ren te a todo l ohumano . Conocer e l se r humano es s i tua r lo en e l un i ve r so y , a lm i smo t i empo , sepa ra r lo de é l . A l i gua l que cua lqu ie r ot roconoc im ien to , e l de l se r humano t amb ién debe se rcon tex tua l i z ado : Qu iénes somos es una cues t ión i n sepa rab le dedónde es tamos , de dónde ven imos y a dónde vamos .
Lo humano es y se desa r ro l l a en buc le s : a ) ce rebro ‐ mente ‐cu l tu ra ; b ) r a zón — a fec to — impu l so ; c ) i nd i v iduo — soc i edad —espec ie . Todo desa r ro l lo ve rdaderamente humano s i gn i f i c a
7
comprender a l hombre como con jun to de todos es tos buc le s y a l ahuman idad como una y d i ve r sa . La un idad y l a d i ve r s idad son dosper spec t i va s i n sepa rab le s f undantes de l a educac ión . La cu l tu ra en genera l no ex i s te s ino a t r avés de l a s cu l tu ra s . La educac ión deberámos t ra r e l des t ino i nd i v idua l , soc i a l , g loba l de todos l o s humanos ynues t ro a r ra i gamien to como c iudadanos de l a T ie r ra . És te se rá e lnúc leo esenc i a l fo rmat i vo de l f u tu ro .
4 . Enseñar l a i dent idad te r rena l
La h i s to r i a humana comenzó con una d i spe r s ión , una d iá spora detodos l o s humanos hac i a reg iones que permanec ie ron duran temi l en io s a i s l adas , produc iendo una enorme d i ve r s idad de l enguas ,re l i g i ones y cu l tu ra s . En l o s t i empos modernos se ha produc ido l a revo luc ión t ecno lóg i ca que permi te vo l ve r a re l a c iona r es ta scu l tu ra s , vo l ve r a un i r l o d i spe r so . . . E l europeo med io se encuent raya en un c i r cu i to mund ia l de l con fo r t , c i r cu i to que aún es tá vedadoa t r e s cua r ta s par te s de l a human idad . Es necesa r io i n t roduc i r en l a educac ión una noc ión mund ia l más poderosa que e l desa r ro l l oeconómico : e l desa r ro l l o i n te l ec tua l , a fec t i vo y mora l a esca l ate r re s t re .
La per spec t i va p lane ta r i a es impresc ind ib l e en l a educac ión . Pero ,no só lo para perc ib i r mejor l o s prob lemas , s ino para e labora r unautén t i co sen t im ien to de per tenenc ia a nues t ra T ie r ra cons ide radacomo ú l t ima y pr imera pat r i a . E l t é rm ino pat r i a i n c luye re fe renc i a se t imo lóg i ca s y a fec t i va s t an to pa te rna le s como materna le s . En es taper spec t i va de re l ac ión pate rno ‐ materno ‐ f i l i a l es en l a que se cons t ru i r á a esca la p lane ta r i a una misma conc ienc i a ant ropo lóg i ca ,eco lóg i ca , c í v i ca y esp i r i tua l . "Hemos t a rdado demas i ado t i empo enperc ib i r nues t ra i den t idad t e r rena l " , d i j o Mor in c i t ando a Marx ( " l a h i s to r i a ha prog resado por e l l ado malo" ) pero man i fe s tó suesperanza c i t ando en para le lo ot ra f r a se , en es ta ocas ión de Hege l :" La l e chuza de l a sab idur í a s i empre emprende su vue lo a la ta rdece r . "
5 . En f renta r l a s i n ce r t idumbres
Todas l a s soc i edades c reen que l a perpe tuac ión de sus mode los sep roduc i r á de fo rma natu ra l . Los s i g l o s pasados s i empre c reye ronque e l fu tu ro se con fo rmar í a de acuerdo con sus c reenc i a s eins t i tuc iones . E l Imper io Romano , t an d i l a tado en e l t i empo , es e l
8
parad i gma de es ta segur idad de perv i v i r . S in embargo , caye ron ,como todos l o s imper io s ante r io re s y pos te r io res , e l musu lmán , e lb i zan t ino , e l aus t rohúngaro y e l sov ié t i co . La cu l tu ra occ iden ta lded i có va r io s s i g lo s a t r a ta r de exp l i ca r l a ca ída de Roma ycont inuó re f i r i éndose a l a época romana como una época i dea l quedeb íamos recupera r . E l s i g lo XX ha der ru ido to ta lmente l ap red i c t i v i dad de l f u tu ro como ex t rapo lac ión de l presen te y hain t roduc ido v i t a lmente l a i n ce r t i dumbre sobre nues t ro f u tu ro . Laeducac ión debe hace r suyo e l pr inc ip io de i n ce r t i dumbre , t an vá l i do pa ra l a evo luc ión soc i a l como l a f o rmu lac ión de l mismo porHe i senberg para l a F í s i ca . La h i s to r i a avanza por a ta jo s ydesv i a c iones y , como pasa en l a evo luc ión b io lóg i ca , todo camb ioes f ru to de una mutac ión , a veces de c i v i l i z a c ión y a veces de barba r i e . Todo e l l o obedece en g ran med ida a l aza r o a f a c to resimpredec ib l e s .
Pero l a i n ce r t i dumbre no ve r sa só lo sob re e l f u tu ro . Ex i s te t amb iénl a i n ce r t i dumbre sobre l a va l i dez de l conoc im ien to . Y ex i s te sobretodo l a i n ce r t i dumbre der i vada de nues t ra s prop ia s dec i s i ones .Una vez que tomamos una dec i s i ón , emp ieza a f unc iona r e lconcepto eco log í a de l a acc ión , es dec i r , se desencadena una se r i ede acc iones y reacc iones que a fec tan a l s i s tema g loba l y que nopodemos predec i r . Nos hemos educado acep tab lemente b ien en uns i s tema de ce r te zas , pero nues t ra educac ión para l a i n ce r t i dumbrees de f i c i en te . En e l co loqu io , re spond iendo a un educador quepensaba que l a s ce r te za s son abso lu tamente necesa r i a s , Mor inmat i zó y rea f i rmó su pensamien to : "ex i s ten a l gunos núc leos dece r te za , pero son muy reduc idos . Navegamos en un océano deince r t i dumbres en e l que hay a l gunos a rch ip i é l agos de ce r te za s , nov i ceve r sa . "
6 . Enseñar l a comprens ión
La comprens ión se ha to rnado una neces idad c ruc i a l para l o s humanos . Por eso l a educac ión t i ene que aborda r l a de manerad i rec ta y en l o s dos sen t idos : a ) l a comprens ión i n te rpe r sona l ein te rg rupa l y b ) l a comprens ión a esca l a p lane ta r i a . Mor in cons ta tóque comun i cac ión no imp l i c a comprens ión . És ta ú l t ima s i empre es tá amenazada por l a i n comprens ión de l o s cód igos é t i cos de l o sdemás , de sus r i to s y cos tumbres , de sus opc iones po l í t i c a s . Aveces con f ron tamos cosmov i s iones i n compat ib l e s . Los g randesenemigos de l a comprens ión son e l ego í smo , e l e tnocent r i smo y e l soc iocen t r i smo . Enseña r l a comprens ión s i gn i f i c a enseñar a no
9
reduc i r e l se r humano a una o va r i a s de sus cua l i dades que sonmú l t i p l e s y comp le j a s . Por e jemp lo , imp ide l a comprens ión marca ra dete rminados g rupos só lo con una e t ique ta : suc io s , l ad rones , i n to l e rantes . Pos i t i vamente , Mor in ve l a s pos ib i l i dades de mejo ra rl a comprens ión med ian te : a ) l a aper tu ra empát i ca hac i a l o s demásy b ) l a to l e ranc i a hac i a l a s i deas y f o rmas d i fe ren tes , mient ra s noa ten ten a l a d ign idad humana .
La ve rdadera comprens ión ex i ge es tab lece r soc iedades democrá t i ca s , f ue ra de l a s cua le s no cabe n i to l e ranc i a n i l i be r tadpa ra sa l i r de l c ie r re e tnocént r i co . Por eso , l a educac ión de l f u tu rodeberá asumi r un compromi so s in f i su ra s por l a democrac i a ,po rque no cabe una comprens ión a esca l a p lane ta r i a ent re pueb los y cu l tu ras más que en e l marco de una democrac i a ab ie r ta .
7 . La ét i ca de l género humano
Además de l a s é t i ca s par t i cu l a re s , l a enseñanza de una é t i ca vá l i dapa ra todo e l género humano es una ex i genc ia de nues t ro t i empo .Mor in vo l v ió a presen ta r e l buc le i nd i v iduo — soc i edad — espec ie como base para enseña r l a é t i ca ven ide ra .
En e l buc le i nd i v iduo — ‐ soc i edad su rge e l deber é t i co de enseñarl a democrac i a . És ta imp l i ca consensos y aceptac ión de reg la sdemocrá t i ca s . Pero t amb ién neces i t a d i ve r s idades y antagon i smos .E l con ten ido é t i co de l a democrac i a a fec ta a todos esos n i ve le s . E lre spe to a l a d i ve r s idad s i gn i f i c a que l a democrac i a no se i den t i f i c acon l a d i c tadura de l a mayor í a .
En e l buc le i nd i v iduo — espec ie Mor in f undamenta l a neces idad de enseñar l a c iudadan ía t e r re s t re . La human idad de jó de se r unanoc ión abs t r a c ta y l e j ana para conver t i r se en a l go conc re to yce rcano con i n te racc iones y compromi sos a esca l a te r re s t re .
Pub l i cado en E l Pa í s Dig i t a l .
E l t ex to comp le to en f o rmato ac roba t reade r ( . pd f ) se encuent raen : Pág ina de l a Cá tedra Unesco I t i ne ran te para Pensamien to Comp le jo‐ Edga r Mor in .
10
INTERDISCIPLINA Y NUEVOS PARADIGMAS
La ciencia de fin de siglo Dra. Denise Najmanovich
Desde el 23 hasta el 26 de Octubre se realizará en el Teatro Coliseo de Buenos Aires, el Encuentro Interdisciplinario Internacional de Nuevos Paradigmas, Cultura y Subjetividad, organizado por la fundación Interfás. Para esa fecha se harán presentes el Premio Nobel de química Ilya Prigogine, creador de la Teoría del Caos; Edgar Morin, uno de los principales exponentes del pensamiento interdisciplinario, que ha desarrollado su pensamiento en áreas que van desde la antropología y la sociología hasta la epistemología; Ernst von Glaserfeld, epistemólogo que junto a Heinz Von Foerster desarrolló aspectos centrales de la Cibernetica de Segundo Orden, Felix Guattari, Psicoanalista y crítico de arte .Junto a ellos Mony Elkaim, Carlos Sluzki, Harold Goolichian y otros popes de la Terapia sistemica. El encuentro contará, además, con la presencia de teóricos de la comunicación, críticos de arte y teóricos de la arquitectura de prestigio internacional.
Ante tal avalancha de gente importante, muchos se han preguntado: ¿ porque una fundación sistemica decide juntar gente tan diferente ? ¿ porque ahora ? Intentaremos, en esta nota, buscar la pauta que conecta a todas estas personas, disciplinas, búsquedas, que se darán cita en esta ciudad ‐ aun perteneciente al tercer mundo ‐ para reflexionar sobre el siglo XX y pensar el XXI.
LOS PARADIGMAS
Una de los hipótesis que nos pueden ayudar a comprender este encuentro es que el año próximo se cumpliran 30 años de la publicación del libro de T. Kuhn La Estructura de las Revoluciones científicas. Tal vez los organizadores no hayan reparado en este hecho, sin embargo, este texto que revolucionó primero el ámbito restringido de los historiadores y filósofos de la ciencia se ha convertido en un material de amplia consulta que desde hace 3 decadas está ubicado en las estanterías de las bibliotecas y librerías más importantes del múndo, casi como un clásico. El concepto de paradigma, que Kuhn desarrolla en el, y que algún crítico dijera que tiene más de 20 significados distintos, ha alcanzado hoy una difusión fenomenal en todos los ámbitos de la cultura, pese a la férrea oposición del Positivismo Lógico que prácticamente hasta los años sesenta era considerado como la filosofía oficial de la ciencia.
En este texto Kuhn expone una nueva concepción del desarrollo científico, explica el rol protagónico que le cabe a la historia en el establecimiento de una nueva filosofía de la ciencia, plantea la necesidad de revisar en profundidad los conceptos en uso sobre la ciencia, su producción, su impacto social, sus conexiones con la filosofía y la compleja relación teoría‐observación. Kuhn, critica la postura tradicional de la filosofía de la ciencia que considera a la investigación científica como una larga marcha hacia la verdad a través de un método que garantiza la objetividad y la neutralidad de la producción científica . Frente a este esquema de desarrollo continuo y progresivo, que elaboraron los positivista lógicos, Kuhn propone su concepción de los Paradigmas, como modelos ejemplares que guían la investigación en un área determinada del conocimiento y que son sustituidos por otros nuevos mediante verdaderas revoluciones científicas.
11
Un paradigma establece el marco conceptual dentro del cual se desarrollará la investigación en un área determinada, plantea cuales serán la entidades fundamentales del universo, que clase de interacción tendrán entre ellas, que clase de preguntas serán consideradas legítimas y que tecnicas serán las adecuadas para buscar las soluciones.
DE LA SIMPLICIDAD A LA COMPLEJIDAD
Desde el nacimiento de la ciencia moderna hasta casi nuestro siglo reinó el paradigma de la simplicidad. El exponente máximo de este paradigma fue la dinámica de Newton, siguiendo su ejemplo todas las explicaciones debían ser económicas, expresadas en leyes deterministas, basadas en modelos ideales . La mecánica newtoniana fundamentaba su poder en el metodo analítico, en la búsqueda de unidades fundamentales y el estudio de su comportamiento, para luego por ensamblaje de partes explicar el comportamiento del conjunto.
El siglo XIX inauguro los grandes problemas conceptuales que iban a eclosionar en el nuestro. Darwin desarrolló la Teoría de la Evolución, en Francia Fourier crea la nueva ciencia del calor que llevará al desarrollo del concepto de entropía y la flecha del tiempo.( Ver recuadro).
En nuestro siglo, la biología y las ciencias sociales y tambien la física, necesitaron explicar el cambio, la transformación y la complejidad. El marco conceptual newtoniano no permitía abordar estas problemáticas ya que los paradigmas son para los científicos como los expedientes para los jueces, lo que no figura allí no está en el mundo
En este contexto Ludwig von Bertalanffy, un biologo centrado en la elaboración de conceptos que pudieran explicar el comportamiento del organismo como un todo, crea la Teoría General de los Sistemas, en 1945. La Dra. Dora Fried Schnitman explica en su libro " Aspectos Culturales en Terapia Familiar. Un Modelo Sistemico " cómo los trabajos de Bertalanffy confluyeron con otros desarrollos paralelos que, desde distintas perspectivas, se estaban planteando el problema de la complejidad: " Durante este período se publicaron, casi simultáneamente, el trabajo de Wiener sobre Cibernetica ( 1948 ), los trabajos sobre teoría de la comunicación de Shannon y Weaver ( 1949 ) y sobre la teoría del Juego de von Neumann y Morgenstern ( 1949 ). Todas estas teorías compartían un interes por estudiar objetos complejos con metodologías no reduccionistas ".
Diferentes líneas de investigación han enfatizado diversos aspectos de la teoría de sistemas, pero todas ellas aceptan el dictum aristotelico : el todo es más que la suma de las partes. Esto se aplica tanto al organismo de los seres vivos, como al comportamiento individual, familiar o social, a los sistemas de comunicación, incluidos los lenguajes y en general a todo sistema complejo. Es por esto que la teoría general de sistemas es de naturaleza interdisciplinaria, o mejor aún transdisciplinaria, ya que remite a características muy generales que comparten sistemas muy diversos y esto nos lleva a comprender porque existen diferentes enfoques de la perspectiva sistemica como la cibernetica, la teoría de autómatas, la de la información, la de control, la de conjuntos, la de grafos y redes, la de juegos y decisiones, la matemáticas relacionales, la computación y muchas otras.
La Teoría General de los Sistemas, rompe con el paradigma newtoniano de simplicidad y analiticidad para plantearse problemas relacionados con la complejidad e interacción. Desde sus inicios el movimiento sistemico ha sido consciente del cambio conceptual que estaba proponiendo, la investigación ha estado ligada siempre a la reflexión epistemológica, cuestionando la omnipotencia del metodo analitico, fijando el foco de atención en las redes de relaciones, más que en los elementos; en los bucles de retroalimentación más que en la causalidad lineal y unidireccional. Bertalanffy,cuestionando la teoría del conocimiento del
12
positivismo lógico, decía : la percepción no es un simple reflejo de las " cosas reales "( sea cual fuere su status metafísico ),y el conocimiento no constituye una mera aproximación a la " verdad " o " realidad ", sino una interacción entre cognoscente y cognoscendo, que depende de una gran variedad de factores biológicos, psicológicosm culturales, linguisticos .
Desde la perpectiva sistemica el centro de gravedad de la investigación pasa por los modelos de interacción, irreductibles, complejos, multicausales y no lineales, en sistemas abiertos.
Bertalanffy eligió intuitivamente a los sistemas abiertos‐ que intercambian materia, energía e información con el medio‐ como modelo general y la investigación posterior confirmó las ventajas de esta decisión ya que la Teoría de Sistemas Abiertos guarda múltiples relaciones con la cinetica química en sus diversos aspectos, desde los teóricos hasta los tecnológicos; con la termodinámica de procesos irreversibles de Prigogine, con la fisiología y tambien con las ciencias sociales, otorgando a la Teoría un alto grado de conexiones y generalidad.
Ilya Prigogine, por su parte, rompió con el paradigma de la simplicidad siguiendo la lógica interna de sus investigaciones con sistemas lejos del equilibrio que lo obligaron a desarrollar nuevas categorías conceptuales para abordar los problemas de la complejidad, la tranformación y la evolución de los sistemas que estudiaba. Tanto la preocupación por la problemática glogal de la complejidad como su interes en la reflexión epistemológica llevaron a un acercamiento entre Prigogine y los sistemicos que fue el punto inicial de un fructífero intercambio que llegará a su madurez en el siguiente período evolutivo de la Teoría de sistemas.
DEL MANTENIMIENTO AL CAMBIO
En un primer período de evolución, que va desde sus orígenes hasta finalizar la decada del sesenta, la investigación se centró en el objetivo de comprender el equilibrio dinámico; guiados en buena parte, por el gran enigma biológico respecto al mantenimiento de la estructura corporal. Sabemos que nuestras celulas se recambian permanentemente, pese a ello nos concebimos como un organismo más o menos estable , al menos durante algunos períodos de tiempo ( arruga más, arruga menos ). Al respecto nos dice la Dra Schnitman: " El desarrollo temprano de la Cibernetica y la Teoría General delos Sistemas se caracterizó por un enfasis en la estructura, la adaptación, el equilibrio dinámico, con el propósito de comprender cómo una organización dada podía ser estabilizada y mantenida por medio del cambio continuo, "(...)"Sin embargo las estructuras vivientes y sociales no pueden ser estabilizadas permanentemente, tambien requieren una comprensión las transformaciones espontáneas; la sistemica integró progresivamente el estudio del cambio estructural y de la capacidad de transformaciones espontáneas del sistema como dominio necesario.".
Este segundo período de la sistemica se inicia con la decada del 70 y su busqueda fundamental es la comprensión del cambio. En este terreno los aportes de Prigogine han sido profundamente relevantes, ya que su modelo de estructuras dispativas, sujetas a fluctuaciones internas y externas, que a partir de cierto valor crítico , o umbral, se amplifican y llevan a la formación de nuevas estructuras permite desarrollar nuevas categorías conceptuales y modelos que integren la dinámica del cambio, el azar y la necesidad, el mantenimiento y la transformación.
Edgar Morin, desde sus investigaciones sociológicas y antropológicas, y tambien desde la reflexión epistemológica realizó valisísimos aportes en este período y en el siguiente, que se reflejan en su Trilogía: " El metodo ". Morin,desde una perspectiva centrada en la complejidad,
13
se orienta hacia una concepción bio‐antropo‐cosmológica, en donde los niveles físico, viviente y social no sean compartimentos estancos sino que se articulen e integren.
El pensar en torno al cambio y la evolución llevó en su desarrollo natural a que los investigadores se cuestionaran sobre las condiciones de producción de conocimiento, la aparición de novedades, la creatividad. Esto nos lleva a un tercer período evolutivo que se expresa más fuertemente en el tercer tomo de la trilogía, El Conocimiento del Conocimiento, y que Heinz von Foerster bautizó Cibernetica de Segundo Orden.
LA GENERATIVIDAD
La epistemología positivista se corresponde claramente con el paradigma de la simplicidad. El sujeto ( científico ) es un observador ( neutral, objetivo ) de una naturaleza que es independiente ( ajena a sus deseos y sufrimientos ). El conocimiento es reflejo ( en el sujeto ) de la realidad que está allí afuera; el conocer no modifica esta realidad ya que el observador no interfiere en absoluto con su objeto de estudio.
Esta concepción objetivista del conocimiento no fue cuestionada exclusivamente por Kuhn. Desde otra perpectiva Jean Piaget, realizó una crítica demoledora en sus investigaciones en psicología experimental y epistemología genetica, desarrollando una postura constructivista del conocimiento, donde sujeto y objeto ya no son polos opuestos de una dicotomía, sino que ambos se co‐construyen en el proceso de conocimiento.
Ya en las primeras decadas del siglo, la propia física, a traves del principio de indeterminación de Heisemberg, introduce al observador dentro de la teoría científica; y aunque mucho más tardiamente la biología, especialmente la neurofisiología, con los aportes de McCulloch, Maturana y Varela, confirman que no podemos prescindir del observador como parte del sistema de observación, desde la investigación de fenómenos fisiológicos.
La cibernetica de segundo orden da cuenta de este proceso de reflexión del conocimiento del conocimiento, donde para conocer el cerebro utilizamos...el cerebro, para conocer el lenguaje utilizamos...el lenguaje, es decir donde la recursividad es la norma, donde no hay linealidad posible, solo bucles. Este tercer período contó entre sus máximos exponentes con los aportes de Ernst von Glaserfeld y Heinz von Foerster.
INTERDISCIPLINARIEDAD, TRANSDISCIPLINARIEDAD
Hasta aquí hemos visto cómo se enlazan la Teoría de sistemas, la reflexión epistemológica desde Kuhn a la Cibernetica de segundo Orden, las teorías de Prigogine y Morin. Sólo nos resta pensar cual es la pauta que las conecta con la Terapia Familiar sistemica, el arte la arquitectura y sus críticos, en esta red del pensamiento de la complejidad.
La Teoría general de los sistemas nació como una perspectiva transdiciplinaria, que permite abordar sistemas complejos de cualquier clase. No constituye una disciplina en si, sino una metadisciplina, pues más que una teoría sobre el mundo, es una teoría para desarrollar teorías . Estas últimas sí nos hablaran del mundo, y de nosotros hablando del mundo, y seran teorías sistemicas de áreas específicas. En este sentido, tanto la Teoría de Bertalanffy como la cibernetica de Wiener han sido muy influyentes en el desarrollo de la Terapia Familiar, especialmente gracias al grupo de Gregory Bateson y colaboradores de Palo Alto que estaban desarrollando investigaciones sobre la comunicación en grupos humanos, que fueron derivando en la conceptualización de una estrategia terapeutica.
14
No debe extrañarnos entonces que una fundación sistemica, como es Interfas, convoque a este encuentro para reflexionar sobre los nuevos paradigmas, la cultura y la subjetividad. El quiebre del paradigma newtoniano, el surgimiento de distintas perspectivas y alternativas nos llevan a la necesidad de pensar sobre estos cambios, evoluciones y crisis que se expresan en la historia de las ideas (paradigamas), en la historia de las sociedades ( culturas) y de los individuos que las co‐forman ( sujetos ).
La realización de este encuentro es, tal vez, el mejor regalo que Kuhn hubiera soñado para festejar los 30 años de la publicación de su libro clave. Este nuevo paradigama de la complejidad se desarrolla desde una red de pensadores, que desde diversos puntos de vista tratan de construir una perspectiva para conocer(se). En este proyecto no hay disciplinas privilegiadas ni convidados de piedra. El arte, la ciencia, la filosofía son sólo formas en que los hombres abordan la multiplicidad de planos y posiblidades de ser...humanos.
15
LA METAMORFOSIS DE LA CIENCIA Dra. Denise Najmanovich
Ilya Prigogine no es un científico común. No solo porque es uno de los pocos que han recibido el premio Nobel, sino también porque se encuentra entre los poquísimos que han trascendido su área específica ‐ la física‐ para dejar su huella en otras disciplinas como la filosofía de la ciencia, la psicología o la sociología.
Las teorías de Prigogine son parte la búsqueda de un nuevo paradigma, de una nueva concepción de la ciencia y de las descripciones que ella hace de la naturaleza.
La ciencia clásica nos ha mostrado un universo mecánico, manipulable, eficaz : el universo reloj de la Modernidad. Esta imagen mecanicista creada por Descartes y adaptada por Newton y sus sucesores reemplazó a la descripción aristotélica de un universo vivo, orgánico y creativo. Con el cambio ganamos muchas cosas, pero perdimos otras, al igual que cuando abandonamos la niñez para convertirnos en adultos.
Muchos científicos consideran que ha llegado el momento de hacer una síntesis integradora, de crear puentes entre las disciplinas que nos ayuden a componer una imagen más armónica de la naturaleza y del hombre como parte integrante de ella.
Los aportes de Prigogine en esta búsqueda son fundamentales, tanto en su trabajo específico , que abre las puertas de la ciencia al estudio de la complejidad y de la flecha del tiempo ( ver recuadro ), como en su búsqueda de integración con otras disciplinas y su trabajo en pro de una nueva alianza y de un diálogo fecundo entre la ciencia y la filosofía.
Prigogine nos ha presentado un apasionante análisis de la evolución de la ciencia a partir de dos concepciones del universo físico en conflicto: la imagen estática y la imagen evolutiva. Pero sus trabajos no se limitan a la perspectiva histórica, ya que no es, ni pretende ser un historiador; sino que muestra un camino alternativo surgido de sus investigaciones científicas y de su reflexión filosófica. "Estamos avanzando hacia nuevas síntesis, hacia un nuevo naturalismo, que combina la tradición occidental, con su énfasis en las formulaciones experimental y cuantitativa, con la tradición china dirigida hacia una imagen de mundo autoorganizándose espontáneamente.", dice
El universo domesticado
Para comprender el pensamiento de Prigogine debemos seguir el camino que el construyó junto con Isabelle Stengers y que expuso deliciosamente en su libro: "La nueva alianza. Metamorfosis de la ciencia". Esta presentación histórica es imprescindible para delinear el marco conceptual y la importancia de los aportes de Prigogine; y además, para poder representarnos las enormes tensiones, batallas y revoluciones conceptuales implicadas en esta metamorfosis de nuestra imagen del Universo.
La concepción aristotélica dominó nuestra civilización entre los siglos XII y XVI y se derrumbó con gran estrépito mediante un traumático proceso que cambió radicalmente nuestra manera de concebir el mundo. Esta gran modificación conceptual se denominó Revolución Copernicana y marcó un hito en la historia del pensamiento occidental. Copérnico apenas dió un
16
puntapié inicial a esta revolución; Galileo y Kepler la encauzaron y Descartes lo encarriló dentro de una concepción mecanicista que recién llegaría a su madurez con Newton.
Antes de la gran transformación que da surgimiento a la ciencia moderna, el universo era concebido como un todo orgánico, cuya característica fundamental era la interdependencia de los fenómenos materiales y espirituales. En el universo aristotélico el hombre formaba parte de la naturaleza armónicamente y en plano de igualdad con las otras criaturas. La tarea de los filósofos (no había división entre ciencia y filosofía), era tratar de comprender el significado y la importancia de las cosas. No predecirlas. Mucho menos controlarlas.
La ciencia moderna, en cambio, produjo un universo donde el hombre : "...Debe por fin despertarse de su sueño milenario; y haciendo esto, despertarse en su completa soledad, en su aislamiento fundamental. Pero ¿ se da cuenta de que, como un gitano, vive en la frontera de un mundo extraño ? Un mundo sordo a su música, tan indiferente a sus esperanzas como lo es a su sufrimiento " según lo describió, de una manera trágica y bella J. Monod en el "El azar y la necesidad". En adelante el hombre será considerado un observador separado en un universo que le es ajeno; donde, según las normativas de Francis Bacon, el científico debía "torturar a la naturaleza hasta arrancarle sus secretos" ,porque "saber es poder".
Sobre este proceso, I. Prigogine y I. Stengers nos dicen en "La Nueva Alianza":
" El sorprendente éxito de la ciencia moderna llevó, por lo tanto, a una transformación irreversible de nuestra relación con la naturaleza ". ... " Reveló al hombre una naturaleza muerta y pasiva, una naturaleza que se comporta como un autómata, que una vez programada funciona eternamente siguiendo las reglas escritas en su programa ".
Dioses o demonios
Luego de las revoluciones, aun de las conceptuales, es necesario un nuevo período de estabilidad. Como se sabe la tempestad no puede durar eternamente. Es así que en el siglo XVIII sobrevino la calma; la ciencia moderna se transformó en la productora de la cosmovisión dominante, la concepción aristotélica fue relegado a los monasterios o al olvido, y el paradigma newtoniano iluminó la nueva aurora de la modernidad.
El universo mecanicista no se estableció en un día pero en los comienzos del siglo XIX, tanto en Inglaterra, como en el continente Europeo brillaba con su máxima intensidad. Tal es así, que cuando en 1805 Pierre Simón de Laplace le presentó a Napoleón; su obra "Mecánica Celeste" ‐que completaba la obra de Newton en algunos de sus aspectos más importantes‐, fue interpelado por el Emperador, quien le dijo: ‐ " Me dicen, M. Laplace, que a lo largo de este voluminoso libro sobre el sistema del universo no mencionais una sola vez al Creador "
A lo que Laplace respondió:
‐ " No he necesitado de esa hipótesis "
El mecanicismo laplaciano expulsó a Dios definitivamente de la explicación científica considerándolo una hipótesis prescindible. El Universo laplaciano es un mecanismo de relojería eterno e increado.
Es así que en el curso de los siglos XV, XVI y XVII se produce una transformación radical en el campo conceptual; de la concepción de un Universo poético y espiritual, armónico y pletórico de sentido; bello de contemplar y posible de comprender, se pasó a pensar que habitamos en un mundo mecánico, inodoro, incoloro e insípido pero manipulable eficazmente gracias al poder que nos da la nueva ciencia .
17
En la Modernidad se ha roto la vieja alianza entre el conocimiento científico y filosófico, entre el alma y el cuerpo, entre el arte y la ciencia. La cultura humanística se reserva para sí la literatura, la pintura, la filosofía, el sufrimiento pero también el goce; todos separados del que en adelante se denominará conocimiento objetivo del Universo. Se establece así la separación del Sujeto, en adelante observador imparcial; y el Objeto, realidad independiente del sujeto. La expresión de esta dicotomía en el campo del conocimiento es la separación entre la cultura científica objetivista ( que se ocupa de la materia y sus leyes) y la cultura humanista subjetivista (que se ocupa del alma y sus expresiones). Prigogine señaló con claridad el peligro que entraña este divorcio entre las dos culturas: "Se encuentra así acentuada una tendencia al enclaustramiento general que, en particular, corta a la filosofía de una de sus fuentes tradicionales de reflexión, y a la ciencia de los medios de reflexionar sobre su práctica".
La ciencia moderna ha dado grandes cosas a la humanidad, desde los automóviles a las naves espaciales, los antibióticos y los plásticos, pero nos ha separado, escindido en dos culturas que no se yuxtaponen ni intercambian entre sí. No solo Dios ha sido expulsado del universo newtoniano sino también la ética y la estética, la metafísica y el alma han quedado fuera de este universo geométrico, regido por leyes matemáticas ajenas a nuestro dolor y nuestro deseo.
En el universo científico el destino está fijado por leyes mecánicas; el azar no tiene lugar, todo acontecimiento está determinado, el mundo se rige por una dinámica de causa‐efecto.
El universo desbocado
El siglo XX cambió radicalmente su forma de ver el mundo, las concepciones estáticas fueron cediendo el paso a las evolutivas. La imagen del Universo sufrió una gran transformación que comenzó a esbozarse en el transcurso del siglo XIX y tomó una forma más definida en el nuestro. La teoría de la evolución darwiniana se impuso en biología y se está imponiendo en cosmología una concepción evolucionista que nos habla de un Universo en expansión, y en muchas otras áreas del conocimiento científico el enfoque evolutivo es considerado fundamental.
El trabajo científico que desarrolló Prigogine y que le valió el Premio Nobel de Química en 1977 se inscribe en el área de investigación fisicoquímica conocida como termodinámica (teoría del calor, sus flujos y transformaciones), y ha sido un aporte fundamental para esta nueva concepción evolutiva de la naturaleza.
Para comprender los aportes de la termodinámica a esta nueva imagen del Universo, utilizaremos nuevamente un enfoque histórico, siguiendo los pasos de Prigogine y Stengers.
El primer gran paso de la termodinámica, nueva ciencia que se estableció en el siglo XIX, lo dió Joule cuando postuló el principio de conservación de la energía: "La energía no se crea ni se destruye, solo se transforma". Pero no sólo éxitos cosechó la nueva disciplina, también hubo muchas sorpresas y se les plantearon nuevos problemas a los investigadores; pues, aunque Sadi Carnot en 1824 consiguió reducir el estudio de las máquinas térmicas al modelo de las máquinas clásicas, lo hizo trabajando desde el único punto de vista del rendimiento ideal, pero había descuidado el hecho de que lo que estas máquinas consumen desaparece sin retorno. Ninguna máquina térmica restituirá al mundo el carbón que ha utilizado.
¿Qué máquina tendrá el rendimiento ideal? Nuestra experiencia nos dice que ninguna, en un tiempo mayor o menor todas se detienen, ya sea por falta de combustible, por fallas mecánicas, desgaste o rotura.
18
"La obsesión por el agotamiento de las reservas y por la detención de los motores, la idea de una decadencia no reversible, traduce ciertamente esta angustia propia del hombre moderno" , explica Prigogine en La Nueva Alianza .
Angustia debido a que el segundo principio de la termodinámica ha estallado como una bomba en el mundo de la ciencia; separando lo ideal reversible de los real irreversible, ya que una parte de la energía se disipa como calor y no podemos recuperarla. Este segundo principio puede enunciarse de distintas maneras, la más sencilla es la que nos dice que "es imposible una máquina con movimiento perpetuo" debido a que, por ingenioso que sea el diseño de su motor, no toda la energía se puede convertir en trabajo mecánico. La termodinámica dejó bien en claro a los ingenieros el porqué en cada ciclo parte de la energía se convierte (no se pierde) en una forma imposible de utilizar. En el caso de un motor, por ejemplo, nunca volverá exactamente a su estado inicial, aunque el pistón vuelva a su posición original; el sistema se encuentra en un estado termodinámico diferente, ya que sólo un porcentaje de la energía química de la nafta se convierte en trabajo útil, el resto se pierde como calor, vibraciones mecánicas, energía contenida en los gases de escape. Carnot desarrolló el segundo principio en base a su análisis de los motores térmicos, pero Clausius en la década de 1860 a 1870 se dió cuenta que esta dificultad cada vez mayor de transformar calor en trabajo era un fenómeno más amplio y que además de las máquinas térmicas abarcaba a muchos otros sistemas. Clausius se dió cuenta que había un principio general que implicaba que al disminuirse las diferencias de nivel en un sistema (por ejemplo la diferencia de calor entre un recipiente caliente y otro frío en las máquinas térmicas) la posibilidad de convertir esa diferencia en trabajo mecánico era cada vez menor. Para expresar este fenómeno desarrolló el concepto de entropía. ¿Qué es, pues, la entropía ? El termino proviene y la palabra griega "tropos" (transformación o evolución) y mide el grado de evolución de un sistema físico; cuando más cerca estemos del equilibrio mayor será la entropía y menor la actividad del sistema. Como vimos, la energía mecánica nunca se transforma totalmente en trabajo sino que una parte se disipa como calor. Clausius relacionó este fenómeno con otros aparentemente inconexos: vió que cuando juntamos agua caliente y agua fría obtenemos agua tibia ‐y los dos líquidos nunca pueden ser separados‐, la diferencia de temperatura entre ambos recipientes es cada vez menor, el desequilibrio inicial va disminuyendo y con él la capacidad de producir trabajo. Algo parecido sucede si sacamos el tabique divisorio de un recipiente que contenga arena blanca de un lado y arena negra del otro, al cabo de un tiempo tendremos solamente arena gris, del desequilibrio cromático blanco‐negro pasamos a la homogeneidad del gris. A la vez podemos considerar que de un sistema estructurado pasamos a uno más desestructurado o desordenado, los granitos de arena están repartidos homogeneamente por todo el recipiente y no "cada uno en su lugar". ¿Qué tienen en común todos estos fenómenos? Todos proceden en la misma dirección: del desequilibrio al equilibrio, del orden al desorden, hacia una entropía cada vez mayor. En base a este análisis, surge la formulación más general del segundo principio: Cualquier sistema físico aislado tomará espontáneamente el camino del desequilibrio cada vez menor, se hará cada vez más homogéneo. En términos de entropía diremos que en cualquier sistema físico aislado la entropía aumenta o permanece constante. Es fácil ver cómo la evolución de entropía se traduce en una evolución irreversible del sistema, ya que aquello que se ha disipado no se recupera y si invertimos el proceso no llegaremos nunca a la situación inicial.
19
Nos dice Prigogine: " El crecimiento de entropía muestra una evolución espontánea del sistema. La entropía llega a ser así un indicador de evolución, y traduce la existencia en física de una flecha del tiempo: para todo sistema aislado el futuro está en la dirección en la cual la entropía aumenta". Todo esto que parece tan trivial tomó por sorpresa a los físicos newtonianos, ya que en su descripción mecánica del universo, el tiempo y los procesos son reversibles como el funcionamiento de un reloj. Normalmente sus agujas giran en un sentido, pero podemos hacer que giren exactamente al revés con solo girar la cuerda. A finales del siglo XIX, los dos principios de la termodinámica constituían leyes nuevas, base de una nueva ciencia, que era imposible referir a la física tradicional y aunque luego se logró compatibilizarlas surgieron nuevos inconvenientes, esta vez desde la biología. El segundo principio de la termodinámica indica que la entropía de un sistema crece constantemente o permanece constante, que la dirección espontánea de cualquier proceso es siempre desde un mayor nivel de estructuración a uno menor. Todos sabemos que nuestros departamentos se ensucian "espontáneamente" y que nos cuesta mucha energía volver a limpiarlos y ordenarlos. Sin embargo, la teoría evolutiva dice todo lo contrario: primero existieron los animales más simples, menos estructurados, y luego fueron evolucionando hacia formas cada vez más complejas. En la vida de cada individuo sucede lo mismo, desde un huevo pasamos a ser una masa de células que luego se diferencian para formar el feto, cada vez más complejo. La flecha biológica parece tener un sentido contrario a la termodinámica. El universo reencantado Nuestra experiencia de vida se opone a la imagen termodinámica clásica de un universo en permanente degradación. Pero, ¿es posible que los seres vivos vayan a contramano por la avenida termodinámica? Los biólogos comprendieron rápidamente que no debían extrapolar los resultados de la termodinámica clásica a la biología, ya que para esta ciencia el equilibrio es un estado marginal (la muerte) y el no‐equilibrio su objeto de estudio: la vida. La evolución biológica tal cual la planteara Darwin es un acontecimiento sumamente extraño y muy poco probable desde la concepción termodinámica mencionada y la aparición de la vida es altamente improbable. Para los mecanicistas somos un increíble producto del juego de azar cósmico. Fue justamente Prigogine el encargado de reconciliar a la biología y a las ciencias humanas ‐ya que en estas también se verifican los fenómenos de aumento de complejidad, amplificación de innovaciones, evolución‐ con la termodinámica. Para lograrlo tuvo que desarrollar nuevas y revolucionarias concepciones. Toda la termodinámica clásica estaba centrada en el estudio de sistemas aislados en, o muy cerca del equilibrio; sin embargo Prigogine trabajó con sistemas alejados de él. La termodinámica del siglo XIX, en cambio, se centró en los procesos cercanos al equilibrio para describir un universo en permanente degradación, Prigogine desde su Termodinámica No Lineal de los Procesos Irreversibles (TNLPI) describe cómo, en situaciones lejos del equilibrio, se forman nuevas estructuras (en adelante llamadas estructuras disipativas), y denominó orden mediante fluctuaciones a la dinámica de formación de tales estructuras. En la termodinámica clásica un sistema podía evolucionar hacia un sólo estado final: el equilibrio, y el proceso era lineal. En la TNLPI éste no es el caso, ya que no podemos determinar absolutamente la trayectoria evolutiva de un sistema, sino que aparecen distintas opciones, los caminos se bifurcan y en la vecindad de las bifurcaciones interviene el azar, nuestras leyes no nos permiten deducir cuál camino tomará un sistema al llegar a una bifurcación. El equilibrio no es más el único estado final posible, en términos físicos, no es el único atractor. Gracias a la
20
investigaciones de Prigogine y colaboradores se han estudiado otros atractores denominados caóticos. Sin embargo, lejos de todo lo que uno pueda imaginarse sobre estos atractores caóticos, estos son fuente de creación, aparición de nuevas estructuras y pautas complejas de organización. Estas investigaciones han convergido en lo que hoy se conoce como la Ciencia del Caos, que estudia la formación de nuevas estructuras en sistemas abiertos lejos del equilibrio, como los seres humanos, el cerebro, algunos fenómenos atmosféricos o las sociedades humanas. La TNLPI marca otra derrota histórica de la concepción determinista en la física, la primera la ejecutó la teoría cuántica con su principio de indeterminación; pero Prigogine fue más allá e introdujo el concepto de historia en física: ya no hay una sola trayectoria posible, en las bifurcaciones el azar a elegido un camino y descartado otros, podemos construir la historia natural del sistema; ya no somos esclavos de un destino inapelable escrito en las leyes universales con caracteres matemáticos. Las teorías de Prigogine nos abren las puertas a un Universo abierto que no está absolutamente determinado, en donde el azar y la necesidad se conjugan para darnos estabilidad pero también creatividad. Un mundo imprevisible totalmente sería inhabitable para ser vivientes y un mundo totalmente estable sería insoportable para seres conscientes. Las leyes de la biología son nuevamente compatibles con las de la física, la evolución biológica es absolutamente coherente con la perspectiva evolucionista de la TNLPI de Prigogine, los seres vivos pueden ser considerados estructuras disipativas sujetas a fluctuaciones que pueden amplificarse hasta implicar una reorganización total en un nivel más complejo (una nueva especie). El desarrollo humano, tanto individual como social, también puede expresarse en términos de estructuras disipativas, fluctuaciones y creación de nuevas organizaciones. En este universo reencantado se abren nuevas posibilidades de encuentro entre las ciencias y las humanidades, el hombre deja de ser un espectador pasivo de las leyes eternas e inmutables y del destino que está escrito en ellas. El tiempo y la irreversibilidad no son tan sólo una ilusión, el caos no implica solo desorden sino también creatividad. La ciencia posrelativista nos ha abierto nuevas perspectivas. Los fenómenos ya no son abordados exclusivamente desde perspectivas privilegiadas, la flecha del tiempo no nos impulsa vertiginosamente hacia un universo degradado, sino por el contrario sabemos que vamos por un camino de creatividad y complejidad creciente. Esto nos impulsa a desarrollar nuevas categorías conceptuales para enfrentar el desafío de comprender el Universo lejos del equilibrio con sus permanentes sorpresas y nuevas posibilidades. La pesadilla de un destino prefijado es hoy parte de los libros de historia. La Física del siglo XX ha entrado en una nueva etapa. LA FLECHA DEL TIEMPO El diablillo de Laplace es una supermente equipada con el conocimiento de las leyes newtonianas del movimiento. Si somos capaces de suministrarle información sobre la posición exacta de todas las partículas en un instante dado, el diablillo podrá calcular ‐a partir de esta información exclusivamente‐ cualquier suceso pasado o futuro del universo. Para el diablillo el antes y el después son equivalentes, no hay forma de saber cuál es cuál, ya que el aplica siempre las mismas fórmulas; el tiempo para el es sólo una ilusión. En nuestra vida cotidiana, sin embargo, la situación es totalmente contraria: distinguimos claramente lo que ya ha sucedido (nuestra infancia) de lo que no aconteció (nuestra muerte). Sin embargo, en el marco conceptual de la física clásica esta experiencia no tiene sentido. Las leyes newtonianas son reversibles, funcionan en ambos sentidos del tiempo. La vida ,en cambio, es irreversible: del nacimiento a la muerte; al igual que la evolución biológica que procede de la simplicidad a la complejidad, de la ameba al homo sapiens.
21
Si nuestras experiencias y nuestras teorías biológicas van a contramano de nuestras teorías físicas, algo anda mal y es necesario algún ajuste. La termodinámica clásica vino a poner las cosas en su lugar al plantear por primera vez en la física moderna la existencia de una flecha del tiempo que nos permite establecer con claridad una dirección que apunta desde el pasado hacia el futuro. Utilicemos la metáfora del Universo como una película, si proyectamos una secuencia donde la tierra se mueve alrededor del sol, nunca sabremos si la estamos pasando de atrás para adelante ( o viceversa) a menos que sepamos de antemano si el giro es de este a oeste o a la inversa. Lo mismo sucedería si pudiéramos filmar una reacción atómica, pues si vemos el choque de una partícula alfa y un núcleo atómico, en un sentido la proyección indicará la fusión para formar un átomo más pesado y en el otro mostrará un proceso de desintegración. Esto es así porque todos los procesos mencionados pueden ser considerados reversibles; nada en ellos indica una dirección en el tiempo. En cambio, si pudiéramos filmar el flujo de calor, por ejemplo desde un recipiente a 100 º hacia otro a 25 º, la situación sería totalmente distinta, ya que en la naturaleza sólo es espontáneo el paso del calor en un sentido: de lo caliente a lo frío. En el ejemplo de la película, si el flujo de calor se expresa en cambio de color, sólo habrá una forma correcta de proyectarla. Hemos encontrado una dirección en el tiempo, sabemos cuál es el pasado y cual el futuro: hemos descubierto una flecha en el tiempo.
www.pensamientocomplejo.com.ar Contactos: [email protected]
22
CEREBRO, MENTE, CUERPO Y ENTORNO
Sergio Moriello [email protected]
Conceptos claves: acoplamiento – autonomía – auto‐organización – complejidad – comunicación – estructura – entorno – fluidez – interacción – organización – proceso La mente no puede considerarse separada del cerebro, como tampoco del cuerpo y del entorno (tanto físico como social). En consecuencia, se lo debe considerar como una unidad conceptual indivisible. Históricamente fue la Filosofía –y, más modernamente, la Filosofía de la Mente– quien se ha ocupado del problema cerebro‐mente(1). En esencia, existen dos tipos de teorías: las dualistas y las monistas, cada una de las cuales presenta –a su vez– diversas variantes. Los dualistas afirman que el cerebro y la mente son “cosas” diferentes, mientras que los monistas sostienen que son una única y misma “cosa”, aunque consideradas desde distintos puntos de vista [Taylor, 1979, p. 32]. Últimamente el enfoque dualista sufrió varios embates, por lo cual ha caído en desuso. No obstante, aun en el enfoque monista hay detractores: las posiciones extremas tienen poco fundamento. La teoría que más aceptación tiene –por el momento– es el emergentismo: la mente se origina a partir de algunos procesos o actividades que emergen del funcionamiento del cerebro. Pero se debe tener en claro que ambos se encuentran en un estado de constante flujo, de fluidez, en donde se modifican y reconstruyen continuamente al interactuar entre sí, “acoplándose” de forma mutua y recíproca [Lewontin, 2000, p. 76/8]. Así, la mente es, en parte, producto del cerebro y el cerebro es, en parte, producto de la mente. En la actualidad, es más adecuado considerar ambos conceptos como un único sistema, como una unidad conceptual complementaria, y se habla de cerebro‐mente(2). El cerebro La unidad anatómica y funcional del sistema nervioso, en todos los cordados, es la neurona. En el hombre, la enorme mayoría de ellas se encuentra localizada en su encéfalo, aunque no debe olvidarse que están desparramadas por todo el cuerpo. Se estima que el cerebro humano contiene alrededor de 100 mil millones de neuronas y que cada una de ellas puede establecer hasta 50.000 sinapsis con sus vecinas(3). Esto significa que el número total de combinaciones podría ascender hasta 5 mil billones (50.000 sinapsis x 100 mil millones de neuronas). Las células nerviosas se organizan en redes jerárquicas con niveles de complejidad crecientes: las interacciones entre neuronas próximas forman “unidades neuronales primarias” o circuitos locales (que varían en tamaño desde casi 50 hasta 10.000
23
1 También conocido como problema cuerpo‐alma, materia‐espíritu, cuerpo‐mente, materiaconciencia, físico‐psíquico, cerebro‐conducta [García García, 2001, p. 276]. 2 Al igual que otras unidades conceptuales complementarias como materia‐energía, corpúsculo‐onda, evolución‐mutación, estructura‐proceso o individuo‐sociedad [Rodríguez Delgado, 1997, p. 41]. neuronas), los que a su vez se interconectan en circuitos mayores, involucrando múltiples regiones en diferentes partes del cerebro. La organización de estas redes, el “cableado”, se debe al efecto combinado de la programación genética y el aprendizaje a partir de la experiencia [Freedman, 1995, p. 87]. En el cerebro humano, la inmensa mayoría de los enlaces es dinámica: tanto las conexiones sinápticas como las estructuras neuronales se “recablean” (reconfiguran) permanentemente, en respuesta a la interacción con el entorno y a las experiencias acumuladas. Se dice entonces que el cerebro se autoorganiza. La mente La mente no es únicamente el asiento de la parte cognitiva (pensamiento, percepción, memoria, inteligencia), sino también de la parte afectiva; es decir, el conjunto de deseos, sentimientos, motivaciones, creencias, intenciones, emociones, etc. No se trata de algo exclusivamente humano, sino más bien de un producto de la evolución biológica. En efecto, la mente es el resultado de un proceso enormemente largo de complejización creciente que se produjo en los sistemas nerviosos de las diferentes especies que evolucionaron sobre la Tierra [García García, 2001, p. 171] [Capra, 1994, p. 97]. Así, los animales simples tienen mentes simples y los animales más complejos tienen mentes más complejas. Hay coincidencia en afirmar que la mente es lo que el cerebro hace, aunque no es cualquiera de las cosas que hace, como –por ejemplo– regular la temperatura interna [Pinker, 2001, p. 51]. Sin embargo, también se debe tomar en cuenta al resto del organismo (el cuerpo) y al ambiente físico y sociocultural que le rodea [Damasio, 1996, p. 230]. Es decir, la mente no tiene únicamente una parte evolutiva y otra biológica, sino también una física y otra social y cultural(4). Asimismo, no es posible concebirla como una entidad “desencarnada” (aislada de un cuerpo), ni “des‐situada” (descontextualizada de un entorno). El wetware A diferencia de una computadora digital convencional que tiene un hardware y un software, que están separados y diferenciados, y que son fijos y no cambian –o lo hacen mínimamente–, el complejo cerebro‐mente es un sistema auto‐organizado que se modifica de manera dinámica y continua: es el proceso de “aprendizaje”. Se verifican procesos de nacimiento y muerte neuronal e, incluso, la propia organización de la neurona y su función – dentro del circuito neuronal que integra– cambia a lo largo del desarrollo [Maturana y Varela, 2004, p. 124]. El “hardware” (el cerebro, la estructura) y el “software” (la mente, el proceso), en el caso biológico, están completamente integrados e interactúan entre sí conformando un sistema fluido, adaptable y elástico, que evoluciona y se modifica con el tiempo a medida que la persona crece y aprende. En definitiva, al cambiar la mente también cambia el cerebro y viceversa. Es lo que se ha
24
dado en llamar “wetware” (sustancia o cosa húmeda), algo –por el momento– inimitable informáticamente. Si bien este wetware puede considerarse –en esencia– como un complejo cableado eléctrico, también puede vérselo como un evolucionado sistema químico. La red neuronal está sometida a la acción química de hormonas activadoras 3 Hay que aclarar que estos contactos no son continuos, sino intermitentes. 4 Lo social está relacionado con lo lingüístico y lo cultural con lo histórico. De allí la importancia de la comunicación y de los medios de comunicación. e inhibidoras, que a su vez son influenciadas por aquella. Sólo que existe una notable diferencia en los tiempos de actuación: mientras que los impulsos eléctricos tardan segundos en transmitirse desde un punto a otro, los mensajes químicos demoran horas en moverse y, en ocasiones, mucho más. Por otra parte, la señal sináptica también es electroquímica: aunque la señal generada y transportada por una neurona es eléctrica, pasa a otra mediante sustancias químicas transmisoras (los neurotransmisores) que cruzan el espacio sináptico. En consecuencia, tal vez convendría pensar al wetware como un complejo y dinámico sistema electroquímico y no sólo como una “simple” red de neuronas. Figura 1: Relación mente‐cerebro‐cuerpo‐entorno La dinámica del sistema Este proceso continuo, fluido, dinámico y acumulativo que se verifica en el complejo cerebro‐mente es nada más –ni nada menos– que el “aprendizaje”. Según el psicólogo suizo Jean Piaget, se trata de un proceso adaptativo que representa los dos lados de una misma moneda: la “asimilación” y la “acomodación”. Mientras que la asimilación consiste en modificar lo que es percibido para que encaje en la estructura cognitiva existente; la acomodación consiste en modificar la estructura cognitiva existente a fin de que encaje en lo que es percibido. Asimismo, se trata de un proceso que se desarrolla mediante incrementos progresivos a lo largo de una sucesión de estadios de creciente sofisticación. Sin embargo, está condicionado por el grado de maduración cerebral: hay muchos conocimientos para cuya adquisición se necesita un determinado grado de organización neurofisiológica. Los seres vivos se valen fundamentalmente de sus sistemas perceptivos y motores para aprender. Pero la relación no debería considerarse lineal sino circular: la percepción del medio ambiente externo, por ejemplo, reinterpreta la realidad por medio de la acción motora. En otras palabras, se produce un proceso circular y dialéctico, una realimentación de información, a través del entorno próximo. Asimismo, no debe olvidarse del funcionamiento interno; existe un profundo mundo psíquico donde se fermentan ideales, sueños, deseos, necesidades y valores [Morin, 1999, p. 6]. La unidad cerebro‐mente es, en definitiva, un sistema auto‐organizado que está en perpetua elaboración y reelaboración de los datos recibidos y que –con economía de esfuerzos– debe lograr un constante equilibrio o armonía entre dos fuerzas a menudo contradictorias y antagónicas: sus pulsiones internas y las presiones de su entorno.
25
El entorno físico El sistema cerebro‐mente forma parte del cuerpo y ambos se van integrando íntimamente (por medio de circuitos bioquímicos y neuronales): es el proceso de “desarrollo”. Éste y el anterior se entrelazan intrínsecamente en la corporeidad, ya que el organismo aprende y se desarrolla al mismo tiempo. Según el neurocientífico portugués Antonio Damasio, “el cuerpo proporciona una base referencial para la mente” [Damasio, 1996, p. 208], ya que aporta un contenido indispensable de los mecanismos de la mente. Incluso las categorías de nuestra experiencia y pensamiento parecen estar determinadas por factores biológicos (junto con los culturales) [Bertalanffy, 1995, p. 261]. Es decir, no son un a priori universal, sino que dependen de la organización psicofísica del organismo, desarrolladas a lo largo de millones de años de evolución. Por este motivo, cada especie biológica tiene una forma particular y única de “acoplarse estructuralmente” con su medio ambiente local y organizar su “mundo real”. Pero si el cerebro‐mente y el cuerpo se influencian mutua e intensamente, el conjunto cerebro‐mente‐cuerpo también interactúa constante y activamente con su entorno (tanto físico como social y cultural) [Damasio, 1996, p. 93]. Son inseparables e interdependientes; como el sólido y el espacio, el sonido y el silencio, la figura y el fondo... Es el entorno quien termina de “esculpir” al encéfalo: cada estímulo y cada experiencia influye en la creación y destrucción de las sinapsis y los circuitos. De esta forma, y aunque todos los seres humanos tengan una estructura cerebral similar (producto de la programación genética), las circunstancias particulares y el contexto de cada persona, hacen que cada individuo sea único. Así, la cuaterna cerebro‐mente‐cuerpo‐entorno opera en forma sistémica e integrada: no puede separarse la actividad y el desarrollo del cerebro de la mente, ni del cuerpo o del contexto. El entorno social y cultural Si bien el complejo cerebro‐mente‐cuerpo se vale fundamentalmente de sus sistemas perceptivos y motores para interaccionar con su entorno físico, para relacionarse con su entorno social necesita del “lenguaje” y para relacionarse con su entorno cultural precisa de los “medios de comunicación” … y ambos son interdependientes. De esta manera, se organiza y modela por su entorno más inmediato: primero los padres; más tarde los parientes, vecinos, educadores y amigos; y luego por la televisión, los periódicos, Internet, otras culturas, etc. El lenguaje incumbe –ante todo– a las relaciones entre las cosas y los conceptos. Cada palabra no sólo transforma el estado de la red conceptual, sino que contribuye, además, a construir o a remodelar su misma topología [Lévy, 2000, p. 35]. Su finalidad es permitir la comunicación. Es el medio principal con el que los sistemas intercambian y comparten información y establecen una comunión de significados. Con él, un grupo de sistemas equivalentes puede definir y desarrollar planes u organizar actividades complejas. En efecto, a medida que va aumentando el número de individuos y se van formando grupos sociales, se acentúa la necesidad de comunicación entre sus miembros, no sólo a través de grandes distancias, sino también a lo largo de extensos períodos de tiempo. Bibliografía
26
• Bertalanffy, L. (1995): Teoría General de los Sistemas. México, Fondo de Cultura Económica, 10°reimpresión. • Calvin, W. (2001): Como piensan los cerebros. Madrid, Editorial Debate. • Capra, F. (1994): Sabiduría Insólita. Conversaciones con personajes notables. Barcelona, Editorial Cairos, 2° edición. • Damasio, A. (1996): El error de Descartes. Barcelona, Editorial Crítica. • Freedman, D. (1995): Los hacedores de cerebros. Santiago, Editorial Andrés Bello. • García García, E. (2001): Mente y Cerebro. Madrid, Editorial Síntesis. • Lévy, P. (2000): Las tecnologías de la inteligencia. Buenos Aires, Editorial Edicial. • Lewontin, R. (2000): Genes, organismo y ambiente. Barcelona, Editorial Gedisa. • Maturana, H. y Varela, F. (2004): De máquinas y seres vivos. Autopoiesis: la organización de lo vivo. Buenos Aires, Editorial Universitaria y Editorial Lumen, 6° edición. • Moravec, H. (1993): El hombre mecánico. Biblioteca Científica Salvat. Barcelona, Salvat Editores. • Moriello, S. (2001): Inteligencias Sintéticas. Buenos Aires, Editorial Alsina. • Morin, E. (2004): Introducción al pensamiento complejo. Barcelona, Editorial Gedisa, 7° reimpresión. • Pinker, S. (2001): Cómo funciona la mente. Barcelona, Ediciones Destino. • Rodríguez Delgado, R. (1997): Del universo al ser humano. Madrid, Editorial McGraw Hill. • Taylor, G. (1979): El cerebro y la mente. Barcelona, Editorial Planeta. • Varela, F., Thompson, E. y Rosch, E. (1997): De cuerpo presente. Barcelona, Editorial Gedisa, 2° edición.
Contactos: [email protected]
27
SISTEMAS COMPLEJOS, CAOS Y VIDA ARTIFICIAL
Sergio Moriello [email protected]
El planeta Tierra rebosa de fenómenos que parecen caóticos aunque, en realidad, se ciñen a reglas estrictas pero difíciles de desentrañar. Su estructura es tan compleja, con tanta cantidad de variables implicadas, que parece imposible hacer una predicción a un futuro siquiera relativamente cercano. En este artículo se intenta dar una somera idea de la relación entre los sistemas, la complejidad, la auto‐organización, el caos, los fractales, las redes y la vida artificial. Un sistema es un conjunto de elementos o partes que interaccionan entre sí a fin de alcanzar un objetivo concreto. De aquí se desprenden dos implicancias fundamentales. Primero, que existe una influencia mutua entre sus elementos componentes, es decir, que el cambio experimentado en uno de ellos repercute y afecta inevitablemente al resto. Y segundo, que una serie de elementos reunidos (es decir, un conjunto), que no persigue un propósito común (un objetivo), de ninguna manera constituye un sistema. En síntesis, para que el comportamiento de un sistema esté adecuadamente descripto, es necesario conocer, además de sus elementos, las interacciones o relaciones entre ellos. Pero no sólo eso: también se requiere saber sus estados (los valores instantáneos de todos los elementos) y sus transiciones (los cambios dinámicos de esos estados). En otras palabras, se deben describir tanto la estructura (lo que es el sistema) como la función (lo que hace el sistema), dos enfoques complementarios de una misma realidad. Un sistema es algo más (y algo menos) que la simple suma de sus elementos constitutivos. Por un lado, emergen propiedades nuevas que no pueden atribuirse a ninguno de ellos; y, por otra parte, se reprimen o inhiben algunas de sus propiedades intrínsecas. Existen varios ejemplos de ellos. Partiendo de harina, agua, sal y levadura, y a través de un proceso de cocción, surge el pan, algo totalmente diferente y que tiene otros atributos o cualidades que los ingredientes con los que se origina. Los cardúmenes, los enjambres y las manadas se comportan ‐como conjunto‐ de manera distinta a como lo hacen sus individuos componentes. Una neurona por sí misma no posee ningún tipo de inteligencia, pero miles de millones de ellas interactuando entre sí pueden originar una mente, algo totalmente diferente. Este comportamiento surge únicamente cuando el sistema se considera como un todo, como algo global y colectivo. Dado que todo sistema se encuentra inmerso en un medio ambiente, en general, éste va a afectar tanto su funcionamiento como su rendimiento. Para medir, en cierta forma, esta influencia o interacción aparece el concepto de “permeabilidad”. Los sistemas escasamente permeables (es decir, aquellos que no intercambian o intercambian poca materia, energía o información con el entorno) se conocen con el nombre de “sistemas cerrados”. Por el contrario, los sistemas mediana y altamente permeables son los que presentan alguna o mucha interacción con el medio ambiente y se denominan “sistemas
28
abiertos”. Por supuesto, existen diferentes grados de permeabilidad; de este modo, un sistema que interactúa poco con su entorno recibe el nombre de “parcialmente abierto”. Asimismo, y dentro de la categoría de sistemas abiertos, están aquellos que son influidos pasivamente por el medio ambiente, llamados “no adaptativos”, y los que reaccionan y se adaptan al entorno, llamados “adaptativos”. Los sistemas también pueden dividirse en dinámicos y estáticos, según modifiquen o no su estado interno a medida que transcurre el tiempo. Un sistema particular que, a pesar de estar inmerso en un entorno cambiante, mantiene su estado interno, se llama “homeostático”. En otras palabras, la homeostasis define la tendencia de un sistema a su supervivencia dinámica. Los sistemas altamente homeostáticos siguen las transformaciones del contexto a través de ajustes estructurales internos. Un ejemplo típico de este tipo de sistema lo constituye una compañía. No obstante, vale aclarar, si el sistema no puede acomodarse al “esfuerzo tensional” (estrés) que padecen por parte del medio ambiente ‐modificando su estructura o su función‐ puede transformarse o deteriorarse parcial o totalmente, temporal o permanentemente. La resistencia de un sistema al estrés depende tanto de su estructura como de su función. Sistemas complejos Los sistemas complejos se caracterizan fundamentalmente porque su comportamiento es imprevisible. Sin embargo, complejidad no es sinónimo de complicación: este vocablo hace referencia a algo enmarañado, enredado, de difícil comprensión. En realidad, y por el momento, no existe una definición precisa y absolutamente aceptada de lo que es un sistema complejo, pero pueden darse algunas peculiaridades comunes. En primer término, está compuesto por una gran cantidad de elementos relativamente idénticos. Por ejemplo, el número de células en un organismo, o la cantidad de personas en una sociedad. En segundo lugar, la interacción entre sus elementos es local y origina un comportamiento emergente que no puede explicarse a partir de dichos elementos tomados aisladamente. Un desierto puede contener billones de granos de arena, pero sus interacciones son excesivamente simples comparadas con las que se verifican en las abejas de un enjambre. Por último, es muy difícil predecir su evolución dinámica futura; o sea, es prácticamente imposible vaticinar lo que ocurrirá más allá de un cierto horizonte temporal. En la naturaleza se pueden encontrar una gran cantidad de ejemplos de sistemas complejos que se extienden desde la física hasta la neurología, desde la economía hasta la biología molecular, desde la sociología hasta las matemáticas. Por ese motivo, esta clase de sistemas no constituye un caso raro ni excepcional sino que se manifiesta en la inmensa mayoría de los fenómenos que se observan a diario. Sin embargo, y a pesar de su gran diversidad y abundancia, se pueden identificar conductas dinámicas genéricas, no importa su naturaleza (física, química, biológica o social); entre ellas, las leyes de crecimiento, la autoorganización y los procesos colectivos emergentes. Como ejemplos de sistemas complejos se pueden mencionar ‐entre otros‐ una célula, un cerebro, un organismo, una computadora, un ecosistema, una sociedad de insectos, un sistema inmunológico o una economía de mercado.
29
La mayoría de los sistemas complejos son inestables, se mantienen delicadamente equilibrados. Cualquier variación mínima entre sus elementos componentes puede modificar, de forma imprevisible, las interrelaciones y, por lo tanto, el comportamiento de todo el sistema. Así, la evolución de esta clase de sistemas se caracteriza por la intermitencia (o fluctuación), aquella situación en la que el orden y el desorden se alternan constantemente. Sus estados evolutivos no transcurren a través de procesos continuos y graduales, sino que suceden por medio de reorganizaciones y saltos. Cada nuevo estado es sólo una transición, un período de “reposo entrópico”, en palabras del Premio Nobel ruso‐belga Ilya Prigogine. Estos sistemas nunca llegan a un óptimo global, al estado de mínima energía. En general, crecen progresivamente hasta que llegan al límite de su desarrollo potencial. En ese instante, sufren un desorden, una especie de ruptura que induce una fragmentación del orden preexistente. Pero después, comienzan a surgir regularidades que organizan al sistema de acuerdo con nuevas leyes, produciendo otra clase de desarrollo. Este comportamiento es típico en los sistemas naturales: por ejemplo, el tránsito, en los insectos, del huevo a la larva y de ésta a la crisálida. En consecuencia, la organización de los sistemas complejos se da en diferentes niveles. Las leyes que gobiernan la causalidad de un dado nivel, pueden ser totalmente diferentes a las de un nivel superior. Auto‐organización El orden y el desorden se necesitan el uno al otro, se producen mutuamente; son conceptos antagónicos, pero, al mismo tiempo, complementarios. En ciertos casos, un poco de desorden posibilita un orden diferente y, a veces, más rico. Así, por ejemplo, un organismo puede seguir viviendo a causa de la muerte de sus células; o una organización se perpetúa gracias a la desvinculación de sus miembros. La variación y el cambio son etapas inevitables e ineludibles por las cuales debe transitar todo sistema complejo para crecer y desarrollarse. Cuando esta transformación se consigue sin que intervengan factores externos al sistema, se hace mención a un proceso de “auto‐organización”. La auto‐organización se erige como parte esencial de cualquier sistema complejo. Es la forma a través de la cual el sistema recupera el equilibrio, modificándose y adaptándose al entorno que lo rodea y contiene. En esta clase de fenómenos es fundamental la idea de niveles. Las interrelaciones entre los elementos de un nivel originan nuevos tipos de elementos en otro nivel, los cuales se comportan de una manera muy diferente. Por ejemplo, entre otros, las moléculas a las macromoléculas, las macromoléculas a las células y las células a los tejidos. De este modo, el sistema auto‐organizado se va construyendo como resultado de un orden incremental espacio‐temporal que se crea en diferentes niveles, por estratos, uno por encima del otro. Los sistemas autoorganizados se mantienen dentro del estrecho dominio que oscila entre el orden inmutable y el desorden total, entre la constancia rígida y la turbulencia anárquica. Una condición muy especial, con suficiente orden para poder desarrollar procesos y evitar la extinción pero con una cierta dosis de desorden como para ser capaz de adaptarse a situaciones novedosas y evolucionar. Es lo que se conoce ‐desde antaño‐ como “transiciones de fase”, o ‐más modernamente‐ como lo llama el doctor en
30
Ciencias de la Computación, antropólogo y filósofo estadounidense Christopher Langton: el “borde del caos”. Es en esta delgada franja en donde se ubican los fenómenos que edifican la vida y las sociedades. Por último, se puede aclarar que, aunque no es posible analizar matemáticamente la evolución de muchos de estos sistemas, se los puede explorar ‐sin embargo‐ a través de experimentos numéricos (con sistemas informáticos). Esto se debe a que, desde el punto de vista computacional, son sistemas irreducibles; es decir, la única forma de estudiar su evolución es mediante la observación directa (o sea, permitiendo que evolucionen). Para su estudio, en consecuencia, se emplean potentes sistemas computacionales en donde se simulan sus componentes, sus conexiones y sus interacciones, observándose la dinámica emergente. Sistemas caóticos Durante el siglo pasado, los científicos clasificaban a los sistemas según su grado de predictibilidad. Así, un sistema es determinístico cuando su comportamiento es bastante predecible, determinado, cuando parece seguir unas ciertas reglas y es probabilístico –o estocástico‐ cuando no hay certeza de su estado futuro, sólo una probabilidad, cuando aparece un orden estadístico, un orden promedio. No obstante, esta burda y tosca clasificación sufrió severos embates durante el último medio siglo. Por ejemplo, se descubrió que muchos sistemas dinámicos no lineales se comportan ‐en ciertas condiciones‐ de forma tan compleja que parecen probabilísticos, aunque, en realidad, son determinísticos. En otras palabras, a pesar de que las reglas ‐a nivel local‐ son muy simples, el sistema ‐a nivel global‐ puede tener un comportamiento inesperado, no predecible. Se trata de un “sistema caótico”. Una de las singularidades que caracterizan a los sistemas caóticos es que dependen sensiblemente de las condiciones iniciales. Un insignificante cambio en las condiciones de partida se amplifica y propaga exponencialmente a lo largo del sistema y es capaz de desencadenar ‐a futuro‐ un comportamiento totalmente diferente o, incluso, una imprevista catástrofe. Es decir, configuraciones iniciales casi idénticas, sometidas a influencias externas casi iguales, acaban transformándose en configuraciones finales absolutamente distintas. Y es este el motivo por el cual es prácticamente imposible hacer una predicción del estado final de estos sistemas complejos. Sin embargo, el caos no es más que un desorden solamente en apariencia, tiene muy poco que ver con el azar. Aunque parecen evolucionar de forma aleatoria y errática, estos sistemas tienen ‐en realidad‐ un cierto orden interno subyacente. Por eso, aun cuando son impredecibles, también son determinables. Esto significa que su estado futuro está determinado por su estado actual y obedece estrictas leyes naturales de evolución dinámica (en forma de complicadas ecuaciones diferenciales no lineales). Pero estos sistemas son tan irregulares que jamás repiten su comportamiento pasado, ni siquiera de manera aproximada. Por ejemplo, y aún cuando se conozcan con gran precisión las ecuaciones meteorológicas y se puedan medir las variables críticas (temperatura, humedad, presión, masa y velocidad del viento), es muy difícil predecir con exactitud las variaciones climáticas más allá de un cierto tiempo posterior. Otros sistemas caóticos lo constituyen los fluidos en régimen turbulento, la dinámica de la
31
atmósfera, las reacciones químicas, la propagación de enfermedades infecciosas, los procesos metabólicos de las células, el mercado financiero mundial, los movimientos de grupos animales (cardúmenes o enjambres), la aparición aperiódica de epidemias, la arritmia del corazón, la red neuronal del cerebro humano, etc. El caos parece formar parte de la estructura misma de la materia y está muy ligado a los fenómenos de auto‐organización, ya que el sistema puede saltar espontánea y recurrentemente desde un estado hacia otro de mayor complejidad y organización. Un ejemplo típico es el agua que se desliza a través de una canilla en un goteo desordenado y, súbitamente, forma un chorro ordenado. Estos sistemas se caracterizan por su flexibilidad y adaptación (y, en consecuencia, por su estabilidad), lo cual les permite enfrentar las condiciones cambiantes e impredecibles del entorno. Operan bajo una extensa gama de condiciones, ya que parecen estar formados por una compleja estructura de muchos estados ordenados, aunque normalmente ninguno de ellos se impone sobre los demás (a diferencia de un sistema ordenado, que presenta un único comportamiento). Por lo tanto, se puede controlar su evolución con ínfimas correcciones, a fin de forzar la repetición de ciertas trayectorias. En otras palabras, si se los perturba adecuadamente, se los puede obligar a que tome uno de los muchos posibles comportamientos ordenados. Fractales y naturaleza La teoría del caos estudia la evolución dinámica de ciertas magnitudes. Al representar geométricamente el conjunto de sus soluciones, aparecen modelos o patrones que los caracterizan. Existe un comportamiento caótico cuando dichos modelos ‐a lo largo de extensos períodos de tiempo‐ oscilan de forma irregular, aperiódica; parecen girar asintóticamente en las inmediaciones de ciertos valores, como si describieran órbitas alrededor de ellos. Estos valores se conocen con el nombre de “atractores caóticos”, “atractores extraños” o, simplemente, “atractores” (debido a que parecen atraer las soluciones hacia ellos) y su particularidad es que presentan propiedades fractales. Un “fractal” es una estructura geométrica que tiene dos características principales: la “auto‐semejanza” y la “dimensión fraccionaria”. La auto‐semejanza significa que posee la misma estructura cualquiera sea la escala en que se la observa; es decir, a través de sucesivas amplificaciones (diferentes cambios de escala) se repite su forma fundamental (conserva el mismo aspecto). Por otro lado, la dimensión fraccionaria mide el grado de irregularidad o de fragmentación de un objeto: una dimensión entre 1 y 2 significa que se comparten las propiedades de una recta y de un plano. No obstante, la fractal no tiene el mismo significado que las dimensiones del tradicional espacio euclidiano: fractales con dimensiones enteras (1 y 2), no se parecen en nada a una línea o a un plano, respectivamente. En general, las formas encontradas en la naturaleza son ejemplos de fractales: vasos sanguíneos y sus capilares, árboles, vegetales, nubes, montañas, grietas tectónicas, franjas costeras, cauces de ríos, turbulencias de las aguas, copos de nieve, y una gran cantidad de otros objetos difíciles de describir por la geometría convencional. Como se puede apreciar, se trata de formas en perpetuo crecimiento. Por eso, cuando se observa una imagen o una fotografía de un fractal, se lo está viendo en un determinado instante
32
de tiempo, congelado en una etapa precisa de su desarrollo. Y es justamente este concepto de proceso natural de crecimiento o de desarrollo lo que vincula a los fractales con la naturaleza. Una estructura fractal es aquella que se genera por la repetición incansable de un proceso bien especificado (o sea, está gobernado por reglas determinísticas). Así, la naturaleza es capaz de crear eficazmente infinidad de formas ‐con diferentes grados de complejidad únicamente reiterando innumerablemente el mismo proceso. E ínfimas modificaciones en las condiciones iniciales o en los parámetros de ese proceso pueden provocar imprevisibles cambios finales. Es por eso que la mayoría de los procesos caóticos originan estructuras fractales. Y es por eso, también, que muchos fenómenos naturales aparentan tener una enorme complejidad, aunque ‐en realidad‐ poseen la misma regularidad geométrica (concepto de autosemejanza). Sólo así se explica que existan 6.000 millones de seres humanos diferentes, a pesar de que el proceso de gestación sea idéntico, y que una mínima diferencia en el código genético de chimpancés y humanos haya engendrado especies tan distintas. Este proceso también puede esclarecer, en buena medida, cómo la escasa información contenida en una célula germinal es capaz de originar seres tan increíblemente complejos. El desarrollo de un sistema se verifica al pasar de un estado más general y homogéneo (indiferenciado) a otro más especial y heterogéneo (diferenciado). Esta transición se da gracias a la “especialización” y a la “división del trabajo”: progresivamente algunos elementos se encargan de acciones específicas, al tiempo que se observa una subordinación a elementos dominantes (llamadas, a veces, “partes conductoras”). De esta forma, se instala en el sistema un “orden jerárquico” de partes o procesos. Este principio de diferenciación es muy frecuente tanto en biología como en psicología y, aun, en sociología. En el desarrollo embrionario, por ejemplo, las células se van agrupando y subordinando a los llamados “organizadores”. En el cerebro también se comprueba una superposición de “estratos neuronales” que adoptan el papel de partes conductoras. Algo similar ocurre en el comportamiento social: para poder diferenciarse, un conjunto de personas debe agruparse alrededor de uno o varios líderes. Redes complejas Muchos sistemas biológicos, sociales o de comunicación se pueden describir adecuadamente a través de redes complejas cuyos nodos representan individuos u organizaciones, y los enlaces simbolizan las interacciones entre ellos. Una clase importante de redes son aquellas que cumplen con las reglas de un “mundo pequeño”, cuya topología exhibe dos rasgos esenciales: todo nodo está fuertemente conectado con muchos de sus vecinos pero débilmente con algunos pocos elementos alejados (fenómeno conocido como apiñamiento, agrupamiento o “clustering”) y todo nodo puede conectar a cualquier otro con sólo unos cuantos saltos (en otras palabras, existe una pequeña “distancia” entre ellos)(1). Esto implica dos cosas: que la información se transfiere muy rápidamente entre dos elementos cualquiera, y que existe un pequeño número de nodos claves por donde circula un gran porcentaje del tráfico total. Son redes de mundo pequeño las conexiones neuronales en algunos gusanos, el patrón de difusión de una epidemia, la estructura de una red de transmisión eléctrica, la
33
navegación a través Internet, las proteínas en una célula humana, los patrones lingüísticos, las redes de colaboración social, las relaciones entre especies de un ecosistema, etc. Muchas de estas redes de mundo pequeño son también “redes independientes de la escala” (scale‐free networks), que se caracterizan por un escaso número de nodos con muchos enlaces (denominados “concentradores” o “hubs”) y una enorme cantidad de nodos con muy pocas conexiones (2). Este tipo de estructura explica por qué algunas redes son generalmente muy estables y robustas (frente a posibles errores aleatorios), pero muy propensas a ocasionales colapsos catastróficos (por posibles ataques maliciosos). En efecto, si se elimina una gran fracción de nodos al azar, la red todavía es capaz de funcionar con normalidad; pero si se quita alguno de los concentradores, el sistema puede sufrir una hecatombe. Es lo que ocurre, por ejemplo, cuando fallece o desaparece el líder de un partido político o de un equipo de fútbol. Esta topología también es capaz de explicar la gran capacidad de crecimiento de estas redes y por qué algo 1 Algunos estudios afirman, por ejemplo, que la distancia entre un par cualesquiera de páginas web es de 19. insignificante puede transformarse en un fenómeno de colosales proporciones si encuentra el camino adecuado. Ahora bien, ¿cómo surge este tipo de orden? Aparentemente, estas redes siguen el mismo patrón de auto‐organización de los sistemas complejos: los nuevos nodos agregados tienden a formar conexiones con aquellos que ya están bien conectados (las partes conductoras mencionadas en el apartado anterior). En otras palabras, los nodos no se conectan entre sí al azar, sino que se agrupan o apiñan en torno a los hubs, los nodos más atractivos. Por ejemplo, los nuevos artículos científicos citan a otros ya bien establecidos y las nuevas páginas web se conectan a los buscadores más conocidos. De allí que los hubs también parecen ser los responsables de mantener la cohesión de este tipo de redes e, incluso, de permitirle evolucionar, ya que pequeñas perturbaciones en ellos pueden ocasionar cambios en el funcionamiento de la red. Asimismo, algunos investigadores especulan ‐es necesario aclarar que los sistemas naturales evolucionan hacia redes de mundo pequeño, porque tienen una elevada tolerancia a las fallas (la conexión de cualquier pareja de nodos puede establecerse a través de varios caminos alternativos), y hacia redes independientes de la escala, porque utiliza más eficientemente los recursos que las redes aleatorias (resuelve adecuadamente el conflicto entre las necesidades de bajo costo y alto rendimiento). Aun cuando su funcionamiento puede ser muy diferente entre una red y otra, el hecho de que compartan la misma topología permitiría estudiar las más complejas a partir de las más simples. Así, por ejemplo, si las redes neuronal y genética pertenecieran a la misma categoría genérica, los científicos podrían aprender mucho más sobre el sistema nervioso escudriñando el sistema genético, el cual es relativamente más sencillo. Pero también, quizás, se podrían responder algunas preguntas de difícil respuesta: ¿cuánto
34
depende el funcionamiento de una red de su topología?, ¿cómo mejorar la confiabilidad de estas redes?, ¿cómo diseñar redes que evolucionen de manera estable? Vida artificial La vida se constituye en el ejemplo más acabado de estructuras muy complejas que surgen a partir de estructuras mucho más simples. Se trata de una propiedad emergente resultado de la interacción entre sus elementos y de la dinámica propia del sistema. En efecto, cualquier forma de vida es ‐en esencia‐ un sistema altamente complejo, con una estructura físico‐química particular, que exhibe una elevada organización y se sitúa en el borde del caos. Entre sus características definitorias, se pueden incluir su capacidad para: la autorreproducción, el almacenamiento de información, el crecimiento, la adaptabilidad (al entorno), la interdependencia (con otras formas de vida) y la evolución. La “Vida Artificial” (en inglés Artificial Life o, abreviadamente, A‐Life) es un campo del conocimiento muy joven (nació a fines de 1987) que tiene como objetivo el desarrollo de sistemas artificiales que muestran las características distintivas de los sistemas vivos naturales. De acuerdo con Christopher Langton ‐“padre” de esta disciplina‐ es “el estudio (2) Su nombre proviene del hecho, vale aclarar, de que la proporción entre los hubs y los otros nodos permanece constante a medida que la red cambia de tamaño; es decir, se trata de una característica fractal. natural, donde ‘vida’ se entiende que incluye, más bien que excluye, de la vida a los seres humanos y sus artefactos”. Investiga algunos procesos que transcurren a diferentes niveles (molecular, celular, orgánico, social‐evolutivo), y su aspecto más abarcativo incluye desarrollos meramente teóricos, experimentos biológicos y químicos, y simulaciones sobre computadoras. La importancia de su estudio radica en que los sistemas naturales constituyen excelentes fuentes inspiradoras para el desarrollo de la tecnología. En efecto, el biológico es un modelo muy optimizado que ayuda al ser humano a solucionar ‐con extraordinaria eficacia‐ muchos problemas complejos no convencionales que surgen de la interacción con el entorno. De allí que la aplicación de esta nueva disciplina se perfila como una de las ramas más innovadoras y revolucionarias de lo que será la computación durante el transcurso del presente siglo. La Vida Artificial es conceptualmente parecida a la Inteligencia Artificial, aunque –por supuesto‐ existen una serie de diferencias clave. Mientras la última intenta comprender y abstraer la esencia conceptual de la inteligencia, la primera intenta comprender y abstraer la esencia conceptual de los sistemas vivos. No obstante, la línea divisoria entre ellas es bastante borrosa y se va debilitando a medida que pasa el tiempo, a tal punto que muchos investigadores predicen que convergerán en el futuro. La inteligencia, en definitiva, es un producto de la evolución; y dado que la vida biológica y la inteligencia son mutuamente dependientes, también la Vida Artificial y la Inteligencia Artificial exhiben una cierta codependencia.
35
La arquitectura básica de estos sistemas consiste en un abrumador número de “criaturas” relativamente simples, que forman densas redes de interacción y operan paralela y simultáneamente sin que exista un control central. Los comportamientos individuales no están programados implícitamente; los científicos sólo se limitan a darles un conjunto reducido de reglas de interacción que especifican lo que debe hacer cada una de ellas de acuerdo con la situación en que se encuentre. Nadie es capaz de saber con precisión qué actitud tomará cualquiera de ellas en un momento dado. Y, debido a que se verifica un fenómeno de emergencia de alto nivel (es decir, inteligente) a partir de interacciones de bajo nivel (o sea, entre entidades no inteligentes), el conjunto puede resolver problemas que cada uno de sus individuos componentes es incapaz de realizar. Inteligencia de enjambre El comportamiento complejo, que un observador podría considerar intencional, puede ser ‐de hecho‐ el resultado de las numerosas interconexiones que se establecen entre una enorme cantidad de entidades individuales. Por ejemplo, considerada aisladamente una hormiga es una criatura sumamente tonta, estúpida, capaz únicamente de ejecutar ‐aunque de forma fiel y obstinada‐ un pequeño conjunto de rutinas innatas, pero condicionada por el entorno circundante. No obstante, tomadas en grupo, son capaces de erigir sociedades complejas con sofisticadas actividades como agricultura, ganadería, arquitectura, ingeniería e, incluso, prácticas de esclavitud. De esta forma, podría considerarse al hormiguero como un macroorganismo, que presenta un comportamiento global inteligente. Es decir, nadie planifica, nadie ordena ni controla, pero surge un comportamiento colectivo ‐quizás instintivo‐ o una necesidad que las “obliga” a trabajar juntas persiguiendo un fin común. Utilizando como ejemplo la conducta social de los insectos, modernamente los investigadores en ciencias de la computación desarrollaron algoritmos muy útiles para resolver algunos problemas prácticos muy complicados; un enfoque conocido como “inteligencia de enjambre”. En este caso, las hormigas artificiales son agentes de software que se simulan en una computadora. Una aplicación interesante de esta técnica es la de encontrar el camino más corto para establecer las rutas en Internet; en otras palabras, cómo encaminar eficientemente los mensajes entre los nodos de la red (los routers). Vale la pena aclarar que resolver este problema se torna actualmente muy importante, ya que cuanto mayor es el “tráfico” de los paquetes de datos, mayor es el costo de la conexión a Internet (ya que se incrementa el tiempo para pasar de un nodo a otro). El algoritmo de búsqueda funciona de la siguiente manera. Cada hormiga virtual ‐de un conjunto enormemente grande de ellas‐ sale en busca de “alimento” alrededor de su “hormiguero” (el punto de partida), de una forma más o menos al azar. Entonces, cada insecto “marca” el camino realizado con una “feromona” (la cual guarda una cierta relación con la “longitud” o distancia recorrida) que otras pueden seguir. Dado que la feromona se “evapora” con el tiempo, las “buenas” rutas (las más cortas) se hacen más atractivas que las “malas” para el resto de las hormigas, con lo cual se intensifica cada vez más el rastro de feromonas en esa ruta. Al final del proceso, lo habitual es que se
36
seleccione el rastro más fuerte, que justamente es la ruta más corta entre el punto de partida y el punto de llegada. Lo interesante de esta técnica es que las hormigas pueden adaptarse al entorno: dado que éste es dinámico, es posible que surjan determinadas complicaciones, como el bloqueo o la congestión en las rutas. Debido a que la concentración de feromonas se mantiene durante un cierto tiempo y a que exploran sin cesar nuevos trayectos, las hormigas establecen instintivamente rutas alternativas, con lo cual siempre están preparadas para responder a los cambios del entorno. Otros usos de esta técnica son en el análisis de datos financieros, en la resolución de problemas de producción industrial y en la búsqueda de páginas interesantes por la web. Sin duda, a medida que transcurra el tiempo, seguirán apareciendo más aplicaciones prácticas de la inteligencia de enjambre. Si la computación ubicua forzará a que todos los objetos tengan incrustado un chip (desde las alhajas hasta los muebles, pasando por los artículos de librería y los electrodomésticos), será necesario desarrollar algoritmos de control que permitan la comunicación eficaz y eficiente de todos estos desperdigados pedazos microscópicos de silicio. Amenazas ¿Puede el ser humano crear nuevas formas de vida? ¿Es imprescindible que sean de tipo orgánico para considerarlas como tales? Más específicamente, ¿puede considerarse como un ser vivo algo virtual, algo que carece de una existencia física? ¿Puede estar viva una entidad o un grupo de entidades que únicamente existe como una simulación computacional? Es decir, si algo ejecuta complicados movimientos como un insecto y se comporta como tal, pero no tiene un cuerpo físico material, tangible, sino que adopta la forma abstracta de microcódigos de programación en el interior de una supercomputadora... ¿es un insecto? Y en el supuesto caso de que no lo sea, entonces ¿qué es? En otras palabras, ¿cómo exactamente debe comportarse algo ‐en este caso, una entidad‐ para que alguien ‐en este caso, una persona‐ pueda afirmar que está vivo? Asimismo, y por carecer de una definición unánimemente aceptada del concepto de vida, aparecen interrogantes paradójicos. Por ejemplo: ¿están “vivos” los virus? Algunos de ellos pueden permanecer latentes por mucho tiempo al cristalizar en una célula orgánica muerta y volver a la actividad cuando consiguen otra oportunidad para infectar. De igual forma, se podría preguntar si se encuentra vivo un embrión congelado. En estos casos, la línea que divide lo viviente de lo inerte (tan evidente hace sólo unas décadas), aparece ahora tan difusa que –a veces‐ es extremadamente difícil distinguir lo vivo de lo muerto. Si bien este tipo de “vida virtual” (erigida a través de programas de computadora) quizás sea difícil de aceptar, ¿qué ocurre con la “vida seca”, aquella formada por autómatas físicamente tangibles? Este concepto, ¿no se acerca más a la “vida húmeda”, es decir, la compuesta por organismos biológicos? ¿Y qué pasará cuando la sinergia entre la ingeniería genética y la nanotecnología sea capaz de producir/engendrar nuevas y originales entidades? Miles de millones de años de evolución natural produjeron un mundo donde la supervivencia y el bienestar de cada organismo está ligado ‐muchas veces fuertemente‐ al de innumerables especies. Todo está tan interrelacionado y delicadamente equilibrado que la muerte (o el nacimiento) de una especie puede causar
37
devastadores efectos sobre algunas otras (a veces, muchas). Sin dudas, el dejar evolucionar libremente a estas “nuevas especies” dispare fantasías de descontrol, ya que podrían evolucionar ‐siguiendo reglas lamarckianas‐ mucho más rápido que los humanos, y quizás los condicionen como nunca antes… www.pensamientocomplejo.com.ar
38
LA EPISTEMOLOGÍA DE LA COMPLEJIDAD
Edgar Morin CNRS, París
Fuente: Gazeta de Antropología Nº 20, 2004 Texto 20‐02 http://www.ugr.es/~pwlac/G20_02Edgar_Morin.html
Resumen
La epistemología de la complejidad
Las teorías de la complejidad a las que se ven abocadas no pocas disciplinas, tanto en la ciencias físicas como en las biológicas, las matemáticas o las ciencias socioculturales, están apuntando a un trasfondo en el que se construye una nueva epistemología: la epistemología de la complejidad. ¿Cómo entenderla?
Abstract
The epistemology of complexity
The theories of complexity developed in many disciplines ‐like the physics, the biological sciences, the mathematics or the socio‐cultural sciences‐ are pointing to a backgound in which a new epistemology is built: The epistemology of complexity. How to understand the complexity?
Introducción
La cuestión de la complejidad, ¡es compleja!
En una escuela, la cuestión fue planteada a niños: "¿qué es la complejidad?". La respuesta de una alumna fue: "la complejidad es una complejidad que es compleja". Es evidente que se encontraba en el corazón de la cuestión. Pero antes de abordar esa dificultad, es necesario decir que el dogma, la evidencia subyacente al conocimiento científico clásico, es, como decía Jean Perrin, que el papel del conocimiento es explicar lo visible complejo por lo invisible simple. Más allá de la agitación, la dispersión, la diversidad, hay leyes. Así pues, el principio de la ciencia clásica es, evidentemente, el de legislar, plantear las leyes que gobiernan los elementos fundamentales de la materia, de la vida; y para legislar, debe desunir, es decir, aislar efectivamente los objetos sometidos a las leyes. Legislar, desunir, reducir, estos son los principios fundamentales del pensamiento clásico. En modo alguno pretendo decretar que esos principios estén a partir de ahora abolidos.
Pero las prácticas clásicas del conocimiento son insuficientes. Mientras que la ciencia de inspiración cartesiana iba muy lógicamente de los complejo a lo simple, el pensamiento científico contemporáneo intenta leer la complejidad de lo real bajo la apariencia simple de los fenómenos. De hecho, no hay fenómeno simple. Tómese el ejemplo del beso. Piénsese en la complejidad que es necesaria para que nosotros,
39
humanos, a partir de la boca, podamos expresar un mensaje de amor. Nada parece más simple, más evidente. Y sin embargo, para besar, hace falta una boca, emergencia de la evolución del hocico. En necesario que haya habido la relación propia en los mamíferos en la que el niño mama de la madre y la madre lame al niño. Es necesario, pues, toda la evolución complejizante que transforma al mamífero en primate, luego en humano, y, anteriormente, toda la evolución que va del unicelular al mamífero. El beso, además, supone una mitología subyacente que identifica el alma con el soplo que sale por la boca: depende de condiciones culturales que favorecen su expresión. Así, hace cincuenta años, el beso en el Japón era inconcebible, incongruente.
Dicho de otro modo, esa cosa tan simple surge de una hinterland de una complejidad asombrosa. Hemos creído que el conocimiento tenía un punto de partida y un término; hoy pienso que el conocimiento es una aventura en espiral que tiene un punto de partida histórico, pero no tiene término, que debe sin cesar realizar círculos concéntricos; es decir, que el descubrimiento de un principio simple no es el término; reenvía de nuevo al principio simple que ha esclarecido en parte. Así, piénsese en el caso del código genético que, una vez descubierto, nos reenvía a la pregunta: ¿por qué existe esa diversidad extraordinaria de formas en los animales y los vegetales? Cito una frase de Dobzhansky, el biólogo, que dice: "Desgraciadamente la naturaleza no ha sido lo bastante gentil como para hacer las cosas tan simples como nosotros quisiéramos que fuesen. Debemos afrontar la complejidad." Un físico, que es al mismo tiempo un pensador, David Bohm, y que ataca ya el dogma de la elementalidad ‐sobre el que retornaré‐, dice: "Las leyes físicas primarias jamás serán descubiertas por una ciencia que intenta fragmentar el mundo en sus constituyentes."
Aunque Bachelard dijese que, de hecho, la ciencia contemporánea buscaba ‐porque el pensaba en la física‐ la complejidad, es evidente que los científicos desconocían que eso era lo que les concernía. Frecuentemente tienen una doble consciencia; creen siempre obedecer a la misma vieja lógica que han recibido en la escuela; pero, de hecho, sin que lo sepan, en su espíritu trabaja otra lógica y otros principios de conocimiento.
Pero a la complejidad le ha costado emerger. Le ha costado emerger, ante todo, porque no ha sido el centro de grandes debates y de grandes reflexiones, como por ejemplo ha sido el caso de la racionalidad con los debates entre Lakatos y Feyerabend o Popper y Kuhn. La cientificidad, la falsabilidad son grandes debates de los que se habla; pero la complejidad nunca ha sido debatida. La bibliografía sobre la complejidad es, al menos por lo que yo conozco, muy limitada. Para mí, la contribución importante es el artículo de Weaver, colaborador de Shannon, como ustedes saben, en la teoría de la información, quien, en 1948, escribió el artículo "Science and complexity" en el Scientific American, artículo que es un resumen de un estudio más extenso. Es von Neumann quien, en la teoría "On self reproducing automata" aborda con una visión muy profunda esa cuestión de la complejidad de las máquinas, de los autómatas naturales en comparación con los autómatas artificiales. Se refirió a ella Bachelard en Le nouvel esprit scientifique; von Foerster en diversos escritos, particularmente en su texto, ahora bien conocido, "On self organizing systems and their environment". Está H. A. Simon:
40
"Architecture of complexity", que fue primero un artículo autónomo y que fue luego compilado en su libro. Podemos encontrar la complejidad, en Francia, en las obras de Henri Atlan: Entre le cristal et la fumée, y estaba Hayek quien escribió un artículo titulado "The theory of complex phenomena" en Studies in philosophy, politics and economics, que es bastante interesante.
Desde luego, se ha tratado mucho de la complejidad en el dominio teórico, físico, en el dominio sistémico; pero con frecuencia, en mi opinión, se ha tratado sobre todo de lo que Weaver llama la complejidad desorganizada que hizo irrupción en el conocimiento con el segundo principio de la termodinámica, el descubrimiento de ese desorden microscópico, microcorpuscular, en el universo. Pero la complejidad organizada es, con frecuencia, reconducida a la complicación. ¿Qué es la complicación? Cuando hay un número increíble de interacciones, por ejemplo entre moléculas en una célula o neuronas en un cerebro, ese número increíble de interacciones y de interretroacciones sobrepasa evidentemente toda capacidad de computación ‐no solamente para un espíritu humano, sino incluso para un ordenador muy perfeccionado‐ y entonces efectivamente es mejor atenerse al input y al output. Dicho de otro modo, es muy complicado; la complicación es el enredamiento de interretroacciones. Ciertamente, es un aspecto de la complejidad, pero creo que la importancia de la noción está en otra parte. La complejidad es mucho más una noción lógica que una noción cuantitativa. Posee desde luego muchos soportes y caracteres cuantitativos que desafían efectivamente los modos de cálculo; pero es una noción de otro tipo. Es una noción a explorar, a definir. La complejidad nos aparece, ante todo, efectivamente como irracionalidad, como incertidumbre, como angustia, como desorden.
Dicho de otro modo, la complejidad parece primero desafiar nuestro conocimiento y, de algún modo, producirle una regresión. Cada vez que hay una irrupción de complejidad precisamente bajo la forma de incertidumbre, de aleatoriedad, se produce una resistencia muy fuerte. Hubo una resistencia muy fuerte contra la física cuántica, porque los físicos clásicos decían: "es el retorno a la barbarie, no es posible situarse en la indeterminación cuando desde hace dos siglos todas las victorias de la ciencia han sido las del determinismo". Ha sido necesario el éxito operacional de la física cuántica para que, finalmente, se comprenda que la nueva indeterminación constituía también un progreso en el conocimiento de la misma determinación.
La idea de la complejidad es una aventura. Diría incluso que no podemos intentar entrar en la problemática de la complejidad si no entramos en la de la simplicidad, porque la simplicidad no es tan simple como esto. En mi texto "Los mandamientos de la complejidad" publicado enScience avec conscience, intenté extraer trece principios del paradigma de simplificación, es decir principios de intelección mediante simplificación, para poder extraer de modo correspondiente, complementario y antagonista a la vez ‐he aquí una idea típicamente compleja‐ principios de intelección compleja. Voy simplemente a retomarlos y hacer algunos comentarios. Esa será la primera parte de mi exposición; la segunda parte estará consagrada un poco más precisamente al problema del conocimiento del conocimiento o a la epistemología compleja que está relacionada con todo eso.
41
Mandamientos del paradigma de simplificación
1. Podemos decir que el principio de la ciencia clásica es: legislar. Corresponde al principio del derecho, quizás. Es una legislación, pero no es anónima, que se encuentra en el universo, es la ley. Y ese principio es un principio universal que fue formulado por el lugar común: "Sólo hay ciencia de lo general", y que comporta la expulsión de lo local y de lo singular. Ahora bien, lo que es interesante es que, en el universo incluso, en lo universal, ha intervenido la localidad. Quiero decir que hoy parece que nuestro universo es un fenómeno singular, que comporta determinaciones singulares y que las grandes leyes que lo rigen, que podemos llamar leyes de interacción (como las interacciones gravitacionales, las interacciones electromagnéticas, las interacciones fuertes, en el seno de los núcleos atómicos), esas leyes de interacción no son leyes en sí, sino leyes que sólo se manifiestan, sólo se actualizan a partir del momento en que hay elementos en interacción; si no hubiese partículas materiales, no habría gravitación, la gravitación no existe en sí. Esas leyes no tienen un carácter de abstracción y están ligadas a las determinaciones singulares de nuestro universo; hubiese podido haber otros universos posibles ‐quizás los haya‐ y que tuviesen otros caracteres singulares. La singularidad está a partir de ahora profundamente inscrita en el universo; y aunque el principio de universalidad reside en el universo, vale para un universo singular donde aparecen fenómenos singulares y el problema es combinar el reconocimiento de lo singular y de lo local con la explicación universal. Lo local y singular deben cesar de ser rechazados o expulsados como residuos a eliminar.
2. El segundo principio era la desconsideración del tiempo como proceso irreversible; las primeras leyes físicas pudieron muy bien ser concebidas en un tiempo reversible. Y, de alguna manera, la explicación estaba depurada de toda evolución, de toda historicidad. Y también aquí hay un problema muy importante: el del evolucionismo generalizado. Hoy el mundo, es decir el cosmos en su conjunto y la materia física en su constitución (particular, nuclear, atómica, molecular), tiene una historia. Ya Ullmo, en esa epistemología piagetiana a la que François Meyer colaboró, decía muy firmemente: "La materia tiene una historia"; hoy todo lo que es material es pensado, concebido a través de su génesis, su historia. El átomo es visto históricamente. El átomo de carbono es visto a través de su formación en el interior de un sol, de un astro. Todo es profundamente historizado. La vida, la célula, François Jacob lo subraya con frecuencia, una célula es también un corte en el tiempo.
Dicho de otro modo, contrariamente a esa visión que ha reinado durante un tiempo en las ciencias humanas y sociales, según la cual se creía poder establecer una estructura por eliminación de toda dimensión temporal y considerarla en sí fuera de la historia, hoy de todas las otras ciencias llega la llamada profunda para ligar lo estructural u organizacional (prefiero decir esto último y diré por qué) con lo histórico y evolutivo. Y lo que es importante efectivamente, es que el problema del tiempo se ha planteado de manera totalmente paradójica en el siglo último.
En efecto, en el momento mismo en que se desarrollaba el evolucionismo ascensional bajo su forma darviniana, es decir una idea de evolución complejizante y
42
diversificante a partir de una primera protocélula viviente, en el momento en que la historia humana era vista como un proceso de desarrollo y de progreso, en ese mismo momento, el segundo principio de la termodinámica inscribía, él mismo, una especie de corrupción ineluctable, de degradación de la energía que podía ser traducida bajo la óptica boltzmaniana como un crecimiento del desorden y de la desorganización. Estamos confrontados a una doble temporalidad; no es una flecha del tiempo lo que ha aparecido, son dos flechas del tiempo, y dos flechas que van en sentido contrario. Y sin embargo, es el mismo tiempo; y sin embargo es la misma aventura cósmica: ciertamente, el segundo principio de la termodinámica inscribe un principio de corrupción, de dispersión en el universo físico; pero al mismo tiempo, este universo físico, en un movimiento de dispersión, se ha constituido y continúa constituyéndose.
Se constituye de galaxias, de astros, de soles, dicho de otro modo, se desarrolla mediante la organización al mismo tiempo que se produce mediante la desorganización. El mundo biológico es un mundo que evoluciona; es la vida; pero la vida, al mismo tiempo, se hace a través de la muerte de individuos y a través de la muerte de especies. Se ha querido yuxtaponer esos dos principios; es lo que Bergson hizo; Bergson, uno de los raros pensadores que ha mirado de frente el segundo principio; pero, según él, ese principio era la prueba de que la materia biológica era diferente de la materia física, puesto que la materia física tiene algo de corrupto en ella, mientras que la sustancia biológica no padece el efecto del segundo principio. Desgraciadamente para él, se descubrió a partir de los años 50 que la originalidad de la vida no está en su materia constitutiva, sino en su complejidad organizacional.
Estamos, pues, confrontados a ese doble tiempo que no solamente tiene dos flechas, sino que además puede ser a la vez irreversible y reiterativo. Ha sido, evidentemente, la emergencia del pensamiento cibernético la que lo ha mostrado. No era solamente el hecho de que, a partir de un flujo irreversible, puede crearse un estado estacionario, por ejemplo el del torbellino; en el encuentro de un flujo irreversible y de un obstáculo fijo, como el arco de un puente, se crea una especie de sistema estacionario que es al mismo tiempo móvil, puesto que cada molécula de agua que torbellinea es arrastrada de nuevo por el flujo, pero que manifiesta una estabilidad organizacional. Todo esto se reencuentra en todas las organizaciones vivientes: irreversibilidad de un flujo energético y posibilidad de organización por regulación y sobre todo por recursión, es decir, autoproducción de sí. Luego tenemos el problema de una temporalidad extremamente rica, extremamente múltiple y que es compleja. Nos hace falta ligar la idea de reversibilidad y de irreversibilidad, la idea de organización de complejización creciente y la idea de desorganización creciente. ¡He aquí el problema al que está confrontada la complejidad! Mientras que el pensamiento simplificante elimina el tiempo, o bien no concibe más que un solo tiempo (el del progreso o el de la corrupción), el pensamiento complejo afronta no solamente el tiempo, sino el problema de la politemporalidad en la que aparecen ligadas repetición, progreso, decadencia.
3. El tercer principio de simplificación es el de la reducción o también de la elementalidad. El conocimiento de los sistemas puede ser reducido al de sus partes simples o unidades elementales que los constituyen. Sobre esto, seré muy breve.
43
Resumo. Es en el dominio físico donde ese principio parecía haber triunfado de modo incontestable, dominio que, evidentemente, se encuentra más afectado por ese principio. He hecho alusión al problema de la partícula que es aporética (onda y corpúsculo), y por tanto la sustancia es fluctuante; nos dimos cuenta de que en lo que se creía ser el elemento puro y simple, a partir de ahora existía la contradicción, la incertidumbre, lo compuesto ‐aludo a la teoría de los quarks‐ y quizás lo inseparable ‐aludo a la teoría del Bootstrap‐. Hay límites a la elementalidad; pero esos límites no son solamente intrínsecos; tienen también que ver con el hecho de que, una vez que hemos inscrito todo en el tiempo, la elementalidad aparece también como eventualidad, es decir que el elemento constitutivo de un sistema puede también ser visto como evento. Por ejemplo, existe una visión estática que consiste en considerarnos nosotros mismos en tanto que organismos; estamos constituidos por 30 o 50 mil millones de células. En modo alguno, y creo lo que Atlan justamente precisó; no estamos constituidos por células; estamos constituidos por interacciones entre esas células.
No son ladrillos unas al lado de las otras; están en interacción. Y esas interacciones, son acontecimientos, ellos mismos ligados por acontecimientos repetitivos que son martilleados por el movimiento de nuestro corazón, movimiento a la vez regular e inscrito en un flujo irreversible. Todo elemento puede ser leído también como evento. Y está sobre todo el problema de la sistematicidad; hay niveles de emergencia; los elementos asociados forman parte de conjuntos organizados; al nivel de la organización del conjunto, emergen cualidades que no existen en el nivel de las partes.
Cierto, hemos descubierto que finalmente todo eso pasa en nuestro ser, no solamente en nuestro organismo, sino incluso en el pensamiento, en nuestras ideas, en nuestras decisiones, que pueden reducirse a torbellinos de electrones. Pero es evidente que no se puede explicar la conquista de la Galia por Julio César sólo por los movimientos de torbellinos electrónicos de su cerebro, de su cuerpo y de los de los legionarios romanos. Incluso si un demonio consiguiese determinar esas interacciones físicas, nada comprendería de la conquista de la Galia que sólo puede comprenderse al nivel de la historia romana y de las tribus galas. Del mismo modo, diría que en términos de cambios bioquímicos, los amores de César y de Cleopatra son totalmente ininteligibles. Así pues, es cierto que no reduciremos los fenómenos antroposociales a los fenómenos biológicos, ni éstos a las interacciones físico‐químicas.
4. El cuarto principio simplificador es el del Orden‐Rey. El Universo obedece estrictamente a leyes deterministas, y todo lo que parece desorden (es decir, aleatorio, agitador, dispersivo) sólo es una apariencia debida únicamente a la insuficiencia de nuestro conocimiento.
Las nociones de orden y ley son necesarias, pero insuficientes. Sobre esto, Hayek, por ejemplo, muestra bien que cuanta más complejidad hay, menos útil es la idea de ley. Hayek piensa, obviamente, en la complejidad socioeconómica; es su tipo de preocupación; pero él se da cuenta de que es muy difícil, porque son complejos, predecir los fenómenos sociales. Es evidente que las "Leyes" de la Sociedad o las "Leyes"
44
de la Historia son tan generales, tan triviales, tan planas, que carecen de interés. Hayek dice: "Por lo tanto, la búsqueda de leyes no es marca del proceder científico, sino solamente un carácter propio de las teorías sobre fenómenos simples". Vincula muy fuertemente la idea de leyes con la idea de simplicidad. Pienso que si esta visión es bastante justa en lo que concierne a los fenómenos sociales, no lo es menos que, en el mundo físico o biológico, el conocimiento debe a la vez detectar el orden (las leyes y determinaciones) y el desorden, y reconocer las relaciones entre orden y desorden. Lo que es interesante, es que el orden y el desorden tienen una relación de complementariedad y complejidad. Tomemos el ejemplo, que frecuentemente cito, de un fenómeno que presenta, bajo una perspectiva, un carácter aleatorio sorprendente, y, bajo otra perspectiva, un carácter de necesidad; ese fenómeno es la constitución del átomo de carbono en las calderas solares. Para que ese átomo se constituya, es necesario que se produzca el encuentro, exactamente en el mismo momento, de tres núcleos de helio, lo que es un acontecimiento completamente aleatorio e improbable. Sin embargo, desde que ese encuentro se produce, una ley entra en acción; una regla, una determinación muy estricta interviene; el átomo de carbono se crea. Así pues, el fenómeno tiene un aspecto aleatorio y un aspecto de determinación. Además, el número de interacciones entre núcleos de helio es enorme en el seno del sol; y además ha habido muchas generaciones de soles en nuestro sistema solar; finalmente con el tiempo, se crea una cantidad considerable de átomos de carbono, se crea en todo caso una amplia reserva necesaria para la creación y el desarrollo de la vida. Vemos como un fenómeno que parece ser extremamente improbable, por su carácter aleatorio, finalmente, es cuantitativamente bastante importante y puede entrar en una categoría estadística. Todo lo cual depende, pues, de la perspectiva desde la cual se mire y diría sobre todo que es interesante ‐es necesario‐ reunir todas esas perspectivas. Es en este sentido que propongo un tetragrama, que en modo alguno es un principio de explicación, sino que es mucho más un recordatorio indispensable; es el tetragrama orden‐desorden‐interacciones‐organización.
Esto debo también precisarlo bien; cuando se dice tetragrama, se piensa en un tetragrama muy famoso, aquel que en el Monte Sinaí, el Eterno proporcionó a Moisés para revelarle su nombre, nombre sagrado e impronunciable: JHVH. Aquí el tetragrama del que hablo no es la Fórmula suprema: expresa la idea de que toda explicación, toda intelección jamás podrán encontrar un principio último; éste no será el orden, ni una ley, ni una fórmula maestra E= MC2, ni el desorden puro. Desde que consideramos un fenómeno organizado, desde el átomo hasta los seres humanos pasando por los astros, es necesario hacer intervenir de modo específico principios de orden, principios de desorden y principios de organización. Los principios de orden pueden incluso crecer al mismo tiempo que los de desorden, al mismo tiempo que se desarrolla la organización. Por ejemplo, Lwoff escribió un libro titulado L'ordre biologique, es un libro muy interesante porque, en efecto, hay principios de orden que son válidos para todos los seres vivientes, para todo organización viviente. Sólo que esos principios de orden válidos para toda organización viviente pueden existir si las organizaciones vivientes son vivientes; así pues, no existían antes de la existencia de la vida, sino en estado virtual, y
45
cuando la vida se extinga cesarán de existir. He aquí un orden que tiene necesidad de autoproducirse mediante la organización y ese orden es bastante particular puesto que tolera una parte importante de desorden, incluso hasta colabora con el desorden como von Neumann lo vio acertadamente en su teoría de los autómatas. Así pues, hay, al mismo tiempo que crece la complejidad, crecimiento del desorden, crecimiento del orden, crecimiento de la organización (y perdonen que use esa palabra cuantitativa de "crecimiento"). Es cierto que la relación orden‐desorden‐organización no es solamente antagónica, es también complementaria y es en esa dialéctica de complementariedad y de antagonismo donde se encuentra la complejidad.
5. La antigua visión, la visión simplificante, es una visión en la que evidentemente la causalidad es simple; es exterior a los objetos; les es superior; es lineal. Ahora bien, hay una causalidad nueva, que introdujo primeramente la retroacción cibernética, o feedback negativo, en la cual el efecto hace bucle con la causa y podemos decir que el efecto retroactúa sobre la causa. Este tipo de complejidad se manifiesta en el ejemplo de un sistema de calefacción de una habitación provisto de un termostato, donde efectivamente el mismo termostato inicia o detiene el funcionamiento de la máquina térmica. Lo que es interesante, es que no es solamente ese tipo de causalidad en bucle el que se crea; es también una endo‐exo‐causalidad, puesto que es efectivamente también el frío o el calor exterior lo que va a desencadenar la detención o la activación del dispositivo de calefacción central; pero en este caso, la causa exterior desencadena un efecto interior inverso de su efecto natural: el frío exterior provoca el calor interior. Porque hace frío fuera, la habitación está caliente. Desde luego, todo esto puede ser explicado de manera muy simple cuando se consideran los segmentos constitutivos del fenómeno del bucle retroactivo; pero el bucle que liga esos segmentos, el modo de ligar esos segmentos deviene complejo. Hace aparecer la endo‐exo‐causalidad. La visión simplificante, tan pronto como se trata de máquinas vivientes, busca primeramente la exo‐causalidad simple; ésta ha sido la obsesión conductista, por ejemplo. Se piensa que el estímulo que provocó una respuesta (como la saliva del perro) produjo casi esa respuesta. Después, nos dimos cuenta de que lo interesante era saber también lo que pasaba en el interior del perro y reconocer cuál era la naturaleza organizadora de la endo‐causalidad que estimuló al perro a alimentarse. Todo lo que es viviente, y a fortiori todo lo que es humano, debe comprenderse a partir de un juego complejo o dialógico de endo‐exo‐causalidad. Así, es necesario superar, incluido en el desarrollo histórico, la alternativa estéril entre endo‐causalidad y exo‐causalidad. En lo que concierne a la extinta URSS, por ejemplo, dos visiones simplificantes se enfrentan: la primera concibe el estalinismo según una causalidad puramente endógena que va de Marx a Lenin y de éste a Stalin como una especie de desarrollo cuasi deductivo a partir de un cuasi‐gen doctrinal; al contrario, otros lo ven como un fenómeno accidental, es decir, ven en el estalinismo el efecto de las determinaciones del pasado zarista, de la guerra civil, del cerco capitalista, etc. Resulta evidente que ni una ni la otra de esas visiones son suficientes; lo interesante es ver la espiral, el bucle de fortalecimiento de causas endógenas y de causas exógenas que hace que en un momento el fenómeno se desarrolle en una dirección más que en otra, dando por presupuesto que existen desde
46
el comienzo virtualidades de desarrollo múltiples. Tenemos, pues, sobre el tema de la causalidad una revisión muy importante por hacer.
6. Sobre la problemática de la organización, no quiero insistir. Diré que en el origen está el principio de emergencia, es decir que cualidades y propiedades que nacen de la organización de un conjunto retroactúan sobre ese conjunto; hay algo de no deductivo en la aparición de cualidades o propiedades de todo fenómeno organizado. En cuanto al conocimiento de un conjunto, es necesario pensar en la frase de Pascal que suelo citar: "Tengo por imposible concebir las partes al margen del conocimiento del todo, tanto como conocer el todo sin conocer particularmente las partes".
Esto remite la cuestión del conocimiento a un movimiento circular ininterrumpido. El conocimiento no se interrumpe. Conocemos las partes, lo que nos permite conocer mejor el todo, pero el todo vuelve a permitir conocer mejor las partes. En este tipo de conocimiento, el conocimiento tiene un punto de partida cuando se pone en movimiento, pero no tiene término. Tenemos que vérnoslas en la naturaleza, no solamente biológica sino física, con fenómenos de auto‐organización que plantean problemas enormes. No insisto sobre ello. Los trabajos de Pinson, que conocemos y que encuentro muy notables, dan nacimiento, desde el punto de vista organizacional, a una concepción que podemos llamar hologramática. Lo interesante es que tenemos de ello un ejemplo físico que es el holograma producido por el láser; en el holograma, cada parte contiene la información del todo. No la contiene, por lo demás, totalmente; pero la contiene en gran parte, lo que hace que efectivamente podamos romper la imagen del holograma, reconstituyéndose otros micro‐todos fragmentarios y atenuados. Thom dijo: "La vieja imagen del hombre‐microcosmos, reflejo del macrocosmos, mantiene todo su valor; quien conozca al hombre conocerá el universo".
Sin ir tan lejos, es notable constatar que, en la organización biológica de los seres multicelulares, cada célula contiene la información del todo. Contiene potencialmente el todo. Y en este sentido es un modo hologramático de organización. En el lenguaje, el discurso toma sentido en relación a la palabra, pero la palabra sólo fija su sentido en relación a los discursos en los que se encuentra encadenada. Aquí también hay una ruptura con toda visión simplificante en la relación parte‐todo; nos hace falta ver cómo el todo está presente en las partes y las partes presentes en el todo. Por ejemplo, en las sociedades arcaicas, en las pequeñas sociedades de cazadores‐recolectores, en las sociedades que llamábamos "primitivas", la cultura estaba engramada en cada individuo. Había en ellas algunos que poseían la totalidad de la cultura, esos eran los sabios, eran los ancianos; pero los otros miembros de la sociedad tenían en su espíritu el conocimiento de saberes, normas, reglas fundamentales.
Hoy, en las sociedades‐naciones, el Estado conserva en él las Normas y Leyes, y la Universidad contiene el Saber colectivo. No obstante, pasamos, tras numerosos años en la familia primero, y luego sobre todo en la escuela, a engramar la cultura del todo; así cada individuo porta prácticamente, de un modo vago, inacabado, toda la sociedad en él, toda su sociedad.
47
Los problemas de organización social sólo pueden comprenderse a partir de este nivel complejo de la relación parte‐todo. Aquí interviene la idea de recursión organizacional que, a mi parecer, es absolutamente crucial para concebir la complejidad de la relación entre partes y todo. Las interacciones entre individualidades autónomas, como en las sociedades animales o incluso en las células, puesto que las células tienen cada una su autonomía, producen un todo, el cual retroactúa sobre las partes para producirlas. Dicho de otro modo, las interacciones entre individuos hacen la sociedad; de hecho, la sociedad no tendría ni un gramo de existencia sin los individuos vivientes; si una bomba muy limpia, como la bomba de neutrones, aniquilase toda Francia, permanecerían todos los monumentos: el Elíseo, la Cámara de los Diputados, el Palacio de Justicia, los Archivos, la Educación Nacional, etc.; pero no habría ya sociedad, porque, evidentemente, los individuos producen la sociedad. No obstante, la sociedad misma produce los individuos o, al menos, consuma su humanidad suministrándoles la educación, la cultura, el lenguaje. Sin la cultura, seríamos rebajados al más bajo rango de los primates.
Dicho de otro modo, son las interacciones entre individuos las que producen la sociedad; pero es la sociedad la que produce al individuo. He aquí un proceso de recursividad organizacional; lo recursivo se refiere a procesos en los cuales los productos y los efectos son necesarios para su propia producción. El producto es al mismo tiempo el productor; lo que supone una ruptura total con nuestra lógica de las máquinas artificiales en la que las máquinas producen productos que les son exteriores. Ver nuestra sociedad a imagen de esas máquinas, es olvidar que esas máquinas artificiales están en el interior de una sociedad que se autoproduce ella misma.
7. El pensamiento simplificante fue fundado sobre la disyunción entre el objeto y el medio ambiente. Se comprendía el objeto aislándolo de su medio ambiente; era tanto más necesario aislarlo como era necesario extraerlo del medio ambiente para colocarlo en un nuevo medio ambiente artificial que se controlaba, que era el medio de la experiencia, de la ciencia experimental. Efectivamente, gracias a la experiencia, se podían variar las condiciones del comportamiento del objeto, y, por lo mismo, conocerlo mejor. La experimentación a hecho progresar considerablemente nuestro conocimiento. Pero hay otro conocimiento que sólo puede progresar concibiendo las interacciones con el medio ambiente. Este problema se encuentra en física, donde las grandes leyes son leyes de interacción. Se encuentra también en biología, donde el ser viviente es un sistema a la vez cerrado y abierto inseparable de su medio ambiente del que tiene necesidad para alimentarse, informarse, desarrollarse. Nos hace falta, pues, no desunir, sino distinguir los seres de su medio ambiente.
Por otra parte, el pensamiento simplificante se fundó sobre la disyunción absoluta entre el objeto y el sujeto que lo percibe y concibe. Nosotros debemos plantear, por el contrario, el principio de relación entre el observador‐conceptuador y el objeto observado, concebido. Hemos mostrado que el conocimiento físico es inseparable de la introducción de un dispositivo de observación, de experimentación (aparato, desglose, reja) y por esto incluye la presencia del observador‐conceptuador en toda observación o experimentación. Aunque no hubiese hasta el presente ninguna virtud heurística en el
48
conocimiento astronómico, es interesante apuntar aquí el principio antrópico extraído por Brandon Carter: "La presencia de observadores en el universo, impone determinaciones, no solamente sobre la edad del universo a partir de la cual los observadores pueden aparecer, sino también sobre el conjunto de sus características y de los parámetros fundamentales de la física que se despliega ahí". Añade que la versión débil del principio antrópico estipula que la presencia de observadores en el universo impone determinaciones sobre la posición temporal de estos últimos; la versión fuerte del principio antrópico supone que la presencia de observadores en el universo impone determinaciones, no solamente sobre su posición temporal, sino también sobre el conjunto de propiedades del universo. Es decir, que el universo pertenece a una clase de modelos de universo capaces de abrigar seres vivientes y de ser estudiados por ellos. Lo que es una cosa extraordinaria, puesto que todo nuestro conocimiento del cosmos, efectivamente, hace de nosotros seres cada vez más periféricos y marginales. No solamente estamos en una estrella de extrarradio, de una galaxia del extrarradio, sino que además somos seres vivientes, quizás los únicos seres vivientes del universo ‐por abreviar, no tenemos prueba de que haya otros en él‐ y desde el punto de vista de la vida, somos la única rama donde ha aparecido esa forma de conciencia reflexiva que dispone de lenguaje y que puede verificar científicamente sus conocimientos. El universo nos marginaliza totalmente.
Ciertamente, el principio antrópico en absoluto suprime esa marginalidad; pero dice que es necesario, de una determinada manera, que el universo sea capaz, incluso de un modo altamente improbable, de hacer seres vivientes y seres conscientes. Desde la versión débil, el ejemplo que da es bastante interesante; dice: "Nuestro sol tiene 5 mil millones de años; es un adulto; tiene asegurado, salvo error, 10 mil millones de años. La vida comenzó tal vez hace 4 mil millones de años, es decir, prácticamente al principio del sistema solar. Nosotros, seres humanos, aparecimos en el medio de la edad solar". Hay aquí algo que no es puramente arbitrario, al azar. Suponiendo que la vida hubiese comenzado más tarde, no habría tenido, sin duda, condiciones de desarrollo posible; pero, si la vida hubiese empezado más tarde, la consciencia humana habría aparecido en el momento en que el sol hubiese comenzado a extinguirse, es decir en el momento en que quizás no habría sido más que un relámpago antes del crepúsculo final. Dicho de otro modo, tiene cierto interés intentar pensar nuestro sistema en relación a nosotros y nosotros en relación a nuestro sistema.
Y es una invitación al pensamiento rotativo, de la parte al todo y del todo a la parte. Ya la reintroducción del observador en la observación había sido efectuada en la micro‐física (Bohr, Heisenberg) y la teoría de la información (Brillouin). Aún de modo más profundo el problema se plantea en sociología y en antropología: ¿cuál es nuestro lugar, nosotros observadores‐conceptuadores, en un sistema del que formamos parte?
Tras la noción de observador se esconde la noción, aún deshonrosa, de sujeto. Sin duda, en física, puede prescindirse de la noción de sujeto, a condición de precisar bien que toda nuestra visión del mundo físico se hace mediante la intermediación de representaciones, de conceptos o de sistemas de ideas, es decir de fenómenos propios del espíritu humano.
49
Pero, ¿podemos prescindir de la idea de observador‐sujeto en un mundo social constituido por interacciones entre sujetos?
8. a 11. Hay también otra cuestión que me parece importante, es que, en el conocimiento simplificante, las nociones de ser y de existencia estaban totalmente eliminadas por la formalización y la cuantificación. Ahora bien, creo que han sido reintroducidas a partir de la idea de autoproducción que, ella misma, es inseparable de la idea de recursión organizacional. Tomemos un proceso que se autoproduce y que así produce el ser; crea el "sí mismo". El proceso autoproductor de la vida produce seres vivientes. Estos seres son, en tanto que sistemas abiertos dependientes de su medio ambiente, sometidos a aleatoriedades, existentes. La categoría de existencia no es una categoría puramente metafísica; somos "seres‐ahí", como dijo Heidegger, sometidos a las fluctuaciones del medio exterior y sometidos efectivamente a la inminencia a la vez totalmente cierta y totalmente incierta de la muerte. Dicho de otro modo, estas categorías del ser y de la existencia que parecen puramente metafísicas, las reencontramos en nuestro universo físico; pero el ser no es una sustancia; el ser sólo puede existir a partir del momento en que hay auto‐organización. El sol es un ser que se autoorganiza evidentemente a partir, no de nada, sino a partir de una nube cósmica; y cuando el sol estalle, perderá su ser...
Si podemos referirnos en lo sucesivo a principios científicos que permiten concebir el ser, la existencia, al individuo, al sujeto, es cierto que el estatus, el problema de las ciencias sociales y humanas, se modifica. Es muy importante, puesto que el drama, la tragedia de las ciencias humanas y de las ciencias sociales especialmente, es que, queriendo fundar su cientificidad sobre las ciencias naturales, encontró principios simplificadores y mutilantes en los que era imposible concebir el ser, imposible concebir la existencia, imposible concebir la autonomía, imposible concebir el sujeto, imposible concebir la responsabilidad.
12. y 13. Ahora, llego al último punto, que es el más dramático. El conocimiento simplificante se funda sobre la fiabilidad absoluta de la lógica para establecer la verdad intrínseca de las teorías, una vez que éstas están fundadas empíricamente según los procedimientos de la verificación. Ahora bien, hemos descubierto, con el teorema de Gödel, la problemática de la limitación de la lógica. El teorema de Gödel ha demostrado los límites de la demostración lógica en el seno de sistemas formalizados complejos; éstos comportan al menos una proposición que es indecidible, lo que hace que el conjunto del sistema sea indecidible. Lo que es interesante en esta idea, es que se la puede generalizar: todo sistema conceptual suficientemente rico incluye necesariamente cuestiones a las que no puede responder desde sí mismo, pero a las que sólo se puede responder refiriéndose al exterior de ese sistema.
Como dice expresamente Gödel: "El sistema sólo puede encontrar sus instrumentos de verificación en un sistema más rico o metasistema". Tarski lo dijo también claramente para los sistemas semánticos. Los metasistemas, aunque más ricos, comportan también una brecha y así seguidamente; la aventura del conocimiento no puede ser cerrada; la limitación lógica nos hace abandonar el sueño de una ciencia
50
absoluta y absolutamente cierta, pero es necesario decir que no era sólo un sueño. Era el sueño finalmente de los años 20, el sueño del matemático Hilbert que creía efectivamente que podía probarse de modo absoluto por la metamatemática, matemáticamente, lógicamente, formalmente la verdad de una teoría. Era el sueño del positivismo lógico que creyó fundar con certeza la teoría científica. Ahora bien, Popper, después Kuhn, cada uno a su modo, han mostrado que lo propio de una teoría científica es ser biodegradable. Hay aquí una brecha en la lógica a la que se añade otra brecha, que es el problema de la contradicción. Es un problema muy viejo, puesto que lo contradictorio o el antagonismo está presente en Heráclito, Hegel, Marx.
La cuestión está en saber si la aparición de una contradicción es signo de error, es decir, si es necesario abandonar el camino que ha conducido a ella o, si por contrario, nos revela niveles profundos o desconocidos de la realidad. Existen contradicciones no absurdas, a las que nos conduce la observación, así la partícula se presenta al observador tanto como onda tanto como corpúsculo; esta contradicción no es una contradicción absurda; ella se funda sobre una andadura lógica; partiendo de determinadas observaciones, se llega a la conclusión de que lo observado es algo inmaterial, una onda; pero otras observaciones, no menos verificadas, nos muestran que, en otras condiciones, el fenómeno se comporta como una entidad discreta, un corpúsculo. Es la lógica la que conduce a esa contradicción. El verdadero problema es que es la misma lógica la que nos conduce a momentos aporéticos los cuales pueden o no pueden ser superados. Lo que revela la contradicción, si ella es insuperable, es la presencia de un nivel profundo de la realidad que cesa de obedecer a la lógica clásica o aristotélica.
Diría, en dos palabras, que el trabajo del pensamiento, cuando es creador, es realizar saltos, transgresiones lógicas, pero que el trabajo de la verificación es retornar a la lógica clásica, al nudo deductivo, el cual, efectivamente, sólo opera verificaciones segmentarias. Podemos formular proposiciones, aparentemente contradictorias, como por ejemplo: yo soy otro. Yo "soy" otro, como decía Rimbaud, o esa hermosa frase de Tarde, por citar a un precursor de la sociología, que reza: "Lo más admirable de todas las sociedades, esa jerarquía de consciencia, esa feudalidad de almas vasallas de la que nuestra persona es la cima", es decir, esa multiplicidad de personalidades en el yo; en la identidad existe un tejido de nociones extremamente diversas, existe la heterogeneidad en lo idéntico. Todo esto es muy difícil de concebir, pero es así.
Así, en el corazón del problema de la complejidad, anida un problema de principio de pensamiento o paradigma, y en el corazón del paradigma de complejidad se presenta el problema de la insuficiencia y de la necesidad de la lógica, del enfrentamiento "dialéctico" o dialógico de la contradicción.
La epistemología compleja
El segundo problema es el de la epistemología compleja que, en última instancia, es aproximadamente de la misma naturaleza que el problema del conocimiento del conocimiento.
51
Continúa cuestiones de lo que he dicho, pero sobrepasándolas, englobándolas. ¿Cómo concebir ese conocimiento del conocimiento?
Podemos decir que el problema del conocimiento científico podía plantearse a dos niveles. Estaba el nivel que podríamos llamar empírico, y el conocimiento científico, gracias a las verificaciones mediante observaciones y experimentaciones múltiples, extrae datos objetivos y, sobre estos datos objetivos, induce teorías que, se pensaba, "reflejaban" lo real. En un segundo nivel, esas teorías se fundaban sobre la coherencia lógica y así fundaban su verdad los sistemas de ideas. Teníamos, pues, dos tronos, el trono de la realidad empírica y el trono de la verdad lógica, de este modo se controlaba el conocimiento. Los principios de la epistemología compleja son más complejos: no hay un trono; no hay dos tronos; en modo alguno hay trono. Existen instancias que permiten controlar los conocimientos; cada una es necesaria; cada una es insuficiente.
La primera instancia, es el espíritu. ¿Qué es el espíritu? El espíritu es la actividad de algo, de un órgano llamado cerebro. La complejidad consiste en no reducir ni el espíritu al cerebro, ni el cerebro al espíritu. El cerebro, evidentemente, es un órgano que podemos analizar, estudiar, pero que nombramos tal cual por la actividad del espíritu.
Dicho de otro modo, tenemos algo que podemos llamar el espíritu‐cerebro ligado y recursivo puesto que uno coproduce al otro de alguna manera. Pero de todas formas, este espíritu‐cerebro ha surgido a partir de una evolución biológica, vía la hominización, hasta el homo llamado sapiens. Por lo tanto, la problemática del conocimiento debe absolutamente integrar, cada vez que ellas aparecen, las adquisiciones fundamentales de la bio‐antropología del conocimiento. Y ¿cuáles son esas adquisiciones fundamentales?
La primera adquisición fundamental es que nuestra máquina cerebral es hiper‐compleja. El cerebro es uno y múltiple. La menor palabra, la menor percepción, la menor representación ponen en juego, en acción y en conexión miríadas de neuronas y múltiples estratos o sectores del cerebro. Éste es bihemisférico; y su funcionamiento favorable acontece en la complementariedad y en el antagonismo entre un hemisferio izquierdo más polarizado sobre la abstracción y el análisis, y un hemisferio derecho más polarizado sobre la aprehensión global y lo concreto. El cerebro es hipercomplejo igualmente en el sentido en que es "triúnico", según la expresión de Mac Lean. Porta en sí, no como la Trinidad tres personas en una, sino tres cerebros en uno, el cerebro reptiliano (celo, agresión), el cerebro mamífero (afectividad), el neocórtex humano (inteligencia lógica y conceptual), sin que haya predominancia de uno sobre otro. Al contrario, hay antagonismo entre esas tres instancias, y a veces, a menudo, es la pulsión quien gobierna la razón. Pero también, en y por ese desequilibrio, surge la imaginación.
Lo más importante quizás en la bio‐antropología del conocimiento nos retorna a las críticas kantianas, en mi opinión ineludibles; efectivamente, se ha descubierto mediante medios nuevos de observación y de experimentación lo que Kant descubrió mediante procedimientos intelectuales y reflexivos. Nuestro cerebro está en una caja negra que es el cráneo, no tiene comunicación directa con el universo. Esa
52
comunicación se efectúa indirectamente vía la red nerviosa a partir de las terminales sensoriales. ¿Qué es lo que llega a nuestra retina, por ejemplo? Son estímulos, que en nuestro lenguaje actual llamamos fotones, que van a impresionar la retina y esos mensajes van a ser analizados por células especializadas, después transcritos en un código binario el cual va a llegar a nuestro cerebro donde, de nuevo, van, según procesos que no conocemos, a traducirse en representación. Es la ruina de la concepción del conocimiento‐reflejo.
Nuestras visiones del mundo son traducciones del mundo. Traducimos la realidad en representaciones, nociones, ideas, después en teorías. Desde ahora está experimentalmente demostrado que no existe diferencia intrínseca alguna entre la alucinación y la percepción. Podemos efectuar determinados estímulos sobre determinadas zonas del cerebro y hacer revivir impresiones, recuerdos con una fuerza alucinatoria sentida como percepción. Dicho de otro modo, lo que diferencia la percepción de la alucinación es únicamente la intercomunicación humana. Y quizás ni eso, pues hay casos de alucinación colectiva. A menos que se admita la realidad de la aparición de Fátima, es cierto que miles de personas, que una muchedumbre, pueden producir una misma alucinación.
Así, del examen bio‐antropológico del conocimiento se desprende un principio de incertidumbre fundamental; existe siempre una relación incierta entre nuestro espíritu y el universo exterior. Sólo podemos traducir su lenguaje desconocido atribuyéndole y adaptándole nuestro lenguaje. Así, hemos llamado "luz" a lo que nos permite ver, y entendemos hoy por luz un flujo de fotones que bombardean nuestras retinas. Es ya hora de que la epistemología compleja reintegre un personaje que ha ignorado totalmente, es decir, el hombre en tanto que ser bio‐antropológico que tiene un cerebro. Debemos concebir que lo que permite el conocimiento es al mismo tiempo lo que lo limita. Imponemos al mundo categorías que nos permiten captar el universo de los fenómenos. Así, conocemos realidades, pero nadie puede pretender conocer La Realidad con "L" y "R".
No hay sólo condiciones bio‐antropológicas del conocimiento. Existen, correlativamente, condiciones socioculturales de producción de todo conocimiento, incluido el científico. Estamos en los comienzos balbucientes de la sociología del conocimiento. Una de sus enfermedades infantiles es reducir todo conocimiento, incluido el científico, únicamente a su enraizamiento sociocultural; ahora bien, desgraciadamente, no se puede hacer del conocimiento científico una ideología del mismo tipo que las ideologías políticas, aunque ‐y volveré sobre ello‐ toda teoría sea una ideología, es decir construcción, sistema de ideas, y aunque todo sistema de ideas dependa a la vez de capacidades propias al cerebro, de condiciones socioculturales, de la problemática del lenguaje. En ese sentido, una teoría científica comporta inevitablemente un carácter ideológico. Existen siempre postulados metafísicos ocultos en y bajo la actividad teórica (Popper, Holton).
Pero la ciencia establece un diálogo crítico con la realidad, diálogo que la distingue de otras actividades cognitivas.
53
Por otro lado, la sociología del conocimiento está aún poco desarrollada y comporta en ella una paradoja fundamental; sería necesario que la sociología fuese más potente que la ciencia que estudia para poderla tratar de modo plenamente científico; ahora bien, desgraciadamente la sociología es científicamente menos potente que la ciencia que examina. Eso quiere decir evidentemente que es necesario desarrollar la sociología del conocimiento. Existen estudios interesantes, pero muy limitados, que son estudios de sociología de los laboratorios; ponen de manifiesto que un laboratorio es un micro‐medio humano donde bullen ambiciones, celos, rivalidades, modas... Se dudaba un poco de ello. Es cierto que esto resumerge la actividad científica en la vida social y cultural; pero no se trata sólo de eso. Hay mucho más que hacer desde el punto de vista de la sociología de la cultura, de la sociología de la intelligentsia (Mannheim). Hay todo un dominio extremamente fecundo por prospectar. A este nivel es preciso desarrollar una socio‐historia del conocimiento, incluida en ella la historia del conocimiento científico. Acabamos de ver que toda teoría cognitiva, incluida la científica, es coproducida por el espíritu humano y por una realidad sociocultural. Eso no basta.
Es necesario también considerar los sistemas de ideas como realidades de un tipo particular, dotadas de una determinada autonomía "objetiva" en relación a los espíritus que las nutren y se nutren de ellas. Es necesario, pues, ver el mundo de las ideas, no sólo como un producto de la sociedad solamente o un producto del espíritu, sino ver también que el producto tiene, en el dominio complejo, siempre una autonomía relativa. Es el famoso problema de la superestructura ideológica que ha atormentado a generaciones de marxistas, porque, evidentemente, el marxismo sumario y cerrado hacía de la superestructura un puro producto de las infraestructuras, pero el marxismo complejo y dialéctico, comenzando por Marx, percibía que una ideología retroactuaba, evidentemente, y jugaba su papel en el proceso histórico. Es necesario ir todavía más lejos. Marx creyó volver a poner la dialéctica sobre los pies subordinando el papel de las ideas. Pero la dialéctica no tiene cabeza ni pies. Es rotativa.
A partir del momento en que se toma en serio la idea de recursión organizacional, los productos son necesarios para la producción de los procesos. Las sociedades humanas, las sociedades arcaicas, tienen mitos fundacionales, mitos comunitarios, mitos sobre ancestros comunes, mitos que les explican su situación en el mundo. Ahora bien, esas sociedades sólo pueden consumarse en tanto que sociedades humanas si tienen ese ingrediente mitológico; el ingrediente mitológico es tan necesario como el ingrediente material. Puede decirse: no, por supuesto tenemos primeramente necesidad de comer y luego... los mitos, sí, ¡pero no tanto! Los mitos mantienen la comunidad, la identidad común que es un vínculo indispensable para las sociedades humanas. Forman parte de un conjunto en el que cada momento del proceso es capital a la producción del todo.
Dicho esto, quiero hablar del grado de autonomía de las ideas y tomaré dos ejemplos extremos; un ejemplo que me ha impresionado siempre resulta evidente en todas las religiones. Los dioses que son creados por las interacciones entre los espíritus de una comunidad de creyentes tienen una existencia plenamente real y plenamente objetiva; ellos no tienen ciertamente la misma objetividad que una mesa, que la caza;
54
pero tienen una objetividad real en la medida en que se cree en ellos: son seres que viven por los creyentes y éstos operan con sus dioses un comercio, un intercambio de amor pagado con amor. Se les demanda ayuda o protección y, a cambio, se les dona ofrendas. Mejor aún: hay muchos cultos en los que los dioses aparecen, y lo que me ha fascinado siempre en la macumba es ese momento en el que llegan los dioses, los espíritus, que se apoderan de tal o cual persona, que bruscamente hablan por la boca del dios, hablan con la voz del dios, es decir que la existencia real de esos dioses es incontestable. Pero esos dioses no existirían sin los humanos que los protegen: ¡he aquí la restricción que es necesario hacer a su existencia! En el límite, esta mesa puede aún existir tras nuestra vida, nuestro aniquilamiento, aunque no tuviese ya la función de mesa; eso sería lo que continuaría su existencia. Pero los dioses morirían todos desde que cesásemos de existir.
Entonces, ¡he ahí su tipo de existencia!
Del mismo modo, diría que las ideologías existen con mucha fuerza. ¡La idea trivial de que podemos morir por una idea es muy verdadera! Claro está, mantenemos una relación muy equívoca con la ideología. Una ideología, según la visión marxiana, es un instrumento que enmascara intereses particulares bajo ideales universales. Todo esto es verdad; pero la ideología no es solamente un instrumento; ella nos instrumentaliza. Somos poseídos por ella. Somos capaces de actuar por ella. Así pues, existe el problema de la autonomía relativa del mundo de las ideas y el problema de la organización del mundo de las ideas.
Hay necesidad de elaborar una ciencia nueva que sería indispensable para el conocimiento del conocimiento. Esa ciencia sería la noología, ciencia de las cosas del espíritu, de las entidades mitológicas y de los sistemas de ideas, entendidos en su organización y su modo de ser específico.
Los problemas fundamentales de la organización de los sistemas de ideas no resultan solamente de la lógica, existe también lo que llamo la paradigmatología. Ésta significa que los sistemas de ideas obedecen a algunos principios fundamentales que son principios de asociación o de exclusión que los controlan y comandan.
Así, por ejemplo, lo que podemos llamar el gran paradigma de Occidente, bien formulado por Descartes, ya citado, que consiste en la disyunción entre el objeto y el sujeto, la ciencia y la filosofía; es un paradigma que no sólo controla la ciencia, sino que controla la filosofía. Los filósofos admiten la disyunción con el conocimiento científico, tanto como los científicos la disyunción con la filosofía. He aquí, pues, un paradigma que controla tipos de pensamiento totalmente diferentes, incluso antagonistas, pero que le obedecen igualmente. Ahora bien, tomemos la naturaleza humana como ejemplo del paradigma. O bien el paradigma hace que esas dos nociones, las de naturaleza y hombre, estén asociadas, como ocurre de hecho en Rousseau, es decir que sólo se puede comprender lo humano en relación con la naturaleza. O bien, esas dos nociones están disjuntas, es decir que sólo puede comprenderse lo humano por exclusión de la naturaleza; éste es el punto de vista de la antropología cultural aún reinante.
55
Un paradigma complejo, por el contrario, puede comprender lo humano a la vez en asociación y en oposición con la naturaleza. Es Kuhn quien ha puesto de relieve fuertemente la importancia crucial de los paradigmas, aunque haya definido mal esa noción. Él la utiliza en el sentido vulgar anglosajón de "principio fundamental". Yo la empleo en un sentido intermedio entre su sentido lingüístico y su sentido kuhniano, es decir que ese principio fundamental se define por el tipo de relaciones que existen entre algunos conceptos maestros extremadamente limitados, pero cuyo tipo de relaciones controla todo el conjunto de los discursos, incluida la lógica de los discursos. Cuando digo lógica, es necesario ver que de hecho creemos en la lógica aristotélica; pero en ese tipo de discurso que es el discurso de nuestro conocimiento occidental, es la lógica aristotélica la que nos hace obedecer, sin saberlo, a ese paradigma de disyunción, de simplificación y de legislación soberana; y el mundo del paradigma es evidentemente algo muy importante que merece ser estudiado en sí mismo, pero a condición siempre de abrirlo sobre el conjunto de las condiciones socioculturales y de introducirlo en el corazón mismo de la idea de cultura. El paradigma que produce una cultura es al mismo tiempo el paradigma que reproduce esa cultura. Hoy, el principio de disyunción, de distinción, de asociación, de oposición que gobierna la ciencia no solamente controla las teorías, sino que al mismo tiempo comanda la organización tecno‐burocrática de la sociedad. Esa división, esa hiperdivisión del trabajo científico aparece de un lado, evidentemente, como una especie de necesidad de desarrollo intrínseco, porque desde que una organización compleja se desarrolla, el trabajo se especializa mientras que las tareas se multiplican para llegar a una riqueza más compleja. Pero ese proceso, no solamente es paralelo, sino que está ligado al proceso de la división del trabajo social, al proceso de la heterogeneización de tareas, al proceso de la no‐comunicación, de la parcelación, de la fragmentación de las actividades humanas en nuestra sociedad industrial; resulta evidente que hay en ello una relación muy profunda entre el modo como organizamos el conocimiento y el modo como la sociedad se organiza. La ausencia de complejidad en las teorías científicas, políticas y mitológicas está ella misma ligada a una determinada carencia de complejidad en la organización social misma, es decir, que el problema de lo paradigmático es extremamente profundo porque remite a algo muy profundo en la organización social, que no es evidente en principio; remite a algo muy profundo, sin duda, en la organización del espíritu y del mundo noológico.
A modo de conclusión
Concluyo: ¿qué sería una epistemología compleja?
No es la existencia de una instancia soberana que sería el Señor epistemólogo controlando de modo irreductible e irremediable todo saber; no hay trono soberano. Hay una pluralidad de instancias. Cada una de esas instancias es decisiva; cada una es insuficiente. Cada una de esas instancias comporta su principio de incertidumbre. He hablado del principio de incertidumbre de la bioantropología del conocimiento. Es necesario también hablar del principio de incertidumbre de la sociología del conocimiento; una sociedad produce una ideología, una idea; pero eso no es signo de que ella sea verdadera o falsa. Por ejemplo, en la época en que Laurent Casanova (es un recuerdo personal) estigmatizaba al existencialismo sartriano diciendo de éste: "Es la
56
expresión de la pequeña burguesía laminada entre el proletariado y la burguesía", el desafortunado Sartre decía: "Sí, quizás; es verdad; pero eso no quiere decir, sin embargo, que el existencialismo sea verdadero o falso". Del mismo modo, las conclusiones "sociológicas" de Lucien Goldmann sobre Pascal, incluso si ellas están fundadas, no afectan a los Pensées.
Lucien Goldmann decía: "La ideología de Pascal y de Port‐Royal es la ideología de la nobleza de toga laminada entre la monarquía y la burguesía ascendente". Quizás, pero ¿es que la angustia de Pascal ante los dos infinitos puede reducirse al drama de la nobleza de toga que va a perder su toga? No está tan claro.
Dicho de otro modo: incluso las condiciones más singulares, las más localizadas, las más particulares, las más históricas de la emergencia de una idea, de una teoría, no son prueba de su veracidad ‐claro está‐ ni tampoco de su falsedad. Dicho de otro modo, hay un principio de incertidumbre en el fondo de la verdad. Es el problema de la epistemología; es el problema de ladialéctica; es el problema de la verdad. Pero también aquí la verdad se escapa; y también aquí el día en que se haya constituido una facultad de noología, con su departamento de paradigmatología, ese no será el lugar central desde donde se podría promulgar la verdad. Hay un principio de incertidumbre y, como decía hace un instante, hay un principio de incertidumbre en el corazón mismo de la lógica. No hay incertidumbre en el silogismo; pero en el momento del ensamblaje en un sistema de ideas, hay un principio de incertidumbre.
Así, hay un principio de incertidumbre en el examen de cada instancia constitutiva del conocimiento. Y el problema de la epistemología es hacer comunicar esas instancias separadas; es, de alguna manera, hacer el circuito. No quiero decir que cada uno deba pasar su tiempo leyendo, informándose sobre todos los dominios. ¡No! Pero lo que digo es que si se plantea el problema del conocimiento, y por tanto el problema del conocimiento del conocimiento, estamos obligados a concebir los problemas que acabo de enumerar. Son ineluctables; y no porque sea muy difícil informarse, conocer, verificar, etc., hay que eliminar esos problemas. Es necesario, en efecto, darse cuenta de que es muy difícil y que no es una tarea individual; es una tarea que necesitaría el encuentro, el intercambio, entre todos los investigadores y universitarios que trabajan en dominios disjuntos, y que se encierran, por desgracia, como ostras cuando se les solicita. Al mismo tiempo, debemos saber que no hay más privilegios, más tronos, más soberanías epistemológicas; los resultados de las ciencias del cerebro, del espíritu, de las ciencias sociales, de la historia de las ideas, etc., deben retroactuar sobre el estudio de los principios que determinan tales resultados. El problema no es que cada uno pierda su competencia. Es que la desarrolle bastante para articularla con otras competencias, las cuales, encadenadas, formarían un bucle completo y dinámico, el bucle del conocimiento del conocimiento. Esta es la problemática de la epistemología compleja y no la llave maestra de la complejidad, de la que lo propio, desgraciadamente, es que no facilita llave maestra alguna.
Nota: Este texto corresponde a las páginas 43‐77 de L'intelligence de la complexité, editado por L'Harmattan, París, 1999. Agradecemos a Edgar Morin su
57
amable autorización para traducir y publicar el texto. Traducción de José Luis Solana Ruiz. Edgar Morin. Director honorario de investigaciones del CNRS. París, Francia.