(transiciones) philip n. johnson-laird-el ordenador y la mente (capítulos 12 y 13)-paidós (1993)

34
12 Deducción El pensamiento se despliega con una variedad tan deslumbrante que algunos científicos cognitivos ya han desistido de comprenderlo. En un extremo, está el flujo libre de ideas, cuando soñamos despiertos. Este torrente de conciencia lo recreaba James Joyce en las páginas finales de su gran novela Ulises: Sí, porque nunca hizo antes algo parecido a pedir que le sirvieran el desayuno en la cama con un par de huevos ya que el hotel City Arms cuando él solía disimular que estaba postrado en el lecho con una voz enfermiza y creyéndose su alteza para hacerse el importante delante de aquel viejo leño· la señorita Ríor- dan de quien creía que tenía una gran pierna de la misma y que nunca nos dej6 ni un céntimo todo para mesas para sí misma y para su alma la mayor miseria habida en realidad tenía miedo de gastar cuarenta céntimos en su alcohol metílico todas sus dolencias tenía demasiada conversaci6n caduca sobre política y terremo- tos y el fin del mundo divertámonos un poco primero ... Joyce decidió no puntuar el soliloquio de Molly Bloom, con el fin, qUIzas, de captar su efímera y rudimentaria naturaleza. El proceso que genera ensueños es rápido, involuntario e, independientemente de sus resultados, está fuera de la atención consciente. Recordemos un episodio: nunca nos dejó un centavo [en su testamento] y la memoria dispara un juicio: la mayor miseria nunca habida El término laggot (leño), en inglés norteamericano, se utiliza también como despectivo (<<maricona»), y el uso que hace el autor en este contexto puede incluir este segundo sentido. [T.]

Upload: marlonrivast

Post on 18-Jan-2016

83 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

12 Deducción

El pensamiento se despliega con una variedad tan deslumbrante que algunos científicos cognitivos ya han desistido de comprenderlo. En un extremo, está el flujo libre de ideas, cuando soñamos despiertos. Este torrente de conciencia lo recreaba James Joyce en las páginas finales de su gran novela Ulises:

Sí, porque nunca hizo antes algo parecido a pedir que le sirvieran el desayuno en la cama con un par de huevos ya que el hotel City Arms cuando él solía disimular que estaba postrado en el lecho con una voz enfermiza y creyéndose su alteza para hacerse el importante delante de aquel viejo leño· la señorita Ríor­dan de quien creía que tenía una gran pierna de la misma y que nunca nos dej6 ni un céntimo todo para mesas para sí misma y para su alma la mayor miseria habida en realidad tenía miedo de gastar cuarenta céntimos en su alcohol metílico todas sus dolencias tenía demasiada conversaci6n caduca sobre política y terremo­tos y el fin del mundo divertámonos un poco primero ...

Joyce decidió no puntuar el soliloquio de Molly Bloom, con el fin, qUIzas, de captar su efímera y rudimentaria naturaleza. El proceso que genera ensueños es rápido, involuntario e, independientemente de sus resultados, está fuera de la atención consciente. Recordemos un episodio:

nunca nos dejó un centavo [en su testamento]

y la memoria dispara un juicio:

la mayor miseria nunca habida

• El término laggot (leño), en inglés norteamericano, se utiliza también como despectivo (<<maricona»), y el uso que hace el autor en este contexto puede incluir este segundo sentido. [T.]

Page 2: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

206 Cogitación

que, a su vez, nos recuerda algo más:

en realidad tenía miedo de gastar cuarenta centavos en su alcohol metílico

y así sucesivamente. William James comparaba el flujo de conciencia con la trayectoria de un pájaro: una secuencia consistente en volar y posarse alternati­vamente. Sin embargo, el vuelo de las ideas en los ensueños no tiene meta.

En el otro extremo, está la aritmética mental. Uno delibera de forma volun­taria y conscientemente controlada. Uno no se da cuenta de cómo recupera un hecho aritmético concreto, o de cómo se representan los números y los procesos, pero se da cuenta de lo que está pasando. Uno puede elegir cómo hacer el cálculo (o incluso si lo hace o no), pero, una vez que ha elegido un procedimiento, ya no tiene libertad sobre qué hacer para obtener la respuesta correcta. Nuestro pensamiento es determinístico y tiene una meta precisa; en cada momento, el siguiente paso del cálculo está determinado por su estado actual.

Posiblemente, la mayoría del pensamiento se encuentra entre estos dos ex­tremos. Tiene una meta, pero no se lleva a cabo como un cálculo. Cuando uno intenta crear una idea nueva -una obra de arte, una hipótesis científica, o incluso algo tan prosaico como un giro nuevo para una frase-existe una meta, pero no está definida con precisión: no hay sólo una respuesta correcta y no se sigue un procedimiento estrictamente determinado. Diferentes personas abordan el mismo problema de distintas maneras. Usted mismo, si pudiera dar un paso hacia atrás en el tiempo y hacer otro intento ignorando el anterior, probablemente tomaría un camino diferente esta segunda vez. Nada le limita a una única opción en cada paso del proceso. Es un proceso creativo, no deter­mirústico.

Una vez más, el razonamiento es diferente. Cuando nos enfrentamos con un problema social o intelectual, nuestra meta puede ser precisa; sin embargo, rara vez existe un procedimiento rutinario para llegar a ella. Ahora bien, pode­mos razonar a partir de un conjunto de premisas, hasta llegar a una conclusión. Supongamos que se tiene conocimiento del siguiente hecho: si Antonio está en el trabajo, entonces, probablemente, está en su laboratorio. Alguien nos dice que «Antonio está en el trabajo». En ese momento podemos unir nuestro conocimiento con dicha afirmación para inferir: probablemente está en su labo­ratorio. Hemos hecho una deducción y podemos ponerla en palabras o, simple­mente, actuar con arreglo a ella. El razonamiento pone en relación unas premi­sas con una conclusión. En el caso de una deducción, se supone que la relación es de validez, es decir, que la conclusión debe ser verdadera, siempre y cuando las premisas sean verdaderas. La validez no significa que las premisas sean ver­daderas, sino solamente que, si lo son, también lo será la conclusión.

Hay otras formas de razonamiento, y aquí el concepto de información se­mántica ayuda a establecer una distinción fundamental. Cuantos más posibles estados de las cosas de entre los que pueden considerarse elimine una proposi-

Page 3: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Deducción I 207

ción, mayor información semántica contiene. Por ejemplo, la afirmación «(Está helando, pero no hay niebla» excluye más estados de cosas que la afirmación «(Está helando», porque la primera descarta la presencia de niebla y esta última no lo hace. Siempre que hay razonamiento uno puede preguntarse si la conclu­sión contiene más información semántica que las premisas. O más concretamen­te, si descarta más estados de cosas adicionales a los descartados por las premi­sas. Si no es así, entonces la inferencia es una deducción válida: su conclusión es verdadera en cualquier situación en la que las premisas sean verdaderas. Pero si la conclusión descarta estados de cosas adicionales, entonces no es váli­da. La inducción puede definirse como un modo sistemático de razonar que aumenta la información dada.

He distinguido hasta ahora cinco variedades principales de pensamiento. Los ensueños son procesos mentales que no tienen una meta. Los cálculos tie­nen una meta y son determÍnÍsticos. Otros procesos no son determinísticos. Si su meta es precisa, son variedades de razonamiento, que se dividen en de­ducción e inducción, dependiendo de si aumentan o no la información semánti­ca. Si no hay una meta precisa, son variedades de pensamiento creativo. Dado que se puede realizar un cálculo en medio de un ensueño, o tener un ensueño en mitad de un cálculo, estos nombres no son más que etiquetas convencionales para reflejar las distinciones subyacentes. La figura 12.1 resume la taxonomía.

¿Hay alguna otra forma de cogitación? Sospecho que no, aunque la taxono­mía puede refinarse con muchas subvariedades. No diré nada más sobre sus dos extremos -el reloj y las nubes de la mente- pero sí examinaré la deduc­ción, la inducción y la creación, en este y en los dos próximos capítulos.

La deducción en la vida diaria

Si leemos el periódico:

La víctima fue apuñalada mortalmente en un cine. El sospechoso estaba en un tren expreso con dirección a Edimburgo cuando ocurrió el asesinato

probablemente concluiremos que el sospechoso era inocente. Esta es una mues­tra típica del razonamiento cotidiano e ilustra tres fenómenos importantes. En primer lugar, depende no sólo de las premisas, sino también del conocimiento general, y, por ejemplo, de que una persona no puede estar en dos lugares a la vez; o de que no hay cine en los expresos a Edimburgo. Fundimos tan rápida y automáticamente estos eslabones en la cadena inferencial, que difícil­mente nos damos cuenta de su presencia. En realidad, su necesidad sólo se descubrió cuando los científicos cognitivos intentaron diseñar programas de or­denador que comprendiesen el discurso. En segundo lugar, extraemos una con­clusión informativa, es decir, una que no está expresada explícitamente en las

Page 4: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

208 I Cogitación

¿Meta?

A Ensueño Determinístico

No Sí

¿Meta precisa? ¿Cálculo?

No

¿Aumento de información semántica?

Inducción Deducción

Figura 12.1: Una taxonomía del pensamiento

premisas y que no desecha información semántica. Hay un número infinito de conclusiones válidas que se siguen de cualquier conjunto de premisas y, sin embargo, la mayoría de ellas son completamente triviales; por ejemplo:

La víctima fue apuñalada mortalmente en un cine, y el sospechoso estaba en un tren expreso con dirección a Edimburgo cuando ocurrió el asesinato.

Dado que las personas no sacan conclusiones tan banales, aunque válidas, deben estar guiados por algún principio ajeno a la lógica. En tercer lugar, aun­que nuestra conclusión no sea válida, si se pone en duda, podemos comprobar su validez. Cuando Tony Anderson y yo pedimos este tipo de conclusiones en un experimento, nuestros sujetos buscaron alternativas y produjeron, con cierta frecuencia, guiones en los que el sospechoso es culpable; por ejemplo, puede que él (sic) haya tenido un cómplice, puede haber usado un robot contro­lado por radio, o una trampa con un muelle y un cuchillo. Hay una posibilidad aún más diabólica que revelaré más tarde, para dar al lector la oportunidad de descubrirla por sí mismo.

¿Cuáles son los procesos mentales que conducen a la conclusión inicial de

Page 5: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Deducción I 209

que e! sospechoso es inocente? Es difícil decirlo, porque no nos damos cuenta de cómo razonamos. Solamente podemos observar las consecuencias en nuestros pensamientos conscientes. Sin embargo, durante muchos años, los psicólogos dieron por supuesto que la deducción dependía de una lógica mental que conte­nía reglas formales de inferencia, como las de un cálculo lógico. En cambio, recientemente, los científicos cognitivos se han dividido en dos campos, la psi­cología y la inteligencia artificial. En un lado están los que verdaderamente apoyan las reglas formales de inferencia, y en e! otro, los que apoyan las reglas que contienen conocimiento específico. Describiré sucintamente las líneas fun­damentales de estas dos escuelas de pensamiento, y posteriormente -en la me­jor tradición británica-sostendré que las dos son erróneas.

Formalismos: el uso de la lógica formal para razonar

La validez es un concepto semántico. La lógica moderna especifica reglas para derivar sólo aquellas inferencias que son válidas. Pero las reglas son forma­les y funcionan de un modo puramente sintáctico que no depende de los signifi­cados de las expresiones. Leibniz soñaba con un sistema así -un ars combinatona-, y sin embargo no se llevó a cabo hasta que, en 1879, Gottlob Frege publicó una lógica lo suficientemente compleja como para expresar prácti­camente todas las matemáticas; una lógica que se conoce como e! cálculo de predicados (o cuantificado). Este cálculo abarca tanto la lógica de proposiciones conectados por términos como «(Y», «(O» Y «(00», como la lógica interna de enun­ciados que contienen cuantificadores tales como «(todos» y «(algún». *

La posición tradicional en psicología es que las personas son capaces de hacer deducciones válidas porque tienen una lógica formal en su cabeza. Barbe! Inhelder y Jean Piaget, los psicólogos de Ginebra, sostuvieron que el razona­miento deductivo que, según ellos, los niños adquieren, en los primeros años de su segunda década de vida, no es sino un cálculo lógico. No obstante, existe la necesidad de clarificar lo que aquí se quiere decir con formalismo.

Consideremos e! ejemplo anterior sobre una deducción que se puede hacer:

Si Antonio está en el trabajo, entonces probablemente está en su labo­ratorio. Antonio está en e! trabajo. Por tanto, Antonio probablemente está en su laboratorio.

Una explicación formal de su actuación es que usted ha emparejado las pre­misas con las de una regla formal de inferencia bien conocida:

* También llamados cálculo de predicados de primer y segundo orden, respectivamente. [T.]

Page 6: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

210 I Cogitación

Si p entonces q p Por tanto, q

y ha sacado la correspondiente conclusión. Así pues, la doctrina de la lógica mental asume que el mecanismo deductivo opera, no sobre los significados de los enunciados, sino sobre su forma abstracta. Puesto que un cálculo lógico puede formalizarse de muchas maneras distintas, los puntos cruciales para la doctrina son qué lógica contiene la mente y cómo está formalizada. Dado que las personas pueden razonar con cuantificadores, la mayoría de los teóricos asu­men que la lógica mental debe ser una especie de versión del cálculo de predica­dos. La pregunta sobre su formalización mental es mucho más difícil de contes­tar. Como punto de partida, tomaré en consideración el formalismo de los programas de ordenador que incorporan el cálculo de predicados.

El lógico Alonzo Church realizó, en 1936, un descubrimiento intelectual de gran interés. Demostró que no puede haber un procedimiento formal que garantice la determinación del status de una inferencia dentro del cálculo de predicados. Si la inferencia es válida, hay procesos que garantizan el hecho de encontrar una prueba. Pero, si no es válida, entonces cualquier procedimien­to puede fracasar al revelar este hecho (puede perderse en el «espacio» de posi­bilidades, deambulando para siempre). Un programa de ordenador debe, por tanto, minimizar el tiempo que tarda en descubrir la validez de una inferencia, ya que, en cuanto se pone a trabajar de un modo rutinario, ya no hay manera de saber si tomará una decisión o se quedará computando eternamente. Una solución económica consiste en utilizar una sola regla formal de inferencia. Esta regla tiene tendencia a parecer poco clara al principio, y sin embargo es una combinación de principios ya conocidos.

Imaginemos que hay dos alternativas, A y B, que podrían ser, digamos, ver uno mismo la televisión y escuchar la radio, y que es un hecho que ayer por la noche:

Vi la TV o escuché la radio (o ambas cosas).

(Esta afirmación, y otras de aquí en adelante, son disyunciones incluyentes en las cuales ambas proposiciones podrían ser verdad.) Posteriormente introduz­co una tercera posibilidad, C, que es leer el periódico, en un hecho posterior de mi comportamiento:

No vi la TV o leí el periódico.

Bueno, o vi la tele o no la vi. Si la vi, entonces la primera parte de esta nueva afirmación es falsa, la segunda parte debe ser verdad:

Page 7: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Deducción I 211

Leí el periódico.

y si no vi la tele, entonces la primera parte de DÚ afirmación inicial es falsa y, por lo tanto, podemos concluir que:

Escuché la radio.

Dado que usted no sabe si vi la tele o no la vi, sólo puede inferir de manera válida que, al menos una de estas dos posibilidades, se mantiene:

Escuché la radio o leí el periódico.

Resumiendo la deducción, sus preDÚsas son:

Vi la tele o escuché la radio. No vi la tele o leí el periódico.

y su conclusión es:

Escuché la radio o leí el periódico.

[A o Bl [no-A o Cl

[B o Cl

Si observamos su forma abstracta, notaremos que obedece a un sencillo principio. Siempre que una proposición y otra que sea coherente con ella se producen en disyunciones incluyentes distintas, se anulan una a otra y la con­clusión es una disyunción de lo que quede. Este principio se llama la regla de «resolución» de la inferencia. Es suficiente para derivar cualquier inferencia del cálculo de predicados, aunque puede que tenga que usarse muchas veces en la DÚsma derivación.

Antes de que pueda utilizarse la regla de resolución, todas las preDÚsas de­ben convertirse en disyunciones y debe hacerse algo con los cuantificadores que haya en ellas. Estos problemas técnicos se resuelven fácilmente. Ciertamen­te, el lenguaje de programación PROLOG, que ha sido adoptado por los japo­neses en su búsqueda de una «quinta generación» de ordenadores inteligentes, está basado en una combinación del método de resolución y la retroacción (véa­se el capítulo 9).

La resolución es inteligente, pero artificial. Les proporciona a los científicos cognitivos solamente un patrón de comparación, ya que es muy poco probable que las personas traduzcan todas las preDÚsas en una forma disyuntiva estándar, ni que utilicen únicamente una sola regla de inferencia. Una conjetura más plausible es que la mente contenga una lógica en la cual cada término lógico posea sus propias reglas formales de inferencia. Así, la conectiva «si» tendrá la regla que he descrito antes, y habrá otras reglas para «y», «o» y los cuantifica­dores «todos» y «algún». Martin Braine, Daniel Osherson, Lance Rips y otros

Page 8: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

212 I Cogitación

(incluido yo mismo durante una época) han planteado diferentes propuestas acerca de las reglas particulares que contiene la mente. Cuando las personas intentan razonar formalmente, entonces, como ha demostrado Rips, su actua­ción puede modelarse mediante un programa basado en un sistema de este tipo.

No obstante, hay algunos problemas serios para las teorías puramente for­males del razonamiento humano. El primero, como ya he apuntado, es que la lógica formal permite extraer, a partir de cualquier conjunto de premisas, un número infinito de posibles conclusiones válidas. Sin embargo, las personas suelen mostrarse exigentes acerca de las conclusiones que extraen, y a veces se niegan a extraer ninguna si no se deriva nada de las premisas. Como mínimo, las teorías formales tendrán que complementarse con algunos principios semán­ticos para dar cuenta de las conclusiones que realmente extraen las personas. En segundo lugar, los seres humanos, cuando no razonan, están afectados por el contenido semántico de los problemas. Un ejemplo de tal efecto, observado por Peter Wason y sus colegas, consiste en que el contenido puede afectar la siguiente tarea. Se presenta a los sujetos cuatro tarjetas que muestran, respec­tivamente, «(A», ((B»), «(b), y «3»). Se sabe por anteriores experiencias que cada tarjeta del mazo del que se extraen tiene una letra en una cara y un número en la otra. La tarea consiste en decidir a qué tarjetas hay que dar la vuelta para determinar la verdad o falsedad de la siguiente regla:

Si hay una vocal en una cara de una tarjeta, entonces hay un número par en la otra cara.

La mayoría de las personas deciden dar la vuelta a la tarjeta que tiene la «(A») y algunos, además, eligen la tarjeta que tiene el «(2»). Sin embargo, muy pocos eligen la tarjeta que tiene el (d»), a pesar de que si tuviera una vocal en el otro lado, negaría la regla. Las personas son mucho menos susceptibles a este error de omisión cuando las reglas y los materiales utilizados poseen un contenido que tiene cierto sentido; por ejemplo, cuando se refieren a reglas postales (véase más adelante). Por tanto, el contenido de un problema puede afectar al razonamiento, y este fenómeno es contrario a la noción de las reglas formales de inferencia.

Sistemas expertos y reglas de inferencia con contenido especrfico

Los efectos del contenido se explicarían inmediatamente si las reglas menta­les de inferencia tuviesen un contenido específico. Una persona que posea el siguiente conocimiento:

Si una carta tiene puesto un sello de 50 liras, no debe tener matasellos

Page 9: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Deducción I 213

sería capaz de llevar a cabo la versión postal de la tarea de selección de Wason sin dificultad. Dado que no existe tal conocimiento para la versión abstracta de la tarea con letras y números, su rendimiento seguirá siendo pobre. Dichas reglas son condicionales que pueden representarse dentro del marco de referen­cia de un sistema de producción (véase capítulo 9) y se han desarrollado progra­mas de ordenador de este tipo con el fin de captar algunos aspectos de la pericia humana. Sus reglas de inferencia tienen un contenido específico extraí­do de los expertos humanos. Los «sistemas expertos» resultantes proporcionan consejos sobre el diagnóstico médico, sobre la estructura molecular de las sus­tancias compuestas, sobre dónde excavar para obtener petróleo y en otros cam­pos. Un programa así conduce su recorrido a través de las reglas para producir una solución a los problemas concretos que proporciona la persona que utiliza el programa.

Los programas para el razonamiento en sistemas expertos varían considera­blemente. Algunos utilizan las reglas condicionales para trabajar de abajo arriba desde los datos iniciales hasta sus consecuencias, las cuales, a su vez, pueden disparar reglas posteriores que permitan extraer ulteriores consecuencias, y así sucesivamente, hasta que el programa produzca el diagnóstico final. Otros pro­blemas trabajan de arriba hacia abajo, desde la hipótesis sobre el diagnóstico hasta las predicciones específicas sobre los datos. Algunos programas utilizan estimaciones de la probabilidad de las hipótesis y de la verosimilitud de deter­minadas observaciones, dadas cada una de las hipótesis relevantes. Existe un principio muy conocido del cálculo de probabilidades -el teorema de Bayes­que capacita entonces el programa para calcular la hipótesis más probable, a partir de los datos. Muchos sistemas expertos permiten al usuario preguntar por qué se requiere un determinado dato o cómo se alcanzó un determinado diagnóstico. Incluso puede que permitan al usuario cambiar las reglas condicio­nales. Sin embargo, independientemente del método, un sistema sólo puede ser tan bueno como el conocimiento que alberga, y la tarea de formular el conocimiento explícitamente resulta difícil porque una gran cantidad del mismo no es inmediatamente accesible a la introspección.

A pesar de que los sistemas expertos actuales difieren enormemente de los expertos humanos -aunque sólo sea porque estos últimos se inventan mejores excusas cuando se equivocan- hay psicólogos cognitivos que proponen que la mente contiene reglas de inferencia de contenido específico. No obstante, como teoría completa del razonamiento, la hipótesis tiene un defecto crucial. No ofrece ninguna maquinaria para la habilidad inferencial general y, al fin y al cabo, las personas pueden hacer deducciones válidas en dominios con los cuales no están familiarizados. Las reglas de contenido específico se alejan de­masiado de los procedimientos formales. Lo que se necesita es lo mejor de ambos mundos: la habilidad general unida a la sensibilidad ante el contenido.

Page 10: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

214 I Cogitación

Modelos mentales en el razonamiento

Las personas comprenden los significados de los enunciados y, por tanto, resulta un poco raro suponer que, cuando razonan, dejan a un lado su compren­sión y trabajan con reglas formales que son puramente sintácticas. De hecho, hay un procedimiento semántico que puede utilizar para razonar deductivamen­te. Una inferencia es válida si su conclusión no puede ser falsa, partiendo de la verdad de las premisas. En consecuencia, una de las maneras de realizar una inferencia válida es imaginando la solución descrita por las premisas y for­mulando entonces una conclusión informativa que sea verdadera en esa situa­ción, y finalmente considerando si existe alguna manera en que la conclusión pudiera ser falsa. Imaginar una situación es, como he argumentado, construir un «(modelo mental), en el sentido sugerido por Kenneth Craik en la cita del comienzo de esta cuarta parte. Esto es, construimos un modelo basado en el significado de las premisas, no en su forma sintáctica, y en cualquier conoci­miento de tipo general que haya sido desencadenado por su interpretación. Pos­teriormente, si es posible, extraemos una conclusión del modelo que no esté enunciada expücitamente en las premisas y que no descarte la información se­mántica incluida en el modelo. Por último, buscamos modelos alternativos de las premisas que falseen la conclusión. Si no hay ninguno, la conclusión es válida.

Los lógicos están familiarizados con dichos procedimientos en términos de modelos teóricos. Lo que complica el asunto desde el punto de vista psicológico es que, normalmente, hay muchas situaciones alternativas que son compatibles con las premisas. Si le dijera que hay en la habitación algunos científicos y algunos escépticos, y que:

Todos los científicos son escépticos

¿cómo podría construir usted un solo modelo que incluyera todas las maneras diferentes en que podría ver verdadera mi afirmación? Este problema ha cauti­vado a los filósofos durante siglos, en la siguiente versión: ¿cómo podría ser que una prueba geométrica estuviera basada en un solo diagrama? La respuesta en ambos casos es hacer algunos supuestos atrevidos que, si es necesario, pue­den revisarse posteriormente. Así, podemos imaginar que el conjunto relevante de científicos está compuesto de, digamos, solamente dos individuos:

científico científico

Puede que usted sea ese tipo de razonador que se forma una imagen vívida de, digamos, dos personas con batas blancas sujetando tubos de ensayo; sin embargo, la teoría asume que lo que importa no es su experiencia subjetiva

Page 11: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Deducción I 215

sino la estructura del modelo, el cual puede que no sea accesible a una inspec­ción consciente, es decir, un conjunto finito de súnbolos mentales que represen­ta un conjunto finito de individuos. Dado que la premisa afirma que todos los científicos son escépticos, debemos incluir esta información en el modelo:

científico = escéptico científico = escéptico

(escéptico)

donde el símbolo que está entre paréntesis representa a un escéptico que no es científico -un individuo que puede existir o no en la situación en cuestión-, ya que la premisa y nuestro conocimiento general dejan abierta esta posibilidad. Dada la premisa posterior, <<.Ana es una de los científicos», puede añadirse esta información al modelo:

Ana = científico = e~céptico científico = escéptico

(escéptico)

Nuestra siguiente tarea es encontrar una relación en el modelo que no estu­viera expresada explícitamente en las premisas, y formular una conclusión para expresarla:

Ana es una escéptica

Por último, debemos buscar un modelo alternativo de las premisas que refu­te esta conclusión. Si no hay tal modelo, entonces la conclusión es válida; si no se ha podido encontrar dicho modelo pero su búsqueda no es exhaustiva, la conclusión puede que sea válida; si se encuentra ese modelo, nuestra conclu­sión no es válida y se deberá tener en cuenta el nuevo modelo, junto con todos los anteriores, para ver si apoyan una nueva conclusión y, a su vez, comprobar esa conclusión, y así sucesivamente.

El ejemplo no depende del conocimiento general; además, dado que el mo­delo es finito, podemos comprobar fácilmente que las premisas no apoyan algu­na variante del mismo que falsee la conclusión. Así pues, la conclusión es válida.

La predicación principal de esta teoría es obvia: cuanto mayor es el número de modelos diferentes que tienen que construirse para extraer una conclusión válida, más difícil será la tarea. He aquí un ejemplo de una inferencia difícil.

Imaginemos que hay algunos arqueólogos, biólogos y jugadores de ajedrez dentro de una habitación, y que las siguientes afirmaciones son ciertas:

Ninguno de los arqueólogos es biólogo. Todos los biólogos son jugadores de ajedrez.

Page 12: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

216 I Cogitación

¿Que se sigue válidamente de aquí, si es que se sigue algo? Si quiere poner a prueba su habilidad deductiva, debería comprender su respuesta escribiéndola en un papel. Pocas personas responden correctamente; la respuesta correcta por las razones correctas requiere que construyamos, al menos, tres modelos. E! primero se ejemplifica aquí:

arqueólogo arqueólogo

biólogo = jugador de ajedrez biólogo = jugador de ajedrez

(jugador de ajedrez)

El razonador se imagina un número arbitrario de arqueólogos y los sitúa como no idénticos a los biólogos (como está indicado aquí con la línea). La segunda premisa requiere que se identifique cada biólogo con un jugador de ajedrez. Por supuesto, puede que haya jugadores de ajedrez que no sean biólo­gos. Estos están representados con el símbolo que está entre paréntesis, y la teoría asume que están colocados inicialmente en el mismo lado de la línea que los biólogos; la gente no suele darse cuenta inmediatamente de que ese jugador de ajedrez podría ser un arqueólogo. El primer modelo da lugar a una conclusión informativa:

Ninguno de los arqueólogos es un jugador ajedrez (60 %).

He mostrado el porcentaje de estudiantes universitarios que sacaron esta conclusión en uno de nuestros primeros experimentos. Si se explora el modelo en el sentido opuesto al que fue construido -un procedimiento que es relativa­mente difícil- se produce la conclusión inversa:

Ninguno de los jugadores de ajedrez es arqueólogo (10 %).

Ninguna de estas dos conclusiones es válida, ya que pueden refutarse con un segundo modelo:

arqueólogo arqueólogo

biólogo biólogo

jugador de ajedrez

jugador de ajedrez jugador de ajedrez

(jugador de ajedrez)

Los dos modelos juntos apoyan la conclusión informativa:

Page 13: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Deducción I 217

Algunos arqueólogos no son jugadores de ajedrez (10 %) Algunos jugadores de ajedrez no son arqueólogos (O %)

Finalmente, un tercer modelo refuta la primera de estas conclusiones:

arqueólogo arqueólogo

biólogo biólogo

jugador de ajedrez jugador de ajedrez

jugador de ajedrez jugador de ajedrez (jugador de ajedrez)

Dando por supuesto que la gente tiende a explicar los modelos en la direc­ción en que se construyen, los razonadores que hayan llegado hasta aquí se han desplazado desde un modelo en el que lÚngún arqueólogo era jugador de ajedrez a uno en el que todos los arqueólogos son jugadores de ajedrez.

Bien puede ser que respondan:

No hay ninguna conclusión válida (20 %).

De hecho, si se exploran los modelos en la dirección opuesta, entonces hay una conclusión que se mantiene en los tres:

Algunos de los jugadores de ajedrez son arqueólogos (O %).

Esta es la única conclusión válida que relaciona los dos términos, y la difi­cultad para extraerla se predice elegantemente con la teoría.

Por supuesto, hay otras formas posibles de modelo mental, tales como los diversos diagramas geométricos inventados por los lógicos. Las personas que han aprendido estas téclÚcas intentan con frecuencia utilizarlas, generalmente con resultados desastrosos; sin embargo, los experimentos realizados con indivi­duos desconocedores de la lógica corroboran esta teoría. En el experimento del que se extrajeron los datos presentados anteriormente, los estudiantes uni­versitarios americanos hicieron un 92 % de conclusiones válidas correctas ante aquellos problemas que requerían ÚlÚcamente la construcción de un modelo, un 46 % de conclusiones válidas correctas ante los problemas que necesitaban dos modelos, y sólo un 28 % de conclusiones válidas correctas ante los proble­mas que requerían la construcción de tres modelos. Los resultados correspon­dientes en niños ingleses de once años fueron: 63 % de conclusiones correctas para problemas de un modelo, 26 % para problemas de dos modelos y 2 % para los de tres modelos.

La teoría ha sido instrumentalizada en varios programas de ordenador, los cuales no hacen uso de reglas de inferencia formales o de contenido específico.

Page 14: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

218 I Cogitación

En lugar de ello, dependen de procedimientos que construyen modelos a partir de los significados de las premisas y que exploran los modelos con el fin de producir descripciones informativas de ellas. Estas tareas resultan fáciles de programar en ciertos dominios, como las relaciones espaciales e inferencias que dependen solamente del significado de las conectivas y de los cuantificadores. Siempre que pueda darse una explicación del significado de las expresiones, es decir, de cómo construir modelos de ellas, la teoría puede aplicarse inmedia­tamente al razonamiento en dicho dominio.

Conclusiones

Quizá las personas podrían razonar utilizando los tres métodos que he des­crito: reglas formales de inferencia, reglas de contenido específico y modelos mentales. No obstante, una hipótesis así no es ni económica, ni fácil de poner a prueba. De los tres enfoques, el más breve es el basado en los modelos menta­les. La visión produce modelos mentales y el control del movimiento depende de modelos mentales. Del mismo modo, voy a argumentar que el proceso de comprensión del discurso conduce a modelos de los estados de cosas que se describen. El lenguaje permite a las personas experimentar el mundo por lo que otros les dicen, ya que pueden imaginarlo basándose en una descripción. La descripción, a su vez, se produce a partir del modelo del mundo del hablante. Partiendo de la necesidad de procedimientos que ajusten los modelos a las pala­bras, y las palabras a los modelos, todo lo que se necesita para explicar la deducción es la maquinaria que busca modelos que sirvan de contraejemplos a las conclusiones supuestas. Aunque la mente podría estar equipada, además, con reglas de inferencia, bien formales o bien de contenido específico, no hay ninguna buena razón para postularlas.

La teoría tiene aún más ventajas. Explica tanto la competencia lógica -el potencial humano para la racionalidad-, como los errores de la actuación. Es posible que los errores ocurran a causa del «(embotellamiento» creado por la memoria de trabajo. Su capacidad limitada puede llevar al razonador a dejar de generar, o de mantener in mente, todos los modelos que puedan ser contrae­jemplos de una conclusión. Las conclusiones erróneas que extraen los sujetos en los estudios experimentales son coherentes con esta tesis. Una y otra vez, producen conclusiones que son compatibles sólo con algunos de los modelos posibles de las premisas. Asimismo, la teoría proporciona un mecanismo unifor­me para los distintos tipos de inferencia y para los efectos del contenido. En concreto, la información que está disponible para uno en la vida diaria, a menu­do es insuficiente para conducirnos a una conclusión válida. Sin embargo, al igual que en el caso del asesinato en el cine, podemos imaginar un estado de cosas que satisfaga los hechos disponibles. Podemos sacar una conclusión a par­tir de este modelo y, posteriormente, evaluar su probabilidad en función de

Page 15: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Deducción I 219

los modelos alternativos. Si usted es diabólicamente imaginativo, es posible in­cluso que haya pensado en el siguiente guión, que prometí revelarle: el asesino provocó a la víctima una sugestión posthipnótica para que se apuñalase a sí misma durante una determinada escena fuerte en el clímax de la película.

Las teorías basadas en las reglas formales de inferencia todavía no son capa­ces de explicar ni los errores concretos que cometen los razonadores, ni las numerosas inferencias cotidianas que no están deductivamente garantizadas. Pero además caen en un problema más. Puede que no haya ninguna regla formal que las personas estén preparadas para seguir independientemente del conteni­do de las premisas. La anterior regla:

si p entonces q p Por tanto, q

hace pensar a la mayoría de los formalistas que es indispensable. Sin embargo, premisas de la forma:

Si Philip está interesado, la rema ha abdicado Philiph está interesado

a duras penas garantizan una inferencia. No hay necesidad de inferir que la reina ha abdicado, debido a que se afirma en la segunda frase del condicional. A la inversa, como ha demostrado mi colega Ruth Byrne, si se da a la gente las premisas:

Si está lloviendo, entonces ella se mojará Está lloviendo

no es probable que saquen la conclusión:

Ella se mojará

cuando se les ha dicho además:

Si ella sale a pasear, se mojará.

Esta premisa adicional sugiere, presumiblemente, que puede llover sin que ella se moje, siempre y cuando no salga a pasear. El fenómeno queda explicado enseguida si los razonadores imaginan estados de cosas, debido a que la premisa adicional los sensibiliza con respecto a posibilidades que no están expresadas explícitamente en las premisas originales.

Page 16: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

220 I Cogitación

Lecturas complementarias

El trabajo de HUNTER (1977) describe la aritmética mental de un prodigio de cálculo. El concepto de información semánÚca fue desarrollado por BAR-HI­LLEL Y CARNAP (1952); véase el capítulo 2 del libro de ]OHNSON-LAIRD (1983) como aplicación del mismo al análisis del razonamiento. En la parte V del libro de ]OHNSON-LAIRD y WASON (1977), se discute sobre las inferencias en la com­prensión del discurso. El trabajo de HODGES (1977) es una introducción a la ló­gica; KNEALE y KNEALE (1962) describen la búsqueda de Leibniz de un ars com­binatoria y el trabajo de Frege. ROBINSON (1979) describe con detalles técnicos la prueba de teoremas con el método de la resolución. La literatura sobre sis­temas expertos está en auge. FEIGENBAUM y MCCORDUCK (1984) proporcionan una introducción proselitista al tema, y MICHIE (1979), un libro de lecturas.

ENGEL (1991) ofrece una excelente introducción a la filosofía de la lógica. MANKTELOW y OVER (1990) examinan el estudio filosófico y psicológico de la inferencia. EVANs (1989) describe el papel de la heurística en el razonamiento y STICH (1990) defiende un análisis pragmáúco de la racionalidad humana. WA­SON (1983) Y GRIGGS (1983) describen trabajos sobre la tarea de selección. SMITH, LANGSTON y NISBETT (1992) abogan por teorías de reglas formales. ]OHNSON-LAIRD y BVRNE (1991) exponen la teoría del modelo mental y ofrecen un resumen de las pruebas que la apoyan. BARA, CARASSA y GEMINIANI (1984) modelan la aplicación de la teoría a las inferencias cotidianas.

Page 17: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

13 Inducción, conceptos y probabilidad

El descubrimiento de la penicilina comenzó con una observación. Sir A1e­xander Fleming se dio cuenta de que las bacterias de una placa de cultivo, de la que se había olvidado hada unas dos semanas, habían quedado destruidas. De hecho, una serie de coincidencias habían conducido a su destrucción. El azar, como decía Pasteur, «favorece a la mente preparada». Fleming estaba pre­parado. Sabía que las bacterias eran resistentes, por lo que pensó que algo debía haberlas matado:

Los sucesos de este tipo no ocurren normalmente. Ha ocurrido un suceso de este tipo. Por tanto, hay algún agente que ha causado el suceso.

La inferencia aumenta la información semántica, descartando más estados de cosas que los que descartan las premisas (véase el capítulo anterior). Es una inducción. La invocación de un agente causal es una conjetura explicativa, ahora bien, no se puede conseguir algo a cambio de nada, y el precio por aumentar la información semántica es que el paso dado puede que no esté garantizado. La inducción debería ir acompañada de una típica advertencia por parte de las autoridades.

Una niña de dieciséis meses oye la palabra «nieve» cuando se utiliza para referirse a la nieve. En los meses siguientes, según ha observado Melissa Bower­man, la niña utiliza la palabra para referirse a: la nieve, la cola blanca de un caballo, la parte blanca de un barco de juguete, un almohadón blanco de franela y un charco de leche en el suelo. Ella tiene la impresión de que «nieve» se refiere a las cosas que son blancas o a zonas horizontales de color blanco, y gradualmente refinará su concepto de manera que concuerde con el del adulto. De nuevo, el proceso subyacente es inductivo. Todos nosotros seguimos hacien-

Page 18: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

222 I Cogitación

do inducciones a lo largo de nuestras vidas a medida que adquirimos impresio­nes sobre clases de personas, acontecimientos y significados de expresiones.

Supongamos que, bajo la tutela de un doctor servicial, estudiamos algunos casos de viruela. Nos damos cuenta de que cada paciente tuvo un contacto previo con alguien que padecía la enfermedad y razonamos en consecuencia:

El paciente a estuvo en contacto con alguien que tenía viruela y a tiene viruela. El paciente b estuvo en contacto con alguien que tenía viruela y b tiene viruela. y así sucesivamente ... Por tanto, si una persona está en contacto con alguien que padece viruela, es probable que contraiga la enfermedad.

Dicha inferencia es una inducción: va de un número finito de ejemplos a una conclusión acerca de todos los miembros de una clase.

El fisiólogo Horace Barlow ha propuesto que el córtex humano es capaz de construir modelos del entorno porque sus células pueden detectar «coinci­dencias sospechosas» entre los mensajes que reciben, o sea, pueden llevar a cabo inferencias inductivas. La inducción es importante y este capítulo trata de sus operaciones básicas, de su estudio en el laboratorio psicológico y de su instrumentalización en programas de ordenador. El concepto de información semántica proporcionará un marco de referencia que clarifica las operaciones inductivas básicas. También sugerirá una restricción general que pueden utilizar las personas a la hora de pensar inductivamente. Otra fuente de restricciones es el conocimiento de un dominio específico, y el tema final del capítulo versa sobre lo que ocurre cuando las personas carecen de conocimiento, y en concre­to, de conocimiento sobre la teoría de la probabilidad.

Generalización y especialización en la Inducción

Los filósofos tienen mucha práctica en la justificación de la inducción. Nuestra inducción sobre la viruela parece razonable, pero -tomando prestado un argu­mento de Nelson Goodman- sus datos también apoyan la siguiente conclusión:

Si alguna persona está en contacto con alguien que tiene la viruela; entonces, hasta el año 2000 es susceptible de contraer la enfermedad y, a partir de alú puede contraer el sarampión.

Es obvio que esta inferencia es estúpida, pero, ¿por qué? Uno puede decir: porque sabemos que las enfermedades no cambian sus manchas más de lo que lo hacen los leopardos. Pero, ¿cómo sabemos eso? Si no tenemos cuidado, pode-

Page 19: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Inducción, conceptos y probabilidad I 223

mos llegar a contestar: «Porque todas nuestras observaciones apoyan esta afir­mación». Desgraciadamente, todas nuestras observaciones son igualmente cohe­rentes con la afirmación sobre que la viruela permanecerá hasta el año 2000 y entonces se convertirá en sarampión.

Una reacción al problema de la justificación sería rechazar la inducción en su totalidad. Sir Karl Popper sostiene que la ciencia no está basada en la induc­ción, sino en conjeturas explicativas que están abiertas a la refutación empírica. ¿Y de dónde vienen las conjeturas? Popper dice que eso no importa: pueden venir de cualquier sitio. Dado que no todas las conjeturas son igual de razona­bles, y dado que muchas de ellas parecen estar basadas en la inducción, el problema no desaparece. Así pues, ¿cuáles son los mecarusmos psicológicos de la inducción?

Hay muchos procedimientos posibles, pero la esencia de los mismos se re­monta a los cánones de la inducción de John Stuart Mill, que, a su vez, se remontan a la formulación de Sir Francis Bacon. Se reducen a dos ideas funda­mentales. Primera: si los ejemplos positivos de un fenómeno tienen sólo una característica en común, entonces ésta puede desempeñar un papel crucial. Se­gunda: si los ejemplos positivos y los negativos difieren sólo en una característi­ca, ésta ha de ser crítica.

Una conjetura inductiva puede estar muy alejada de la verdad por no estar basada en las ideas apropiadas, por ejemplo: «La viruela es un castigo a la blasfemia». Sin embargo, allí donde se ha topado con el problema más difícil -es decir, donde los conceptos relevantes están entre las ideas disponibles­existen dos modos principales en que puede ser necesario revisar la inducción. Estos pueden ilustrarse en términos de nuestra hipótesis acerca de que el con­tacto con la viruela conduce a la enfermedad. Por un lado, la hipótesis puede ser demasiado general. De hecho, la vacunación proporciona protección; por 10 cual, nuestra hipótesis necesita ser más especializada.

Si alguna persona está en contacto con un caso de viruela y no ha sido vacunado, es probable que contraiga la enfermedad.

Por el otro lado, nuestra conjetura original era también demasiado específi­ca, puesto que el contacto con prendas infectadas puede provocarnos la enfer­medad. Nuestra conjetura necesita generalizarse:

Si alguna persona está en contacto con un caso de viruela o con ropas infectadas, es probable que contraiga la enfermedad.

Esta forma de generalización añade una cláusula disyuntiva. Otra forma, que se utiliza en muchos programas, incluido el de Patrick Winston y Ryszard Michalski, suprime una parte de una conjunción. Así, tenemos que la conjetu.ra:

Page 20: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

224 I Cogitación

Si alguna persona está en contacto con un caso de viruela y es viejo, es probable que contraiga la enfermedad

se convierte en

Si alguna persona está en contacto con un caso de viruela, es probable que contraiga la enfermedad.

Por tanto, la inducción requiere ambas cosas, la generalización y su inversa, la especialización. Un concepto debería ser lo suficientemente general como para incluir todos los ejemplos positivos, pero también lo suficientemente espe­cífico como para excluir todos los ejemplos negativos.

Hay dos cuestiones sobresalientes. La primera, cuál es la naturaleza subya­cente de la generalización (y de la especialización), y la segunda, cuántas opera­ciones distintas de generalización (y de especialización) hay. Las respuestas a ambas preguntas pueden derivarse del concepto de información semántica.

La Información semántica como un marco de referencia para la Inducción

Cuantos más estados de cosas elimina de su consideración una hipótesis, mayor es su información semántica. Por tanto, la generalización es cualquier acción que incrementa la información semántica de una hipótesis descartando, al menos, algún estado de cosas adicional. La especialización tiene el efecto opuesto: admite algún estado de cosas adicional y, por ello, es una deducción válida a partir de una hipótesis que reduce su información semántica.

Hay muchas formas posibles de generalización. Consideremos, por ejemplo, una regla utilizada en un programa diseñado por Ryszard Michalski. Convier­te una conjunción:

Si alguna persona está en contacto con un caso de viruela y con las ropas de una persona infectada, es probable que contraiga la enfermedad

en una disyunción:

Si alguna persona está en contacto con un caso de viruela o con las ropas de una persona infectada, es probable que contraiga la enfermedad.

Esta acción, sin embargo, puede lograrse combinando las dos reglas anterio­res de generalización. La primera regla suprime una parte de una conjunción para dar lugar a:

Page 21: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Inducción, conceptos y probabilidad I 225

Si alguna persona está en contacto con un caso de viruela, es probable que contraiga la enfermedad.

La segunda añade una disyunción:

Si alguna persona está en contacto con un caso de viruela o con las ropas de una persona infectada, es probable que contraiga la enfermedad.

De hecho, sólo hay tres operaciones básicas que se necesitan para construir cualquier forma de generalización en el cálculo de predicados. La primera ope­ración consiste en reunir la negación de cualquier descripción con la hipótesis vigente de modo que descarte algún estado de cosas adicional. La segunda ope­ración cambia un número finito de observaciones en una afirmación universal, como en la inferencia hecha a partir de un pequeño número de pacientes que termina con la conclusión de que el contacto con la viruela es suficiente para contraerla. La tercera operación, que todavía no se ha desarrollado en ningún programa de ordenador, queda ejemplificada por el paso que va desde:

Cada una de estas enfermedades se cura con alguna medicina

hasta:

Hay alguna medicina en concreto que cura cada una de estas enfermedades.

Estas tres operaciones básicas son suficientes para cualquier generalización dentro del cálculo de predicados ordinario, siempre y cuando los conceptos relevantes estén entre aquellos que sean accesibles para las operaciones.

A menos que una hipótesis tenga un contenido informativo muy alto, el número de sus posibles generalizaciones aumenta exponencialmente con el nú­mero de conceptos que pueden ser relevantes para enumerar la generalización. Así pues, cualquier procedimiento basado en la eliminación de posibles hipóte­sis será incapaz de examinarlas todas en un espacio de tiempo razonable. Surge entonces, la duda de cómo vamos a encontrar la generalización correcta.

Una restricción semántica en la Inducción

La solución al problema exponencial es, una vez más, imponer restricciones. Además, hay una restricción general plausible basada en información semántica. Cuando las personas intentamos inducir un concepto nuevo o una hipótesis nueva, nos centramos en sus ejemplos positivos. En este caso, la restricción es formular una hipótesis que tenga la mayor cantidad de información semánti­ca basada directamente en el apoyo empírico. Si examinamos a un paciente

Page 22: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

226 I Cogitación

con la enfermedad de Ebstein, y este sujeto tiene una fiebre cíclica, un sarpulli­do y la gargahta inflamada, nuestra hipótesis con el máximo nivel de informa­ción sobre los síntomas de esta enfemedad es:

fiebre cíclica, sarpullido y garganta inflamada.

Si examinamos otro paciente con la misma enfermedad, que tiene una fiebre cíclica y la garganta inflamada, pero no tiene sarpullido, nos daremos cuenta enseguida de que nuestra primera hipótesis eliminaba demasiado. Modificare­mos nuestra conjetura hasta obtener la más informativa que además esté basada en el apoyo empírico:

fiebre cíclica y garganta inflamada.

No obstante, supongamos que empezamos desde el principio con la hipótesis:

o fiebre cíclica, o sarpullido, o garganta inflamada.

PIENSA EN

A A ¡clfi

DESPIERTO silla

chica conejo

árbol

Figura 13.1: Un árbo1 que representa los juicios típicos de un nilio de cinco años en el estudio de Keil.

ALTO INTEUGENTE

AA árbol persona acción

Figura 13.2: Un árbol artificial que muestra el tipo de mezcla que no se produce en los juicios infantiles. La mezcla existe debido a una ambigüedad: una acción inteligente no posee inteligencia como la posee una persona.

Page 23: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Inducción, conceptos y probabilidad I 227

El caso del segundo paciente no la afecta. Si el verdadero síntoma de la enfermedad es simplemente una fiebre cíclica, nunca daremos en el blanco, partiendo solamente de los ejemplos positivos, porque nuestra hipótesis inicial siempre se acomodará a ellos. Por tanto, cuando intentamos adquirir un concep­to a partir de ejemplos positivos, debemos adelantar la hipótesis más informati­va semánticamente que esté basada en los datos. Puede que descarte demasiado, pero si así ocurre tarde o temprano encontraremos un ejemplo positivo que nos permita corregirla.

Cuando los niños desarrollan sus taxonomías del mundo, parecen estar guia­dos por este principio. Frank Keil ha demostrado que los niños organizan sus conceptos en jerarquías como la de la figura 13.1 Las disposiciones solapadas, como la de la figura 13.2, son poco frecuentes, y probablemente surgen de ambigüedades. Keil deriva las clasificaciones de los niños a partir del patrón de sus respuestas ante preguntas como «¿Tiene sentido decir que un árbol tiene una hora de largo?» Un niño puede poseer la regla taxonómica:

Si algo está vivo, es una persona.

Un niño de mayor edad, en cambio, distingue dos clases:

Si algo está vivo, es una persona o una planta (pero no ambas).

Esta manera de refinar una taxonomía sugiere que los niños son sensibles a la información semántica. Si hay que dividir una categoría, la división semán­ticamente más fuerte es aquella que dé lugar a dos subcategorías mutuamente exclusivas, en la que ninguna entidad pueda pertenecer a ambas. Quizá sea este principio semántico el que conduce a los niños a evitar las taxonomías solapadas.

Consideremos ahora un dominio que Peter Wason ha investigado experi­mentalmente. Si se presentase como ejemplo inicial de un concepto la serie de dígitos:

246

muchos pensarían que el concepto es:

cualquier serie de números que aumenta de dos en dos

lo cual supone, de forma plausible, que el concepto se refiere a una propiedad general. Dadas un par de conjeturas de este tipo, es posible ordenarlas en térmi­nos de su capacidad de información semántica. Por ejemplo, la hipótesis:

una serie de números pares que aumenta de dos en dos

Page 24: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

228 I Cogitación

es más sólida que la anterior, debido a que descarta, por ejemplo, la serie 3 5 7. Desgraciadamente, no se puede contar el número de posibilidades al res­pecto, ya que hay una cantidad infinita de ellas. Y lo que es peor, no se dispone de un procedimiento obvio para generar conjeturas en el orden de su relativa capacidad de información semántica. Existe un número infinito de posibles con­ceptos que gobiernan una serie y resulta fácil pasarse uno por alto, como por ejemplo, los múltiplos sucesivos del mismo número.

Los sujetos del experimento de Wason generaban sus propios ejemplos de prueba, y él observó un sesgo sorprendente. Los sujetos persistían en generar ejemplos positivos de sus hipótesis. Por ejemplo, ponían a prueba muchos ejem­plos como éstos:

468 20 22 24 100 102 104

para corroborar la sospecha de que fueran tres números pares adyacentes cual­quiera, que van de menor a mayor. Por supuesto, habría sido mucho más infor­mativo que hubieran producido ejemplos negativos, como:

1 2 3

Habrían aprendido así, que estos ítems eran también ejemplos positivos del concepto, que en realidad era:

cualquier trío de números de menor a mayor.

¿Por qué tiende la gente a confirmar sus hipótesis? Se necesita alguna corro­boración de una hipótesis y el proceso es más sencillo que el de una pretendida refutación. Quizás esta tendencia sea un vestigio que procede de dominios como el lenguaje natural, el cual se aprende, primordialmente, a partir de ejemplos positivos.

Existe un teorema en la teoría formal del aprendizaje, debido a Dana An­gluin, que voy a reformular en términos de información semántica: hay ciertos conceptos (o lenguajes) que pueden adquirirse a base de, solamente, apoyos empíricos positivos, en concreto aquellos en los que se puede asegurar que nin­guna hipótesis que se adelante será semánticamente más débil que alguna otra basada en los datos habidos hasta el momento. En cualquier momento, el proce­dimiento llegará a una hipótesis que no descarte demasiadas cosas y que, por lo tanto, nunca será necesario abandonar. La gente puede ser capaz de llevar este procedimiento a la práctica dentro de ciertos dominios, pero no en otros. Cuando un dominio es infinito, como en el experimento de Wason, es difícil evaluar la capacidad de información semántica, y es imposible garantizar que

Page 25: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Inducción, conceptos y probabilidad I 229

se adelanten hipótesis de la máxima capacidad informativa. Robert Berwick, quien prestó atención al procedimiento de Angluin, defiende que los niños lo utilizan al adquirir el lenguaje, puesto que rara vez se enfrentan, a sabiendas, con frases no gramaticales. Lo que queda por determinar aún consiste en saber si es factible ordenar las conjeturas sobre la gramática con arreglo a su capaci­dad de información semántica; en particular, si no hay restricciones innatas en el conjunto de posibles conjeturas.

La naturaleza de los conceptos

Hasta hace poco, los psicólogos suponían, siguiendo a Mili y a otros filóso­fos empiristas, que las personas adquirimos conceptos mediante un proceso de abstracción que suprime los detalles idiosincráticos que difieren de un ejemplo a otro, y que deja sólo lo que se mantiene común a todos ellos. En consecuen­cia, la mayoría de los experimentos han utilizado una técnica en la cual los sujetos tienen que descubrir el elemento común que subyace a un concepto. En los años treinta, el psicólogo ruso Lev Semenovich Vygotsky diseñó una tarea de clasificación en la que se ponen sobre una mesa bloques de madera que difieren en forma, color, tamaño y grosor, y se da la vuelta a uno para descubrir una etiqueta sin sentido, por ejemplo «(MUR», que está pegada deba­jo. Entonces, el sujeto tiene que agrupar todos los bloques que puedan tener la misma etiqueta. Los niños de menor edad crean un montón desorganizado de bloques porque, quizá, forman una bonita estructura. En edades superiores, seleccionan un bloque, el cual sugiere otro, y así sucesivamente, siguiendo una cadena de selecciones interdependientes, que recuerdan las observaciones de Bowerman sobre el uso de la palabra (mieve». En el siguiente estadio, los niños agrupan los bloques apropiados, pero cuando el experimentador da la vuelta a uno de ellos para mostrar que no tiene la etiqueta «(MUR», lo quitan del montón, aunque no hacen nada con otros similares a éste que pueda haber entre los elegidos. Vygotsky afirmaba que los niños no son capaces de practicar el pensamiento abstracto que se necesita para inferir el concepto completo, y que esta habilidad la conseguían solamente a partir de la interacción con adultos.

En los años cincuenta, Jerome Bruner, Jacqueline Goodnow y George Austin introdujeron una mejora en el procedimiento de Vygotsky. Utilizaron una am­plia matriz de diagramas, de entre los cuales el sujeto elegía una serie; después de haber elegido cada uno de los diagramas se le decía si era o no un ejemplo del concepto. Distintos sujetos parecían utilizar estrategias diferentes al selec­cionar los diagramas. Algunos se centraban detenidamente en el ejemplo inicial extraído por el experimentador y variaban una característica del mismo cada vez; otros fueron preparados para jugar eligiendo ítems que diferían en varias características. Bruner y sus colaboradores también observaron que los concep­tos disyuntivos son difíciles de descubrir, lo cual parecía reivindicar la tesis

Page 26: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

230 I Cogitación

del «(elemento común», ya que un concepto corno grande o verde abarca tanto los objetos rojos grandes, como los verdes pequeños que no tienen en común ni la forma, ni el tamaño.

Los conceptos cotidianos, en cambio, no consisten en la conjunción o dis­yunción de características, sino más bien en relaciones entre ellas. Por ejemplo, una tabla no es una mera conjunción de patas y tablero, sino que las patas soportan el tablero. Además, cuando los conceptos relacionales se introducen en el laboratorio, pueden dar lugar a una significativa mejora del rendimiento. Ellen Markman y su colega ]effrey Seibert mostraron a algunos niños de guar­dería unas ranas de juguete -dos grandes y cuatro crías- y les preguntaron, haciéndose eco de un famoso experimento llevado a cabo por Jean Piaget: ¿Hay más ranas, o más crías de rana? Al igual que en el estudio de Piaget, los niños contestaron: «(Más crías de rana», una respuesta que no es correcta, si bien la pregunta es engañosa. Sin embargo, cuando se dijo a los niños que había una familia de ranas y se les hizo la misma pregunta, contestaron correc­tamente.

Otro aspecto de los conceptos de la vida diaria es que sus ejemplos puede que no tengan un elemento común. Kenneth Smoke, en los años treinta, tenía esta preocupación: «(A medida que uno aprende más sobre perros, su concepto de "perro" se vuelve más y más rico, en vez de convertirse en una aproxima­ción más cercana a algún "elemento" escueto ... Ningún aprendiz del concepto "perro" ha encontrado nunca un "elemento común" que surgiese del conjunto de patrones estimulares a través de los cuales aprendió). Esta es la misma preo­cupación que hizo famosa Wittgenstein en sus Investigaciones filosóficas:

Consideremos, por ejemplo, los modos de proceder que denominamos «jue­gOS). Me refiero a los juegos de mesa, de cartas, a los olímpicos, y demás, ¿qué tienen todos ellos en común? No diga: «(Debe haber algo común, porque si no, no se les llamaría "juegos"; pero eche un vistazo y mire si hay algo común a todos. Porque si los observa, no verá nada que sea común a todos, excepto similitudes, relaciones y toda una serie de cosas semejantes.

Wittgenstein sostuvo que los conceptos dependen, no de elementos comu­nes, sino de redes de similitudes que son como las semejanzas entre los miem­bros de una familia. Esta idea obtuvo popularidad en los años setenta. Los teóricos plantearon que el mundo se conceptualiza en términos de estereotipos (Hillary Putnam en filosofía), prototipos (Brant Berlín y Paul Kay en antropolo­gía), marcos (Marvin Minsky en inteligencia artificial) o guiones (Roger Schank y Robert Abelson en inteligencia artificial y psicología). La terminología difiere, pero las teorías subyacentes son extraordinariamente semejantes: un concepto especifica las características típicas de los miembros de la clase; dicho con­cepto no tiene condiciones necesarias y suficientes, y tampoco tiene límites

Page 27: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Inducción, conceptos y probabilidad I 231

claros. Por lo tanto, cuando se enseña a alguien un concepto nuevo, se empieza con casos típicos. Se dice, por ejemplo, que un ave es una criatura pequeña que tiene alas y cola, vuela, pone sus huevos en un nido y canta. Después se cuentan los casos excepcionales. Eleanor Rosch y sus colegas mostraron expe­rimentalmente que no todos los ejemplos de los conceptos cotidianos se conside­ran igualmente representativos. Un petirrojo es un prototipo de ave, mientras que una gallina no lo es. Incluso el tiempo que tardan las personas en responder varía de modo coincidente, es decir, son más rápidos al juzgar que un petirrojo es un ave que al juzgar que una gallina es un ave. *

¿Cuál es la lógica de un prototipo? Wittgenstein habló de criterios en vez de condiciones necesarias y suficientes. Minsky tuvo la idea parecida del valor por defecto, es decir, una característica de un objeto que puede darse por su­puesta a menos que haya evidencia de lo contrario. Los valores por defecto de la esencia de las aves incluye, por ejemplo, tener dos alas, plumas, una cola y la habilidad de cantar. Así pues, si hablo de un ave, se puede inferir, por defecto, que tiene estas características, a menos que haya evidencia de lo con­trario. Las características no son condiciones necesarias -un ave puede tener una sola ala, estar pelada, no tener cola y no cantar- sin embargo, el prototipo puede estar mentalmente representado por un modelo que incorpore todos los valores por defecto.

Quizá se haya puesto un excesivo énfasis en los prototipos. Este sesgo se comprueba en la reciente observación de que muchos fenómenos aparentemente prototípicos se producen también con conceptos que, en realidad, tienen condi­ciones necesarias y suficientes. El número 3, por ejemplo, se juzga como más representativo de número impar que el número 23. Las variaciones en tipi­cidad, o en la velocidad de los juicios, no son suficientes para demostrar que un concepto depende de un prototipo. El único apoyo empírico que lo cer­tifica es el hecho de que descansa en inferencias hechas por defecto, no por necesidad.

Los conceptos cotidianos no son entidades aisladas e independientes, están relacionados unos con otros. Sus límites están establecidos, en parte, por la taxonomía en que aparecen. Que un objeto sea, o no, juzgado como un perro depende de su semejanza con perros típicos, gatos típicos, lobos típicos, y de­más. Esta idea se remonta al estructuralismo de Saussure (véase el capítulo 1); George Miller y yo estudiamos la variedad de las relaciones taxonómicas. Las relaciones más claras son las jerarquías generadas mediante la inclusión de un concepto dentro de otro; por ejemplo, un canario es un ave, un ave es un ani­mal, un animal es un ser vivo. Tal y como Miller y yo descubrimos, hay otras relaciones que son más complejas. Los contrastes entre las preposiciones

* En Inglaterra, el petirrojo es un ave muy típica. En España, el ejemplar análogo, segun tablas de juicios de tipicidad, sería el canario o la paloma. En cambio, la diferencia de representati­vidad no es tan grande en el caso de la gallina. [T.]

Page 28: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

232 I Cogitación

espaciales en el inglés, tales como at y with son un buen ejemplo. Nosotros argumentábamos que:

decir que <<X está en (at) y» es decir que x está incluido en la reglOn de y, es decir, x está donde puede interactuar con y, socialmente, física­mente, o de cualquier otra manera en que, convencionalmente, los de x interactúan con (with) los de y.

A menudo, dichas regiones dependen de lo que una persona sea capaz de hacer. Así, la oración «La silla está en la mesa» es una descripción menos apro­piada cuando la silla está de espaldas a la mesa. La oración inversa, «La mesa está en la silla», resulta extraña a menos que uno piense en una mesa pequeña que está cerca de una silla, de forma que la mesa pueda incluirse dentro de la región de interacción de una persona que se siente en la silla. Algunas oracio­nes apenas son idiomáticas, como por ejemplo «María está en Ana», a pesar de que una persona pueda estar dentro de la región de interacción con otra. La razón es que hay una relación simétrica entre las dos personas, y que el inglés tiene otra preposición, with, que resulta más apropiada en este caso. En el capítulo sobre el significado, describiré con mayor detalle la organización del léxico mental.

Ejemplos poSltlvos del concepto

Ejemplos negativos del concepto

o o D

Figura 13.3: Un conjunto de materiales para un estudio de adquisición de un concepto.

Page 29: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Inducción, conceptos y probabilidad I 233

Programas para la Inducción

Uno de los primeros programas de ordenador para aprender conceptos in­ductivamente fue el desarrollado por Earl Hunt y sus colegas en los años sesen­ta. El programa asumía que los conceptos consisten en conjunciones o disyun­ciones de características. Su estrategia era centrarse en los ejemplos positivos del concepto y construir un árbol de decisiones que categorizaba cualquier ítem como miembro o no miembro del concepto. Dadas las formas de la figura 13.3, el programa comprueba primero si hay alguna característica común a todos los ejemplos positivos y negativos del concepto, y las elimina como irrelevantes. En la figura no hay ninguna. Después comprueba si hay alguna característica común a todos los ejemplos positivos pero a ninguno de los negativos. Si la hay, se categoriza cualquier ítem mediante una decisión tomada en función de esta característica. Las formas de la figura no tienen tal característica; por

Ejemplos negativos del concepto

Ejemplos positivos del concepto

Figura 13.4: Un árbol de decisión construido mediante el programa de Hunt para el concepto que gobierna los materiales de la figura 13.3.

Page 30: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

234 I Cogitación

lo tanto, el programa se va al siguiente paso. Encuentra una característica que ocurre frecuentemente en los casos positivos. Cuando hay varias que ocurren con igual frecuencia, elige una al azar. En nuestro caso, elige, digamos, la carac­terística grande, y la coloca como la primera decisión en el árbol (véase figura 13.4). La decisión divide las formas en dos clases que entonces son consideradas como problemas de categorización por derecho propio. En ese momento, se utiliza el programa completo para resolver sucesivamente cada uno de ellos. Este uso recursivo del procedimiento es similar en diseño al programa general de solución de problemas de Newell y Simon, que comenté en el capítulo 9. El resultado final es el árbol de decisión mostrado en la figura 13.4.

Kenneth Smoke observó que los ejemplos negativos refrenan los juicios re­pentinos sobre un concepto. Sus sujetos llegaron a conclusiones erróneas con menor facilidad, y con menor frecuencia, que cuando aprendían basándose sola­mente en los casos positivos. Patrick Winston ha utilizado la misma idea para diseñar un programa para adquirir conceptos. Este comienza formando una re­presentación (en un lenguaje descriptivo adecuado a la situación) de un primer ejemplo positivo del concepto. Partiendo del primer ítem de la figura 13.5, como ejemplo de un arco (el programa), construye la siguiente hipótesis:

Un arco consiste en una columna alIado derecho y una columna aliado izquierdo que sujetan un dintel.

Como siempre, he ignorado la sintaxis del programa. Posteriormente, un atento maestro presenta una serie de ejemplos positivos y negativos del concep-

arco error próximo

BJJ error próximo arco

Figura 13.5: Una secuencia de entrenamiento en un arco para el programa de Winston.

Page 31: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Inducción, conceptos y probabilidad I 235

to siguiendo una secuencia diseñada para facilitar el aprendizaje. Así pues, el segundo elemento de la figura es un «(fallo próximo), es decir, un ejemplo nega­tivo que está lo suficientemente cerca del concepto como para ser informativo,

El programa utiliza el «(fallo próximo» para modificar su hipótesis vigente. Si la hipótesis contiene una relación que carece de un fallo próximo, esta rela­ción se señala como una parte necesaria del concepto. Por tanto, las columnas deben soportar el dintel. A la inversa, si el ejemplo negativo condene una rela­ción que no se encuentra en la hipótesis, como el tercer elemento de la figura, entonces se anota esta relación como prohibida en el concepto: las dos columnas no deben tocarse entre sí. Un ejemplo positivo puede contener algo que no llega a encajar con la hipótesis vigente; por ejemplo, el cuarto elemento de la figura no tiene un ladrillo rectangular como dintel. Si los dos elementos tienen un concepto supraordenado común, se sustituye por el términQ en la hipótesis; en cualquier otro caso, debe utilizarse una disyunción de ambos. Pero si sólo hay ladrillos y cuñas en el universo del discurso, está claro que no hay necesidad de especificar que el dintel debe ser un ladrillo o una cuña.

El programa de Winston depende de que el maestro presente los ejemplos en un orden provechoso. Hay un procedimiento más sólido, desarrollado por Michalski y sus colaboradores, que elige su propia secuencia de ejemplos entre todos los del conjunto. Un programa basado en este enfoque indujo las descrip­ciones correspondientes a las enfermedades de la semilla de la soja, a partir de un gran número de casos identificados previamente, y se comportaba como un experto humano en el diagnóstico.

Conocimiento y juicio probabilístico

Algunos teóricos, entre los que destaca Noam Chomsky, han sugerido que es posible que no haya procedinúentos generales de inducción, sino solamente procedimientos específicos basados en el conocimiento innato de campos con­cretos. En realidad, una de las fuentes principales de restricciones para la in­ducción es el conocimiento del área particular que se estudia. La mayoría de las inferencias que hacemos van más allá de la información que se nos ha dado, y ocurre así, al igual que la inferencia de Fleming sobre la destrucción de 'las bacterias, porque hacen uso del conocimiento anterior. Esto se demuestra fácil­mente pidiendo a la gente que emita juicios sobre temas de los cuales sepan poco. Por ejemplo: sujeto una bola a un trozo de cuerda y le doy vueltas hori­zontalmente trazando un círculo. La cuerda se .rompe. ¿Cuál set.á la trayectoria posterior de :labola? Las personas que no con~ 1a ley:de Newton :<li9e1l, a menudo, :que ·«(iie moverá en una 'e.gpiral.que se :irá ~llrechandograd.~el), ,apelan 8,onanocióncasi medieval ·del ímpetu, algo que sesqpone ~reQte a toclo,c::ibjeto que se mueve. La respuesta correcta, sin teneren't!\HIntala :gtave­dad, .es ,que ,lap:elota se moverá en línea recta .('véasecl .capítulo 1'1'),

Page 32: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

236 I Cogitación

El conocimiento de la variabilidad de las propiedades es fundamental para la inducción. Como han demostrado Richard Nisbett y sus colegas, si una sola muestra de un elemento raro conduce la electricidad, podemos concluir que lo hará cualquier muestra. Sin embargo, si un solo miembro de una tribu exóti­ca es obeso, es mucho menos probable que generalicemos el hecho. Sabemos que las propiedades de los elementos químicos varían mucho menos que una propiedad como la obesidad.

Para captar completamente el concepto de la variación se requiere conoci­miento de la teoría de la probabilidad. La teoría es tan diferente de sus intuiti­vas ideas anteriores que, al menos un comentarista, lan Hacking, ha puesto de manifiesto que cualquiera que hubiera jugado a los dados en la antigüedad utilizando tal teoría, pronto habría ganado la Galla entera, por lo menos. Amos Tversky y Daniel Kahneman han demostrado, en una magistral serie de experi­mentos, que la gente comete considerables errores de juicio, debido a su desco­nocimiento del funcionamiento de la probabilidad. El mensaje de los hallazgos de Tversky y Kahneman es que los errores de la gente que no tienen conoci­mientos se reproducen, en un nivel sofisticado, en los expertos. He aquí algu­nos de estos fenómenos:

Problema 1. ¿Cuáles son más frecuentes, las palabras que empiezan por (~R» o las palabras en que la «R» es la tercera letra? La mayoría de las personas responde: las palabras que empiezan por «R». Están equivocadas.

Problema 2. Se pregunta a un grupo de sujetos el resultado del cálculo siguiente: 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8. Sus estimaciones están alrededor del va­lor 512. A otro grupo se le pregunta el resultado de: 8 x 7 x 6 x 5 x 4 x 3 x 2 x l. Sus estimaciones están alrededor del valor 2250. Ambas estimaciones son la­mentablemente bajas, puesto que la respuesta correcta es 40.320.

Tversky y Kahneman defienden que lo que ocurre es que las personas están influidas por la disponibilidad de la información. Es más fácil pensar en palabras que empiecen por (~R», que en palabras en las cuales la «(R» sea la tercera letra, presumiblemente porque el léxico mental está organizado prioritariamente me­diante las letras iniciales. Esta diferencia afecta las estimaciones sobre la fre­cuencia. Del mismo modo, un sujeto comienza a calcular 1 x 2 x 3 x .... y la disponibilidad de la respuesta sugiere que el resultado global no será grande, mientras que alguien que comience calculando 8 x 7 x 6 x ... llega rápidamente a un número grande. No obstante, ambos grupos no logran apreciar el explosivo crecimiento del cálculo.

Problema J. Usted está jugando a la ruleta y observa la siguiente secuencia: Rojo Rojo Rojo Rojo Rojo Rojo. ¿A qué color debe apostar en la próxima? La «(falacia del jugador» consiste en apostar al negro porque pronto tendrá que salir para compensar las probabilidades: el hecho de que haya proporciones equi-

Page 33: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

Inducción, conceptos y probabilidad I 237

valen tes de rojos y negros es más representativo de un proceso aleatorio. De hecho, los resultados de un proceso verdaderamente aleatorio son independien­tes unos de otros. La probabilidad de 0,5 para el rojo no cambia de una jugada a otra. El único sistema ganador es, por tanto, detectar la tendencia que puede tener la rueda favoreciendo a unos números en detrimento de los otros (llevan­do a cabo una comprobación estadística de las frecuencias de los números). Desgraciadamente, incluso aunque exista una tendencia, puede llevarnos mucho tiempo descubrirlo y los propietarios de los casinos toman la precaución de cambiar las ruedas de una sesión a otra.

Problema 4. Una ciudad determinada tiene dos hospitales. Uno es grande y atiende alrededor de cuarenta y cinco partos diarios. El otro es pequeño y atien­de unos quince diarios. Suponiendo que los bebés tengan una misma probabili­dad de nacer niña o niño, ¿hay alguna diferencia entre los hospitales respecto al número de días que se necesitarían para conseguir que el 60 %, o más, de los bebés nacidos sean niños?

La mayoría de las personas dicen que no. Pero, en realidad, es dos veces más probable que se dé este resultado en el hospital pequeño. Los dos hospita­les son muestras tomadas del número total de nacimientos; sin embargo, la muestra pequeña está más afectada por las fluctuaciones del azar y, por tanto, se desvía más veces de la verdadera proporción del 50% de nacimientos de niños. Como podría haber dicho Sócrates: Tú ya sabías eso. Lo único es que parecía que los dos hospitales eran igualmente representativos de la población.

La representación es como la tipicidad de un ejemplo, o su grado de cerca­nía al prototipo. Puede conducir a un efecto aún más asombroso:

Problema 5. Bill tiene treinta y cuatro años. Es inteligente, pero falto de imaginación, impulsivo y generalmente falto de vitalidad. En el colegio, iba muy bien en matemáticas pero no tanto en sociales y humanidades. ¿Cómo le catalogaría (evaluándole en una escala de 1 a 7) en cada una de las siguientes posiciones?

Bill Bill Bill Bill

es es es es

un un un un

contable. contable que toca ;azz como hobby. físico que juega al póker como hobby. arquitecto.

Bill es un reportero. Bill escala montañas como hobby. Bill hace sur! como hobby. Bill toca ;azz como hobby.

Los sujetos de Tversky y Kahneman evaluaron la segunda afirmación como más probable que la última, en una violación directa del principio que dice

Page 34: (Transiciones) Philip N. Johnson-Laird-El Ordenador y La Mente (Capítulos 12 y 13)-Paidós (1993)

238 I Cogitación

que la conjunción de dos estados (ser contable y tocar jau) no puede ser más probable que uno solo de ellos (por ejemplo, tocar jau). Por supuesto, la des­cripción de Bill es más representativa de un contable que de un músico de jau. Por lo tanto, la conjunción de las dos propiedades cae entre estos dos extre­mos, y así fue juzgada por casi el 90 % de los sujetos: la representatividad no hace caso de las leyes de la probabilidad. Seamos cautos: en cualquier predic­ción, el detalle puede añadir verosimilitud, pero debe reducir su probabilidad de resultar cierto.

Tversky y Kahneman proponen una explicación del pensamiento sobre la pro­babilidad que encaja perfectamente con la explicación del razonamiento median­te modelos mentales que ofrecí en los capítulos anteriores. Estos autores escriben:

Algunos sucesos se perciben como tan singulares que la historia pasada no pare­ce ser relevante en la evaluación de su probabilidad. Al pensar en dichos sucesos, a menudo, construimos guiones, es decir, historias que conducen desde la situa­ción actual al suceso que examinarnos. La plausibilidad de los guiones que nos vienen a la mente, o la dificultad de producirlos, sirve entonces como pista de la probabilidad del suceso. Si no viene a la mente ningún otro guión razonable, se considera el suceso como imposible o altamente improbable. Si vienen B la men­te muchos guiones, o si el que viene a la mente es partículannente convincente, el suceso en cuestión parece probable.

Lecturas complementarias

El descubrimiento de la penicilina por parte de Fleming, está recopilado en el libro de MACFARLANE (1984). BLACK (1967) comenta la ftlosofía de la induc­ción; NISBElT y Ross (1980) Y HOLYOAK y NISBElT (1987) describen sus aspec­tos psicológicos; y los programas de inducción se presentan en HAYEs-RoTH y McDERMOlT (1978), MICHALSKI, CARBONELL y MITCHELL (1983, 1986), Y en Ho­LLANO, HOLYOAK, NISBETT Y THAGARD (1986). La inducción científica de leyes cuantificadas está modelada por el programa BACON (LANGLEY, SIMON, BRAD­SHAW Y ZYTKOW, 1987); la planificación de experimentos está modelada por el programa KEKADA (KULKARNI y SIMON, 1988); otros programas modelan las decisiones entre distintas explicaciones (THAGARD, 1989; SHRAGER Y LANGLEY, 1990). SMITH y MEDlN (1981) revisan estudios psicológicos de los conceptos. El arúculo de ARMSTRONG, GLEITMAN y GLEITMAN (1983) informa sobre el resulta­do de la «prototipicidad» producida por los números impares. Keil deriva sus restricciones sobre las taxonomías de los niños del trabajo de SOMMERS (1959). Una fuente de estudios sobre los físicos ingenuos que desconocen las leyes de la física es el libro compilado por GENTNER y STEVENS (1983), titulado Mental mo­deis, que incluye el estudio .de McCloskey sobre la predicción de las trayectorias de los objetos giratorios. Los trabajos más importantes de Tversky y Kahneman están incluidos.en el libro de KAHNEMAN, SLOVIC y TVERSKY (1982).