modelo aplicado a la psicología cadenas de markov una ... · en español pero no tiene idea de...
TRANSCRIPT
Modelo Aplicado a la Psicología– Cadenas de
MarkovUna Aplicación
Dr. José Dionicio Zacarías Flores
Introducción
•Se presenta un modelo
para analizar un
proceso de aprendizaje
(Propuesto por G.H.
Bower, 1961), conocido
como “Aprendizaje de
pares asociados!
Componentes del modelo de Bower
Supóngase que hay un
investigador y uno o más sujetos.
El investigador define dos
conjuntos: el conjunto de
estímulos (E) y el conjunto de
respuestas (R). Del tal modo que
para cada estímulo e S hay
una respuesta r del conjunto R.
Por lo que se crea el conjunto
{(e,r) : e E, r R}.
Componentes del modelo de Bower
En el experimento original, se
tenían diez elementos en cada
conjunto, por ejemplo, E podría
tener 10 letras y R 10 números
asignados de manera aleatoria a
cada letra. En otro contexto, E
estaría formado por 10 palabras
en español y R por las palabras
equivalentes en inglés.
Una vez definidos E y R se puede
iniciar el experimento.
Experimento
• En cada intento del experimento, el investigador le
muestra o le dice un elemento e E al sujeto y el
sujeto le responde con un elemento r R.
Entendiendo que el sujeto trata de contestar con la
respuesta correcta. Cada que se obtiene una
respuesta correcta se asigna un 0, si la respuesta es
incorrecta se registra un 1, y el investigador le
muestra o le dice la respuesta correcta.
• Se supone que el sujeto no sabe las respuestas, por lo
que inicialmente busca adivinar la respuesta, pero
como al fallar se le muestra la respuesta correcta, se
espera empiece a aprender. Se da por alcanzado el
aprendizaje cuando el sujeto logra dar las respuestas
correctas sin fallar dos veces consecutivas.
Suposiciones
Para el análisis de este modelo, hacemos 5 suposiciones
más o menos razonables, entendiendo por (e,r) estímulo –
respuesta.
• S1. Cada pareja estímulo – respuesta está en uno de
dos estados en cada intento del experimento:
Condicionado (C) o adivinando (A). Está en el estado C
si el sujeto ha aprendido la respuesta correcta (r) a la
pregunta dada o estímulo (e). Está en el estado A si el
sujeto no se sabe la respuesta correcta y debe adivinar.
• S2. Inicialmente, todas las parejas están en el estado
A, es decir, al inicio del experimento, el sujeto no sabe
ninguna de las respuesta.
Suposiciones
• S3. Si un elemento está en el estado A en el intento
n-ésimo del experimento, permanece en el estado C
en todos los intentos siguientes. Es decir, una vez
que el sujeto haya “aprendido” la respuesta correcta
a un estímulo dado, no la olvida.
• S4. Si un elemento está en el estado A en el intento
n-ésimo del experimento, hay una probabilidad c > 0
de que estará en el estado C en el intento (n+1)-
ésimo del experimento. Es decir, c es la probabilidad
de que el sujeto aprenda la respuesta correcta antes
del siguiente intento del experimento.
Suposiciones
• NOTA. S4 es la suposición menos plausible hasta ahora.
Pues se está suponiendo que (i) todos los elementos son
igualmente fáciles (o difíciles) de aprender, y (ii) el sujeto
no tiene más probabilidad de “aprender” la respuesta
correcta después de muchos intentos que después de un
solo intento de contestarla. Es de esperarse que si los
sujetos son humanos de inteligencia normal, las
probabilidades de aprender aumenten después de cada
intento y de haber oído la respuesta correcta.
• S5. Si el elemento está en el estado A y hay N respuestas
posibles, la probabilidad es de 1/N de que el sujeto
adivine la respuesta correcta. Es decir, en el estado de
adivinar todas las respuestas son igualmente probables
de ser escogidas.
Suposiciones
• Con estas 5 suposiciones, el proceso de aprender la
respuesta correcta por cada estímulo puede modelarse
como una CM con 2 estados, C y A. su matriz de
transición es
C A
• 𝑃 =𝐶𝐴
1 0𝑐 1 − 𝑐
• Por (S3) una vez que estamos en C, permanecemos en
C. Además por (S4), si estamos en A, la probabilidad
es c de que estemos en C en el siguiente intento del
experimento.
• Teniendo la matriz de probabilidades es
relativamente fácil calcular la probabilidad de que
un elemento esté en el estado C o A después de un
intento cualquiera del experimento. Por (S2), la
distribución inicial es p(0) = (0,1).
• P2 = 1 0
𝑐 ¨1 + 1 − 𝑐 (1 − 𝑐)2,
• P3 = 1 0
𝑐 ¨1 + 1 − 𝑐 + (1 − 𝑐)2 (1 − 𝑐)3, …
• Pn = 1 0
𝑐 ¨1 + 1 − 𝑐 + (1 − 𝑐)2+⋯+ (1 − 𝑐)𝑛−1 (1 − 𝑐)𝑛
= 1 0
1 − (1 − 𝑐)𝑛 (1 − 𝑐)𝑛
• Entonces las probabilidades de que un elemento esté
en el estado C o A después del intento n-ésimo son
• 𝑝(𝑛) = 𝑝(0)𝑃𝑛 = 1 − (1 − 𝑐)𝑛, (1 − 𝑐)𝑛 .
• Como 0 < c ≤ 1, por (S4), se tiene que 0 ≤ 1-c < 1, de
donde (1-c)n → 0 cuando n →.
• Concluyendo: mientras c no sea cero, la respuesta
correcta al estímulo será aprendida. Cuanto más
grande sea el valor de c, más rápido aprenderá.
• Para calcular el número esperado de intentos antes
de que el elemento sea “aprendido” se calcula usando
R = (1-c), m = r(0) (1-R)-1.
• En nuestro problema m = (1) (1-[1-c])-1 = 1/c
• Es decir, el sujeto estará adivinando, o en el estado
transitorio G, un promedio de 1/c veces antes de
aprender la respuesta correcta.
UNA VARIANTE DEL
MODELO DE BOWER
Introducción
• Es una situación más complicada y más interesante.
En el modelo anterior no distinguimos entre adivinar
correctamente y adivinar incorrectamente para un
elemento en el estado G. Si se quiere distinguir entre
estas posibilidades, se necesita analizar el modelo
por medio de una cadena de Markov con tres estados:
• E1: adivinando correctamente
• E2: adivinando incorrectamente
• E3: condicionado.
• La matriz de transición para esta CM es:
E1 E2 E3
P =
𝐸1
𝐸2
𝐸3
(1−𝑐)
𝑁(1. 𝑐) 1 −
1
𝑁𝑐
(1−𝑐)
𝑁(1 − 𝑐) 1 −
1
𝑁𝑐
0 0 1
Expliquemos la matriz creada: p11 es la probabilidad de
que el elemento empiece en E1 y permanezca en E1. es
decir, el elemento debe empezar y permanecer en el
estado G (con probabilidad 1-c) y la respuesta se
adivinirá correctamente (con probabilidad 1/N por S5).
• De manera similar p21= (1-c)/N. Después p12 es la
probabilidad de que el elemento empiece en el estado
G y permanezca en el estado G (con probabilidad 1-c) y
el sujeto adivinará incorrectamente (con probabilidad
(1-1/N)). Por lo que p12 = (1-c)(1-1/N). Este mismo
razonamiento prueba que p22 = (1-c)(1-1/N). Las otras
probabilidades se deducen del modelo más simple ya
discutido anteriormente. A partir de las suposiciones,
se ve que la distribución inicial de probabilidades es
• p(0) = 1
𝑁, 1 −
1
𝑁, 0
• En esta CM, los estados transitorios son E1 y E2,
mientras que E3 es absorbente. La matriz R está
dada por
• R =
1−𝑐
𝑁(1 − 𝑐) 1 −
1
𝑁1−𝑐
𝑁(1 − 𝑐) 1 −
1
𝑁
, y
• r(0) = 1
𝑁, 1 −
1
𝑁
Ejemplo
• Supongamos c
= 0.25,
entonces 1.c =
0.74, entonces
las
probabilidades
de que el
elemento esté
en el estado A
o C después de
cada intento
es:
Intento P(C) P(A)
Ejemplo
• Vemos que en el intento hay un 99% de certeza de
que el sujeto habrá aprendido la respuesta correcta.
• Para este ejemplo con N = 5, con c = 0.25 tenemos:
P = 0.15 0.6 0.250.15 0.6 0.250 0 1
, R = 0.15 0.60.15 0.6
y r(0) = (0.2, 0.8)
entonces, Q = (1-R)-1 = 1
0.25
0.4 0.60.15 0.85
=1.6 2.40.6 3.4
m = r(0) Q = 0.2, 0.81.6 2.40.6 3.4
= (0.8, 3.2)
Es decir, el sujeto adivinará correctamente un
promedio de 0.8 veces y adivinará incorrectamente 3.2
veces en promedio, antes de aprender la respuesta.
TAREA
Problema 1
• Un estudiante está tomando un curso de lectura en
francés. Aprende el vocabulario escribiendo una
palabra en francés en un lado de una tarjeta y su
equivalente en español en otro lado. Hay diez
tarjetas. Hacemos las siguientes suposiciones:
(a) Inicialmente el estudiante conoce las 10 palabras
en español pero no tiene idea de qué palabra de
francés corresponde a cada palabra en español.
Tiene que adivinar.
(b) Al estudiante se le muestra una palabra en francés,
da la palabra equivalente en español y, sino es
correcta, se le muestra la otra cara de la tarjeta. El
estudiante sabe la palabra o está adivinando.
Problema 1
(c) Si está adivinando, escoge una de las diez
“respuestas” en español aleatoriamente.
(d) Siempre que aprende una palabra, ya no la
olvida.
(e) Si adivina (correcta o incorrectamente) y se le
muestra la palabra correcta, la probabilidad es de 0.3
de que saldrá el equivalente en español de la palabra
en francés que acaba de ver, la próxima vez que se le
muestre.
Con estas suposiciones, encuéntrese la matriz de
transición de la cadena de Markov con los estados K
(si sabe una palabra dada) o G si está adivinando).
Problema 2
• En el problema 1 ¿cuál es la probabilidad de que
haya aprendido la traducción correcta de una
palabra dada en francés antes de adivinar 4 veces?
• ¿cuántas veces se debe repetir el experimento hasta
que la probabilidad sea de al menos 98% de que el
estudiante haya aprendido la palabra?
• ¿Cuál es el número esperado de veces que el
estudiante estará adivinando hasta que aprende la
palabra?
Problema 3
• En el problema 1, encuéntrese la matriz de
transición de la cadena de Markov asociada con
tres estados: adivinar correctamente, adivinar
incorrectamente y saber.
• ¿Cuál es el número esperado de veces que el
estudiante adivinará incorrectamente hasta que se
aprende una palabra dada?