apuntes estadistica ii

Upload: alex-ander-saboya-salcedo

Post on 06-Jul-2018

246 views

Category:

Documents


0 download

TRANSCRIPT

  • 8/17/2019 Apuntes Estadistica II

    1/74

    Apuntes de

    Estadística IIProf. Alfonso Pitarque

    Dpto. Metodología (despacho M107)

    Facultad de Psicología

  • 8/17/2019 Apuntes Estadistica II

    2/74

    1

    TEMA 1. CONCEPTOS BÁSICOS DE INFERENCIA ESTADISTICA.

    1. CONCEPTOS INTRODUCTORIOS.Una población es un conjunto de individuos que comparten determinadacaracterística. Una muestra es un subconjunto de dicha población. Las variablesque definen de forma numérica cualquier característica de una poblaciónreciben el nombre de parámetros (p.e. media, mediana, desviación típica,proporción, correlación,...), y suelen representarse en los manuales deestadística a través de letras griegas (p.e.µ suele representar la media,! ladesviación típica,! 2 la varianza," la proporción, y# la correlación,...). Por su

    parte las variables que definen de forma numérica cualquier característica deuna muestra reciben el nombre de estadísticos (p.e. media, mediana, desviacióntípica, proporción,...) y suelen representar con letras latinas (p.e. suelerepresentar la media muestral, s la desviación típica, s2 la varianza, P laproporción, y r la correlación,...).

    Para conducir cualquier investigación lo ideal sería poder medir a todos lossujetos que componen una población. De este modo tendríamos certeza absolutade que nuestras conclusiones serían generalizables a dicha población. Pero pormotivos obvios de economía de recursos y tiempo ello nunca suele ser posible(imaginemos p.e. que tuviéramos que medir a toda la población española). Sinembargo podemos trabajar con una muestra representativa de dicha población eintentar luego generalizar las conclusiones obtenidas en ella a toda la población.En el proceso de inferencia estadística intentamos, previo conocimiento dedeterminado estadístico, llegar a inferir o conocer determinado parámetropoblacional, a priori desconocido. Inferir coincide pues con el significadocomún de inducir (pasar del conocimiento de lo particular a lo general) comocontrapuesto al de deducción (o proceso por el cual pasamos del conocimientode lo general a lo particular). La característica primordial para que unainferencia sea válida es que la muestra sea representativa, es decir, que seasuficientemente grande y que haya sido obtenida por un tipo de muestreoadecuado (ver ver punto 2 de este tema).

    La estadística inferencial cubre dos grandes áreas de contenido: la estimación deparámetros y el contraste de hipótesis. En el primer caso (tema 2) nos valemosdel conocimiento de determinado estadístico para llegar a conocer determinadoparámetro (p.e. piénsese en los sondeos de opinión, encuestas, etc.). En elcontraste de hipótesis (temas 3 a 5) nos valemos de la estimación de

    determinados parámetros para comprobar si determinadas relaciones entre

    X

  • 8/17/2019 Apuntes Estadistica II

    3/74

    2

    variables son ciertas o falsas. Por ejemplo imaginemos que un laboratoriofarmaceútico quiere comprobar si dos medicamentos (A y B) son igualmenteeficaces o no para reducir el insomnio. Para ello toma dos muestras de personas

    insomnes y las medica a una con el medicamento A y a la otra con el B(variable independiente). Finalizada la medicación mide a ambas muestras en lavariable (dependiente) 'grado de insomnio manifiesto'. Si ambos medicamentosson igualmente eficaces se verificará que , en caso contrario .Dada la relevancia de la estadística aplicada al contraste de hipótesis en todaslas disciplinas científicas incidiremos prioritariamente en este curso en estasegunda línea de análisis.

    2. PRINCIPALES TIPOS DE MUESTREO.La validez de una inferencia estadística descansa en la representatividad de lamuestra con la que trabajemos. Tal representatividad se consigue a través de unmuestreo y un tamaño de la muestra adecuados. Hay dos principales tipos demuestreo: el probabilístico, en el que cada individuo de la población tiene lamisma probablidad de ser muestreado, y el no probabilístico, donde no secumple tal premisa. Sólo el muestreo probabilístico garantiza larepresentativadad de la muestra. El no probabilístico se utiliza sólo para

    estudios previos asistemáticos (p.e. cuando pedimos voluntarios en clase parahacer el análisis inicial de los ítems de un nuevo cuestionario) y no seráconsiderado aquí.

    Principales tipos de muestreo probabilístico o aleatorio:

    - muestro aleatorio simple: Consiste en elegir al azar (sin reemplazamiento) losn individuos de la muestra a partir de un listado de los N individuos que

    conforman la población. El problema de este muestreo es que sólo vale conpoblaciones de las que dispongamos de un listado poblacional (lo que nosiempre es posible).

    - sistemático: supone elegir al azar un individuo de los N/n primeros (o enteromás próximo) de una población y luego ir escogiendo los situados de N/n enN/n posiciones más alejadas hasta conformar una lista de tamaño n.

    - estratificado: se utiliza cuando la población presenta estratos de característicassimilares (lo que casi siempre ocurre en poblaciones grandes: individuos

    agrupados en distritos o barrios, ciudades, provincias, comunidades autónomas,

    µ A = µ B µ A ! µ B

  • 8/17/2019 Apuntes Estadistica II

    4/74

    3

    nacionalidades, tipo de colegios, edades, niveles educativos, etc.). Se extraeentonces una muestra aleatoria de sujetos de todos y cada uno de los estratos.Destaca aquí el llamado muestreo estratificado proporcional que consiste en

    conseguir que el tamaño de las muestras extraidas de cada estrato seaproporcional al número de sujetos que componen cada estrato a nivelpoblacional.

    - por conglomerados: al igual que en muestreo estratificado se utiliza cuando lapoblación se agrupa por estratos de características similares solo que aquí sealeatoriza qué estratos de entre todos los existentes van a ser incluidos ennuestra muestra (desechando el resto de estratos), y una vez seleccionados alazar dichos estratos elegimos al azar sujetos de los mismos. Es decir, ladiferencia entre el muestro estratificado y por conglomerados estriba en que enel primero muestreamos todos los estratos (proporcionalmente o no), mientrasque en el segundo sólo muestreamos aquellos estratos que han siddoseleccionados al azar de todos los estratos posibles.

    - polietápicos: combinan dos o más de los anteriores muestreos aleatorios, loque es muy frecuente en poblaciones muy grandes.

    El segundo factor del que depende la representatividad de mi muestra es deltamaño muestral (n), que debe de ser suficientemente grande (p.e. todo elmundopuede entender que una muestra n=5 es difícil que sea representativa).

    En Psicología Experimental (y cuasi-experimental) se habla de muestrasgrandes a partir de 30-35 participantes.

    En Psicología correlacional y de encuestas el tamaño muestral suele ser másgrande: casi todos los manuales de Estadística ofrecen tablas (ver p.e. la deabajo) que nos dan el tamaño muestral requerido (n) en base a:

    - N poblacional, bien sea conocido o infinito (poblaciones muy grandes)- El nivel de riesgo$ , o de confianza (1- $ ) con el que trabajemos (generalmente$ =.05

    en Psicología)- El error de muestreo que estemos dispuestos a cometer (p.e. de ± 2%, o de ± 5%).

  • 8/17/2019 Apuntes Estadistica II

    5/74

  • 8/17/2019 Apuntes Estadistica II

    6/74

    5

    3. CONCEPTO DE DISTRIBUCION MUESTRAL DE UN ESTADISTICO.DISTRIBUCION MUESTRAL DE LA MEDIA. TEOREMA DEL LIMITE

    CENTRAL.

    Distribución muestral o distribución de muestras de un estadístico Xes elproceso por el cual (1) seleccionamos de forma aleatoria sucesivas muestras deun mismo tamaño n; (2) calculamos dicho estadístico X en cada una de dichasmuestras; (3) hallamos la frecuencia relativa o probabilidad de ocurrenciaasociada a los valores que toma tal estadístico y (4) por último determinamos aqué distribución de probabilidad (normal, binomial,...) se adecúa taldistribución. Tal distribución recibe el nombre de distribución muestral delestadístico X (media, proporción, diferencia entre dos medias, cociente entredos varianzas, etc.).

    Expliquemos por ejemplo la distribución muestral de la media. Sea p.e. una urnade 1000 bolas (población), 100 de ellas etiquetadas con el nº 0, 100 con el 1, ...y 100 con el 9. En este caso

    Obtengamos las medias de 100 muestras aleatorias de tamaño 2 de aquellapoblación (ver tabla 1). Representemos ahora gráficamente tales frecuenciasrelativas o probabilidades (ver figura 1).

    Obtenemos así la distribución muestral de la media (para muestras de n=2).Observemos como tal representación gráfica tiende a aproximarse a un modelonormal. Si en vez de 100 muestras de tamaño 2 hubiéramos extraído porejemplo 10000 muestras del mismo tamaño observaríamos que su distribuciónmuestral se adecuaría perfectamente a un modelo normal con media 4.5. Ello sefundamenta en la llamada Ley de los Grandes Números (Bernoulli) según lacual sólo promediando un número suficientemente grande de puntos muestralespodemos obtener una medición suficientemente precisa del valor esperado. Enel caso de la media la probabilidad de que la variable aleatoria difiera deµ más allá de mínimas diferencias casuales (%) tiende a 0 cuando n tiende ainfinito (en la práctica n>30).

    xip i 4.51

    N ; (x i # )

    2 p i1

    N 2.87

    X

    p( X ! µ > " ) # 0 cuando n # !

  • 8/17/2019 Apuntes Estadistica II

    7/74

    6

    Tabla 1.

    Figura 1.

    9, 08, 07,06, 05, 04, 03, 02, 01,00, 00, 00,00

    0,04

    0,08

    0,12

    0,16

    0,20

    M E I S

    rec rel

  • 8/17/2019 Apuntes Estadistica II

    8/74

    7

    Para conocer las distribuciones muestrales de los distintos estadísticos no esnecesario recurrir a procedimientos empíricos (como el llevado a cabo arriba)sino que se han desarrollado distintos teoremas matemáticos que demuestran lasdistribuciones de probabilidad en que aquellas se basan. Así elTeoremaCentral del Límite(De Moivre) fundamenta matemáticamente la distribuciónmuestral de la media, sin duda la distribución muestral más importante. Segúntal teorema si de una población grande (con mediaµ y varianza! 2), distribuidanormalmente o no, extraemos muestras al azar de tamaño grande (n>30) ycalculamos en cada una de ellas su media entonces (1) la distribución muestralde las medias muestrales sigue un modelo normal; (2) la media de taldistribución de medias coincide conµ y (3) la desviación típica taldistribución (también llamadaerror típico o estándar de la media) coincidecon .

    El Teorema Central del Límite se expresa en forma abreviada así:

    Del punto (3) se deduce que la variabilidad de la distribución muestral demedias será siempre menor que la de la población, excepto cuando n=1, debidoa que la variabilidad de una población siempre es mayor que la observada enuna muestra aleatoria de ella.

    La importancia del conocimiento de las distribuciones muestrales de losprincipales estadísticos estriba en que gracias a ellas podemos asociarprobabilidades a valores concretos de cada estadístico y así poder luego bienestimar los límites del intervalo de confianza en torno a los cuales si sitúa elparámetro a estimar (tema 9) o bien contrastar hipótesis relativas a dichoestadístico (temas 10 al 13).

    (X X = µ )

    ! / n ( s X= ! / n )

    X = N ( µ , !

    n )

  • 8/17/2019 Apuntes Estadistica II

    9/74

    8

    4. PRINCIPALES DISTRIBUCIONES MUESTRALES.

    4.1. MEDIA (conocida2).Como queda dicho , de tal modo que, con muestras grandes, el

    estadístico tipificado se distribuirá de acuerdo al modelo normalnormalizado (Ej. 1.3. Pardo y San Martín, pp 69; San Martín et al, pp145).

    4.2. MEDIA (desconocida2).Esta distribución muestral tiene por mediaµ y por error típico sn-1/√ n. Elestadístico! ! !

    ! !! ! ! ! ! !

    ! ! ! !! ! ! ! ! !

    sigue un modelo t con n-1 g.l.Cuando n>30 t=N(0,1) (Ej. 1.4. Pardo y San Martín, pp 71; San Martín et al, pp152).

    4.3. VARIANZA.Si n ! 100

    Con fines prácticos es útil saber que el estadístico!" ! !

    ! ! !

    siempre que la variable se distribuya normalmente en la población.

    Cuando n>100

    por lo que el estadístico tipificado

    (Ej. 1.5. Pardo y San Martín, pp 74; Ej. San Martín et al, pp 150).

    X = N ( µ , !

    n )

    z =X ! µ

    " / n

    z = N(0, 1)

    s n2

    = ! n " 12 (

    n " 1n #

    2, #2 2(n " 1)

    n ) s n " 12

    = ! n " 12 (#

    2, #2 2

    n " 1 )

    (n ! 1) s n ! 12

    "2 es una # n ! 1

    2

    s n2

    = s n ! 12

    = N ( " 2, " 2 2n )

    z =s 2 ! " 2

    "2 2/n

    es N( 0, 1)

  • 8/17/2019 Apuntes Estadistica II

    10/74

    9

    4.4. PROPORCION.

    La distribución de muestras del estadístico proporción (P), extraídas depoblaciones dicotómicas (donde la proporción de casos asociados a uno de losdos estados es" ) y muestreo con reposición, sigue el modelo binomial con

    media" y error típico .

    Con muestras grandes, o cuando el producto n" & 5, podemos utilizar laaproximación a la curva normal tipificando P:

    (Ejs. 1.6. y 1.7, Pardo y San Martín, pp 76-77; San Martín et al, pp 153).

    ! (1 " ! )n

    z = P ! "

    " (1 ! " )n

    es N(0, 1)

  • 8/17/2019 Apuntes Estadistica II

    11/74

    10

    TEMA 2. ESTIMACION DE PARAMETROS.

    1. ESTIMACION PUNTUAL

    Cuando un estadístico es utilizado para estimar un parámetro desconocido sele llamaestimador ( ). Si dicha estimación es hecha de forma puntual, es decir,el valor de se toma como estimación concreta de hablamos de unaestimación puntual . En el caso más frecuente de que la estimación de se llevea cabo dando unos límites en torno a los cuales presumiblemente de hallehablaremos de unaestimación por intérvalos (ej. San Martín et al, pp. 180).

    Los estimadores puntuales deben de cumplir una serie de propiedadesmatemáticas (insesgamiento, consistencia, eficiencia y suficiencia). Sinembargo, y dado que la estimación puntual se utiliza poco, nos basta con saberque los mejores estimadores puntuales deµ, ! y " son, respectivamente, ,y P.

    2. ESTIMACION POR INTERVALOS

    Se trata de estimar los límites en torno a los cuales se encontrará el parámetro(desconocido) a partir del conocimiento de la distribución muestral delestadístico , asumiendo de antemano una determinada probabilidad de errar($ ) en nuestra estimación . El concepto denivel de riesgo ($ ) hace referencia ala probabilidad (asumida por nosotros a priori; generalmente en Psicología$ =.05) de equivocarnos en la estimación de , mientras que el concepto

    complementario denivel de confianza (1-$ ) refleja la probabilidad de acertar ennuestra estimación. El intérvalo configurado por los límites superior e inferiorde nuestra estimación se le conoce como intérvalo de confianza .

    El procedimiento para estimar el intervalo de confianza de es el siguiente(ejemplo en San Martín et al, pp. 185-190) . Supongamos que conocemos ladistribución muestral del estadístico y que ésta es normal. Sabemos entonces

    que en una distribución de tal tipo entre la queda comprendida un área

    !

    !^

    !^

    !

    !

    !

    X s n ! 1

    !

    !^

    !

    !

    !^

    µ ± 1.96 !

  • 8/17/2019 Apuntes Estadistica II

    12/74

    11

    de 0.95. Por tanto en la distribución muestral de debe verificarse conque la probabilidad de que un valor de dicho estadístico se aleje de más de1.96 errores típicos vale 0.05. En otras palabras,

    - Procedimiento de cálculo:1. Establecer el nivel de riesgo (generalmente$ =.05)2. Hallar en tablas las probabilidades asociadas a los valores ($ /2)

    y (1-$ /2) correspondientes a la distribución muestral de

    .3. Hallar elerror típico del estadístico4. Calcular los límites confidenciales (si se distribuye de forma

    normal):

    A la expresión se le conoce con el término deerror máximo o error demuestreo e indica los límites en torno al cual se sitúa el parámetro con unaprobabilidad de acertar de 1-$ . Por ejemplo en un sondeo publicado en unperiódico antes de unas elecciones es frecuente encontrar expresiones comoésta: "la proporción de votantes del partido X se sitúa en el 35%, con un tamañomuestral de 1050 encuestas, nivel de confianza del 95 y error de muestreo 5".Ello quiere decir que en estos momentos la proporción de votantes a dichopartido estaría entre el 30 y el 40% con una probabilidad de errar del 5%.

    !^

    E( !̂ ) = !!

    p !̂ " z1"# / 2 s !̂ )$ ! $ !̂ + z1"# / 2 s !̂ ) = (1 " # )

    !^

    (z 1 ! " / 2 , t1 ! " / 2 , # 1 !" / 22

    , .. .)(s

    !̂)

    !^

    !^

    ± z1 "# / 2

    s!̂

    z 1 ! " / 2 s #̂

  • 8/17/2019 Apuntes Estadistica II

    13/74

    12

    3. PRINCIPALES INTERVALOS CONFIDENCIALES.

    3.1. Intervalo confidencial para la media:4.1.1. Conocida! 2:

    4.1.2. Desconocida! 2:

    (Ejs. 2.1. Pardo y San Martín, pp 105; Cuadras et al, pp. 488; San Martín et al,pp. 192)

    En el SPSS: Analizar > Explorar + Estadísticos

    3.2. Intervalo confidencial para la proporción:

    4.2.1. Con muestras grandes:

    4.2.2. Con muestras pequeñas:

    (Ejs. 2.3. Pardo y San Martín, pp 111; Cuadras et al, pps. 495 y 498; San Martínet al, pp. 196).

    p X ! z 1 !" / 2#

    n$% &' ( µ ( X + z 1 !" / 2

    #n

    $% &')* +

    , = (1 ! " )

    p X ! t ( n ! 1; 1 ! " / 2)s n ! 1

    n#$

    %& ' µ ' X + t (n ! 1; 1 !" / 2)

    s n ! 1n

    #$

    %&

    ()*+,- = (1 ! " )

    p P ! z 1!" / 2P(1 ! P)

    n#$

    %& ' ( ' P + z 1 ! " / 2

    P(1 ! P)n

    #$

    %&

    )*+,-. = (1 ! " )

    p

    nn + z 1! " / 2

    2#$ %

    & P +

    z 1!" / 22

    2n ! z 1!" / 2P(1 ! P)

    n +z 1!" / 2

    2

    4n 2#'$

    %(& ) * )

    ) nn + z1! " / 2

    2#$

    %&

    P +z 1! " / 2

    2

    2n + z 1! " / 2

    P(1 ! P)n +

    z 1!" / 22

    4n 2#'$

    %(&

    +,,,,,-

    ./////0

    = (1 ! " )

  • 8/17/2019 Apuntes Estadistica II

    14/74

    13

    3.3. Intervalo confidencial para la varianza:

    4.3.1. Con muestras pequeñas (n 100)

    4.3.2. Con muestras grandes (n>100):

    (Ejs. 2.2. Pardo y San Martín, pp 108; Cuadras et al, pp. 504; San Martín et al,pp. 204).

    !

    p(n ! 1)s 2

    " ( n ! 1; # / 2)2

    $%&

    '()

    * +2 * (n ! 1)s 2

    " (n ! 1;1 !# / 2)2

    $%&

    '()

    ,-.

    /01

    = (1 ! # )

    p s 2 ! z 1!" / 2 s2 2

    n#$ %& ' ( 2 ' s2 + z1! " / 2 s

    2 2n

    #$ %&)*+,-. = (1 ! " )

  • 8/17/2019 Apuntes Estadistica II

    15/74

    14

    TEMA 3. CONTRASTE DE HIPOTESIS.

    1. INTRODUCCIONLa estadística inferencial se aplica prioritariamente al contraste de hipótesiscientíficas: todo investigador en cualquier rama de la Ciencia comienzaplanteándose unas hipótesis de trabajo que se verán corroborada o no en base alos datos que haya obtenido en su investigación. La estadística así planteada leservirá para tomar decisiones: en base a los datos recogidos podrá afirmar quelas hipótesis que a priori se planteó son ciertas o falsas.

    De forma muy esquemática una investigación (en cualquier rama de la ciencia)sigue una serie de pasos:1) Planteamiento de hipótesis2) Elección del nivel de riesgo que estamos dispuestos a asumir3) Elección del diseño de investigación y selección de las muestras4) Medición de la(s) variable dependiente5) Selección de la prueba estadística a aplicar y análisis de datos.6) Toma de decisiones

    Desarrollemos estos conceptos:1) Planteamiento de hipótesis: Una hipótesis es una conjetura (que puede ser cierta o no)acerca de como se relacionan varias variables. Una hipótesis estadística es la

    formulación matemática de una hipótesis científica. Hay dos tipos de hipótesisestadísticas:

    - La hipótesis nula o de la igualdad (Ho) es generalmente la hipótesis que elinvestigador está interesado en refutar, siendo cierta cuando el efecto de la(s) variableindependiente (VI) sobre la variable dependiente (VD) no es significativo. Se llama dela igualdad porque en su formulación siempre debe de aparecer un signo =.Imaginemos que un investigador quiere comparar la eficacia de dos medicamentos A

    y B en el tratamiento del TDAH. Un modo de hacerlo podría ser tomar una muestra deniños con TDAH y asignarlos al azar bien al grupo que toma el medicamento A bienal grupo que toma el medicamento B. Tras el período de tratamiento ambos gruposserían medidos en su sistomatología de hiperactividad (medida p.e. mediantecuestionarios específicos). Si es cierto que Ho es cierta entonces el número medio desíntomas de hiperactividad del grupo A tenderá a ser igual al número medio de desíntomas del grupo B, es decir, en términos poblacionales

    .H o : µ A = µ B o tambien µ A ! µ B = 0

  • 8/17/2019 Apuntes Estadistica II

    16/74

    15

    A su vez H0 puede ser de dos tipos:(a) bilateral o de dos colas, cuando Ho se rechace tanto en el caso de que

    como en el caso de que . En este caso H0 se plantearía así:

    (b) unilateral o de una cola, cuando Ho se rechace sólo en el caso de que porejemplo , hablándose de una H0 unilateral derecha ; cuando Ho se rechaceen el caso de que entonces hablaremos de una H0 unilateral izquierda.

    La distribución muestral de Ho es siempre conocida, lo que nos permitirá asociar unaprobabilidad al estadístico que hayamos calculado (t, F, etc.), y en base a ella tomaruna decisión estadística no ambigüa: p.e. en el programa SPSS si dicha probabilidad(Sig) es > de .05 entonces aceptaré siempre Ho (lo que en el ejemplo anteriorsupondría admitir que ambos medicamentos A y B producen resultados iguales),mientras que si dicha probabilidad (Sig) es! de .05 entonces rechazaré siempre Ho(lo que en el ejemplo anterior supondría admitir que ambos medicamentos A y Bproducen resultados distintos).

    - La hipótesis alternativa o de la desigualdad (H1) es generalmente lahipótesis que el investigador está interesado en confirmar, denotando existeevidencia suficiente para pensar que Ho es falsa. Se llama de ladesigualdad porque en su formulación nunca debe de aparecer un signo =.Dado que su distribición muestral es desconocida no se utiliza para tomardecisiones estadísticas.

    2) Elección del nivel de riesgo ($ ). Ya quedó dicho que en Psicología se trabajausualmente con niveles de riesgo de .05.

    3) Elección del diseño de investigación: La palabra diseño hace referencia al

    modo en que el investigador decide asignar los sujetos a las condiciones otratamientos experimentales. Existen multitud de diseños de investigación y seexplicarán en profundidad en el módulo de “Diseños de Investigación enPsicología” de 4º curso. En nuestro ejemplo ya dijimos que optamos porasignar los sujetos al azar a las dos condiciones tratamentales.

    4) Medición de la VD: En asignaturas como Psicometría se explican cómo debellevarse a cabo una buena medición psicológica, características de la misma(fiabilidad, validez,...), etc.

    µ A > µ B µ A < µ B

    H o : µA

    = µB

    o tambien µA

    ! µB

    = 0

    µ A > µ B

    µ A < µ B

  • 8/17/2019 Apuntes Estadistica II

    17/74

    16

    5) Selección de la prueba estadística a aplicar (oestadístico de contraste ) yanálisis de datos: Una vez llevada a cabo la medición se hace necesarioseleccionar la prueba estadística a aplicar en función del tipo de VI elegida, y de

    la naturaleza de la VD (cuantitativa, semicuantitativa o cualitativa).En la tabla inferior se presentan las principales pruebas estadísiticas de contrastede hipótesis que veremos en este módulo.

    En nuestro ejemplo el estadístico

    podría ser adecuado. Para su cálculo introduciremos los datos individuales en elprograma SPSS, seleccionaremos la opción Analizar > comparar medias > tpara muestras independientes y le pediremos que nos calcule dicho valor p y laprobabilidad (sig) asociada al mismo.

    6) Toma de decisiones: Las reglas de decisión se expresan siempre en términosde probabilidad. Como ya hemos dicho antes en el SPSS rechazaremos Ho si laprobabilidad asociada a mi estadístico (sig) es menor o igual que$ , mientrasque aceptaremos Ho en caso contrario. En el caso de contrastes unilaterales sedeberán cumplir dos condiciones para rechazar Ho: a) que las medias muestralesvayan en la dirección prevista y b) que al dividirsig /2 el resultado siga siendomenor o igual a .05.

    t =(X 1 ! X 2 ) ! ( µ 1 ! µ 2 )

    n1s12

    + n 2s 22

    n1 + n 2 ! 2" # $ %

    & ' 1

    n1+

    1

    n 2

    " # $ %

    & '

    es t n1 + n 2 ! 2

  • 8/17/2019 Apuntes Estadistica II

    18/74

    17

    En los manuales “clásicos” de Estadística la regla de decisión se suele formular

    así: "rechazaremos Ho si el valor del estadístico de contraste cae dentro de lallamadaregión crítica o de rechazo de Ho”. La región crítica se define como elconjunto de valores del estadístico de contraste que por estar muy alejados deHo es muy poco probable ($ ) que ocurran si Ho es verdadera. Es decir si miestadístico de contraste cae dentro de la región de rechazo de Ho (zonas de$ /2en la siguiente figura) entonces rechazaré Ho, caso contrario la aceptaré. Paracontrastes unilaterales la región crítica quedará toda ella bien a la derecha o a laizquierda de la distribución de Ho.

    Ejemplos de lo anteriormente dicho aparecen en ej 3.2. Pardo y San Martín, pp142; pps. 246 y 260 de San Martín et al; pp. 33 de San Martín y Pardo, o pp.334 (ej. 3 y 4) del Glass y Stanley, entre muchos otros libros.

    !

  • 8/17/2019 Apuntes Estadistica II

    19/74

    18

    2. TIPOS DE ERROR Y FACTORES QUE LOS AFECTAN

    Cuando tomamos una decisión estadística podemos cometer dos tipos deerrores. La teoría de contraste de hipótesis de Pearson y Newman plantea losdos tipos de error que podemos cometer al aceptar o rechazar Ho. De un ladotenemos$ (error tipo I) que refleja la probabilidad de rechazar Ho cuando enrealidad es verdadera; ya quedó dicho que en Psicología y por convención$ sesuele mantener en .05. De otro lado nos encontramos con el error' (o error tipoII) que refleja la probabilidad de aceptar en nuestra decisión Ho como verdaderacuando en realidad es falsa. La interelación que se da entre estos dos tipos deerror aparece más clara si representamos gráficamente la distribución muestral

    de Ho verdadera (conocida), junto con una de las distribuciones que representaH1 verdadera (decimos una de las distribuciones por que hay infinitasdistribuciones que harían rechazar Ho; representaremos una sola de ella; ademásdebemos recordar que la distribución muestral de H1 es desconocida):

    Ho verdadera Ho falsaDECISION

    Acepto Ho

    Rechazo Ho

    Decisióncorrecta (1 ! " )

    Decisióncorrecta (1 ! # )

    error tipo I

    error tipo II(#)

    ( " )

    Ho verdadera Ho falsa

    ! /2"! /2

    DECISION

    Aceptar Ho Rechazar Ho

  • 8/17/2019 Apuntes Estadistica II

    20/74

    19

    Observemos que en este ejemplo H1 está planteada en términos bilaterales; elrazonamiento sería similar si hubiera sido planteada unilateralmente, sólo queentonces toda la región de rechazo se hubiese situado bien a la derecha, bien a la

    izquierda de Ho.

    A 1-' se le llama tambiénpotencia de una prueba estadística. En toda toma dedecisiones lo que interesa es minimizar $ y ' . Sin embargo podemos observarcomo uno y otro error son interdependientes en el sentido que si disminuimosuno de ellos aumentamos el otro (ejemplo Visauta y Batallé, pp. 54). Elprograma SPSS nos permite calcular$ (a través de la probablidad -sig - asociadaal valor del estadístico de contraste) y 1-' (pidiéndoselo enopciones ).

    Dado que$ suele tomar valores constantes iguales o inferiores a .05 lo queinteresa es pues aumentar la potencia de la prueba (1-' ). Las dos formas tiene elinvestigador de reducir' es o bien aumentar el tamaño de las muestras con lasque trabaja, o bien aumentar el llamadotamaño del efecto que en una escala de0 a 1 describe el grado en que la manipulación experimental que hago es o noefectiva, puesto que aumentando el tamaño del efecto conseguimos reducir elgrado de solapamiento de las distribuciones de Ho verdadera y Ho falsa seamenor (ver figura anterior). El programa SPSS también permite calcular el

    tamaño del efecto (pidiéndoselo enopciones ) a través del cálculo del estadísticoeta cuadrado parcial (( 2p en una escala de 0 a 1).

    Por último no hay que confundir la significación estadística con el tamaño delefecto. Muchas veces se piensa incorrectamente que unasig o p muy pequeña esindicativa de que la manipulación de la VI sobre la VD ha sido muy efectiva, esdecir, de un tamaño del efecto muy alto. Y eso no siempre es así pues p dependedel tamaño muestral: una p=0.03 podrá tender relevancia psicológica ante unn=30 p.e., pero la misma p ante un n=3000 no tiene ninguna relevancia. Por ello

    la relevancia de un contraste hay que verificarla observando el tamaño delefecto.

  • 8/17/2019 Apuntes Estadistica II

    21/74

    20

    3. CONTRASTES DE HIPOTESIS PARA UNA MUESTRA.

    a) Contraste sobre la media:

    a1) Conocida! 2 :

    con muestras grandes. Con muestras pequeñas (n30) (Ej. 4.2. Pardo y San Martín, pp 190; San Martín et al, pp. 282;pp. 293 Glass y Stanley).

    b) Contraste sobre la proporción:

    Supuestos: población binomial, ; (Ej. San Martín et al, pp. 284;pp. 590 de Cuadras et al; Visauta y Batallé, pps. 77 y 78).

    z =X ! µ 0" / n

    es N(0, 1)

    z =P ! " 0

    "0(1 ! " 0)

    n

    es N(0, 1)

    n ! " 5

  • 8/17/2019 Apuntes Estadistica II

    22/74

  • 8/17/2019 Apuntes Estadistica II

    23/74

    22

    TEMA 4. CONTRASTE DE HIPÓTESIS PARAMÉTRICO

    Vamos a ver en este tema las principales pruebas estadísticas utilizadas paracontrastar hipótesis relativas a dos o más muestras o condiciones (bien seanéstas independientes o relacionadas). Por muestras independientes entendemosmuestras formadas por sujetos que no guardan ninguna relación entre sí, comoocurre por ejemplo, cuando asignamos al azar los participantes a las distintascondiciones (es decir, cuando la VI es inter). Por muestras relacionadasentendemos aquellas entre las que haya sospecha de no ser realmenteindependientes, como ocurre p.e. cuando la VI es intra (es decir, antemediciones repetidas de los mismos sujetos), o muestras formadas porfamiliares, etc.

    Para aplicar este tipo de pruebas (llamadas parámetricas) los datos han desatisfacer algunos supuestos generales (la VD ha de ser cuantitativa, distribuirsenormalmente, tamaño muestral suficiente –no menos de 15 sujetos porcondición-) y otros supuestos específicos de cada prueba. Cuando algunos deestos supuestos no se cumplen los datos deben de ser analizadas mediantepruebas no paramétricas (tema 5).

    a) Contraste sobre la diferencia de dos medias independientes:

    (a1) conocidas

    Supuestos: poblaciones normales; muestras grandes (n1+n2>30) eindependientes. Si las muestras son pequeñas el anterior estadístico sigue unmodelo t con n1+n2-2 gl. (Ej. 4.3. Pardo y Sanmartín, pp. 193)

    !12 y ! 2

    2 )

    z =(X 1 ! X 2) ! (µ 1 ! µ 2 )

    " 12

    n 1+

    " 22

    n 2

    es N(0, 1)

  • 8/17/2019 Apuntes Estadistica II

    24/74

    23

    (a2) desconocidas aunque supuestamente iguales1

    Supuestos: poblaciones normales y muestras independientes. Si las muestras songrandes el anterior estadístico sigue un modelo N(0,1). (Ej. 4.4. Pardo ySanmartín, pp. 196)

    (a3) desconocidas y diferentes2

    es t con

    Supuestos: poblaciones normales y muestras independientes de tamaño más omenos similar. Si las muestras son grandes el anterior estadístico sigue un

    modelo N(0,1). (Ejs. 4.5. Pardo y Sanmartín, pp. 200; San Martín et al, pp. 293;Glass y Stanley, pp 295; Cuadras, pps. 606-610).

    (a4) ante muestras relacionadas o dependientes

    siendo y , respectivamente, la media y cuasi-desviación típica de ladistribución de las diferencias. Supuestos: poblaciones normales (Ej. 4.6. Pardoy Sanmartín, pp. 205; San Martín et al, pp. 296; Glass y Stanley, pp 298).

    1 Para poner a prueba este supuesto hay que aplicar previamente el estadístico referido en elpunto b1 de este mismo tema.2 Para poner a prueba este supuesto hay que aplicar previamente el estadístico referido en elpunto b1 de este mismo tema.

    !12 y ! 2

    2

    t =(X 1 ! X 2) ! (µ 1 ! µ 2)

    n 1s 12 + n 2s 22n 1 + n 2 ! 2

    "#$%&'

    1n 1

    +1

    n 2"$

    %'

    es t n1

    + n2

    ! 2

    !12 y ! 2

    2

    t =D ! µ

    sd / n

    es tn ! 1

    D s d

  • 8/17/2019 Apuntes Estadistica II

    25/74

    24

    b) Contraste sobre el cociente entre dos varianzas:

    (b1) con muestras independientes

    Supuestos: poblaciones normales y muestras grandes. Poner la varianza mayoren el numerador y utilizar contrastes unilaterales derechos(Ej. 4.6.Pardo y Sanmartín, pp. 214; San Martín et al, pp. 287; Cuadras, pps.598-600;Glass y Stanley, pp. 304).

    (b2) con muestras relacionadas o dependientes

    (Ej. San Martín et al, pp. 290; Cuadras, pps.601; Gotor, pp. 91; Glass y Stanley,pp. 306; Visauta y Batallé, pps. 185, 186)

    (s12

    ! s22 )

  • 8/17/2019 Apuntes Estadistica II

    26/74

    25

    EL ANOVA

    En el punto anterior hemos visto cómo a través de un test t o z se puede poner aprueba la hipótesis acerca de la diferencia entre dos medias. Pero eninvestigación experimental muy frecuentemente se ponen a prueba hipótesisrelativas a si existen diferencias en la eficacia de k distintos tratamientos (k>2),es decir, hipótesis del tipo . Una posible solución para elcaso de k muestras podría ser comparar por pares tales medias, hasta completartodas las posibles (k(k-1)/2) combinaciones. Sin embargo no es ésta unasolución recomendable dado que$ crece exponencialmente a medida que kaumenta: la probabilidad verdadera de cometer el error tipo I (p($ )) tras las(n(n-1)/2) comparaciones viene dada por la llamada desigualdad de Bonferroni

    (siendo$ el nivel de riesgo que a priori estamos dispuestos a asumir):p($ ) = 1 - (1-$ )k

    Por ello se hace necesario desarrollar una nueva técnica de análisis estadísticoque permita verificar hipótesis de ese tipo manteniendo a niveles constantes$ .Esta técnica se conoce con el nombre de 'análisis de la varianza' (o tambiénANOVA, acrónimo de 'Analysis of variance'), y fue desarrollada por Fisher apartir de 1930. Podemos afirmar que el ANOVA es la técnica de análisisestadístico más utilizada en la investigación experimental y cuasi-experimentalen Psicología (de hecho más del 75% de las artículos revisados son analizados através de ANOVA), de tal modo que hoy no se puede hablar de hacerexperimentación en cualquier rama de la Ciencia sin conocer la técnica básicade análisis paramétrico que es el ANOVA.

    Dado que no existe un único tipo de ANOVA, daremos un breve esquemaclasificatorio de los distintos tipos de ANOVA. Como veremos ello conllevahablar de los distintos tipos dediseño experimental , hasta tal punto quedeterminados autores (p.e. Winer, 1971) identifican el diseño con el modelo

    matématico de ANOVA que legitima su análisis.Podríamos hablar de los siguientes tipos de ANOVA en base a estos criteriosclasificatorios:

    a) Por el número de factores (o VIs): Si manipulamos una sola VI se hablade ANOVA unifactorial. Cuando manipulamos más de una VI se habla de

    ANOVA factorial. En este último caso si se habla de un ANOVA factorial4 x 2, significa que manipulamos 2 Vis, la primera con 4 niveles y lasegunda con 2, lo que da un total de 8 condiciones o tratamientosexperimentales distintos. En esta asignatura sólo analizaremos ANOVAS

    H0: µ 1 = µ 2 = . . . = µ k

  • 8/17/2019 Apuntes Estadistica II

    27/74

    26

    unifactoriales, los ANOVAS factoriales se verán en el módulo de Diseñosde investigación en Psicología (4º curso).

    b) Por el modo en cómo asignemos los sujetos a los tratamientoshablaremos de:b1). ANOVAs inter o de grupos al azar cuando asignemos al azar ungrupo distinto de sujetos a cada uno de los tratamientosexperimentales (hablándose entonces deVI inter o entresujeto -delinglés 'between subjects').b2) ANOVAs intra o diseños de medidas repetidas cuando trabajemoscon una única muestra que reciba todos los tratamientosexperimentales (hablándose entonces deVI intrasujeto -del inglés'within subjects'-).b3) ANOVAs factorialesmixtos cuando manipulemos al menos unavariable inter y al menos una variable intrasujeto. P.e. si se habla deun ANOVA factorial 4 (inter) x 2 (intra), significa que manipulamos 2Vis, la primera con 4 niveles inter (es decir con 4 muestras asignadasal azar a dichos niveles) y la segunda con 2 niveles intra (es decir, quelas anteriores 4 muestras son medidas 2 veces en los niveles de estaVI intra)

    c) Por el número de VDs medidas: los ANOVAS que acabamos de ver serefieren a experimentos donde los sujetos son medidos en una sola VD (loque suele ser lo más frecuente). Pero cuando trabajamos con más de unaVD se suele hablar de MANOVA (siglas de 'Multivariate analysis ofvariance') asociados a los distintos tipos de ANOVA que acabamos de ver.

  • 8/17/2019 Apuntes Estadistica II

    28/74

    27

    EL ANOVA UNIFACTORIAL INTER

    El ANOVA es una técnica que descompone la variabilidad observada en la VDcomo la suma de varios componentes independientes que pueden asignarse acausas distintas. Como dijimos arriba la hipótesis que se pone a prueba en undiseño de un factor de grupos al azar es del tipo (siendo k elnúmero de niveles de la VI) frente la hipótesis alternativa que especifica que almenos una de aquellas igualdades no es satisfecha por los datos.

    Para poder aplicar un ANOVA inter de han de cumplir una serie decondiciones:

    a) La VD ha de ser cuantitativa (escala de intervalo o razón)

    b) Las puntuaciones de los sujetos en la VD se han de distribuir de acuerdoal modelo normal. La violación de este supuesto no suele acarrearconsecuencias graves en el proceso de decisión estadística siempre ycuando las muestras con las que trabajemos sean grandes (n>35). De todosmodos podemos verificar este supuesto aplicando en el SPSS las pruebasde Kolmogorov-Smirnov o de Shapiro-Wilks.

    c) Las varianzas de los k grupos han de ser similares, es decir, no debendiferir estadísticamente entre sí, o lo que es lo mismo, se debe verificar. A este requisito se le conoce como requisito de

    homoscedasticidad. Su incumplimiento no suele ser grave si las muestrasson grandes y de un mismo tamaño, pero si éste varía entonces laprobabilidad de cometer el error tipo I es mayor que $ a medida que elgrupo de tamaño menor es el que más variabilidad presenta. El SPSSpermite poner a prueba este supuesto mediante el test de Levene (enAnalizar > comparar medias > ANOVA de un factor)

    El modelo teórico lineal para un ANOVA inter descompone la puntuación de unsujetoi en el tratamiento j (Xij) como

    Xij =µ + $ j + Eij (1)

    es decir define la puntuación Xij como la suma de tres componentes:µ es la media general en la VD de los distintos grupos de tratamiento, lacual es desconocida y constante para todas las observaciones.

    H0: µ 1 = µ 2 = . . . = µ k

    H0: !

    1

    2= !

    2

    2= . . . = !

    k

    2

  • 8/17/2019 Apuntes Estadistica II

    29/74

    28

    $ j representa el efecto puro del tratamiento j en el sujeto i, yEij es el error experimental y representa todas las fuentes incontroladas devariación que afectan a la medida del sujeto i en el tratamiento j.

    ESTIMACION DE LOS PARAMETROS DEL MODELO.

    Se puede demostrar (ver p.e. Glass y Stanley, 1974; pp 343) que los respectivosestimadores insesgados deµ, $ j y Eij son

    siendo la media general de todos los N sujetos ( ) adscritos a todos lostratamientos, y la media de los sujetos adscritos al tratamiento j.Podemos ahora sustituir en (1) y quedaría

    o lo que es lo mismo

    Esta igualdad es cierta para todas y cada una de las puntuaciones de nuestrainvestigación. Si ahora se suman todas las puntuaciones de todos los sujetos yelevamos cada miembro de la ecuación al cuadrado (para que los signospositivos y negativos no se anulen, dando un valor 0) llegamos a obtener:

    El primer término a la izquierda de la igualdad se conoce con el nombre desuma de cuadrados total (SST) y representa la suma de las desviaciones alcuadrado de cada cantidad respecto a las media total, es decir, representa lavariabilidad total de nuestros datos.El primer término a la derecha de la igualdad es lasuma de cuadradosintergrupos (SSinter) o tratamental (SStrat), y representa la proporción devariabilidad del total debida al efecto puro de los tratamientos sobre los sujetos.El segundo término a la derecha de la igualdad es lasuma de cuadrados deerror o intragrupo (SSe) y representa la proporción de variabilidad del total que

    µ̂ = X T

    ˆ! j = X j " XT

    ˆE ij

    =

    X ij !

    X j X T N

    = n j1K!

    X j

    X ij = X T + (X j ! X T ) + (X ij ! X j )

    X ij ! X T = (X j ! XT ) + (X ij ! X j ) (2)

    1n i!

    1

    k! (X ij " X T )

    2=

    1

    n i!

    1

    k! (X j " X T )

    2+

    1

    n i!

    1

    k! (X ij " X j )

    2 (3)

  • 8/17/2019 Apuntes Estadistica II

    30/74

    29

    no es debida al efecto de los tratamientos sobre los sujetos, siendo debida a otrascausas, generalemente desconocidas y espúreas (diferencias individuales entrelos sujetos que configuran cada muestra, efectos incontrolados de variables

    extrañas, etc.).Así pues podemos escribir (3) como

    SST = SSinter + SSe

    quedando descompuesta la variabilidad total de un diseño como la suma de doscomponentes aditivos, uno que refleja la variabilidad debida al efecto 'puro' delos tratamientos y el otro que refleja la variabilidad debida a efectos espúreos.

    Nuestro objetivo será ahora relacionar estas sumas de cuadrados con el contrastede la hipótesis . La misión del experimentador será intentarreducir la SSe tanto como le sea posible mediante técnicas de controlexperimental (aleatorización, elección de un diseño adecuado,...), así comomaximizar la SSinter (aplicando los tratamientos de forma óptima), pues de estemodo, como vamos a explicar ahora, maximizará las posibilidades de rechazarla Ho, es decir, de demostrar que sus tratamientos producen efectos en la VD.En el módulo de Diseños de Investigación en Psicología (4º curso) se incidirámucho en estos puntos.

    Pero antes presentaremos un ejemplo que clarificará estas ideas.

    EJEMPLO.

    Imaginemos que un investigador está interesado en comprobrar si sonigualmente eficaces o no tres métodos de enseñanza del inglés (A1, A2, A3).Para ello toma al azar una muestra de 15 sujetos, y los asigna al azar a los 3métodos y tras un curso de docencia mide a dichos grupos en la misma VD (p.e.notas en un examen de inglés). Por tanto la hipótesis que ponemos a prueba es

    frente a H1 que especifica que al menos una de esasigualdades no es cierta.

    H0: µ 1 = µ 2 = . . . = µ k

    H0: µ A1 = µ A 2 = µ A3

  • 8/17/2019 Apuntes Estadistica II

    31/74

    30

    Las puntuaciones con sus respectivas medias grupales y media total fueron

    Representemos en un continuo las 3 medias grupales, así como la media total yp.e. la puntuación del segundo sujeto del grupo A1 (que es un 2).

    Podemos apreciar como la igualdad (2) es cierta para el segundo sujeto delgrupo A1 (así como también es cierto para todos y cada uno de los 15 sujetos dela investigación)

    (2 - 5.26) = (3.2 - 5.26) + (2 - 3.2)

    dT = dinter + dedistancia Total = distancia inter + distancia de error

    Vamos a ver ahora la relación de esto con el contraste de Ho:

    dinter representa el efecto de cada tratamiento sobre la VD, es decir,o lo que es lo mismo, la desviación de la media de cada grupo

    respecto a la media total. Se puede entender fácilmente que a medida quelas 3 dinter (relativas a los tres grupos de tratamiento) difieran más entre sí

    A1 A2A3

    X T

    3.2 4.8 5.26 7.8suj 2=2

    dT

    de

    dinter

    X ij ! X T = ( X j ! X T) + (X ij ! X j)

    (X j ! X T )

  • 8/17/2019 Apuntes Estadistica II

    32/74

    31

    más posibilidades habrá de rechazar Ho. Si esto no se ve claro piénsese porejemplo qué ocurriría si en nuestro ejemplo los 15 sujetos hubiesen

    obtenido una puntuación de 5 puntos. Entoncescon lo que habría evidencia para pensar que Ho es claramente cierta.

    de representa o, lo que es lo mismo, la desviación de cada sujetorespecto a su media grupal, es decir, el efecto distinto que un mismotratamiento provoca sobre cada una de las personas de una muestra (debidoa diferencias individuales,...). Probablemente si la unidad experimentalfuese, en vez de personas, por ejemplo, máquinas (o mejor robots)probablemente de sería en cada caso 0, debido a que no existiría

    variabilidad intragrupal en la asimilación del tratamiento (es decir, cadauno de los 5 robots de cada grupo ante un mismo tratamiento darían unamisma respuesta). Un ejemplo prototípico en el que la variabilidad de errorsería nula podría ser éste:

    A1 A2 A33.2 7.8 4.83.2 7.8 4.83.2 7.8 4.83.2 7.8 4.83.2 7.8 4.83.2 7.8 4.8

    Entendido esto podemos preguntarnos sobre cómo calcular la variabilidad intere de error que hay en todos los datos de nuestro ejemplo. Para ello aplicaremosla expresión (3) obteniendo

    66.9 = 54.5 + 12.4SST = SSinter + SSe

    lo que quiere decir que de las 66.9 unidades de variabilidad que hay en nuestrosdatos 54.5 son debidas a los efectos 'puros' de los tratamientos y 12.4 a otrascausas espúreas desconocidas.

    XA1

    = XA 2

    = XA3

    = XT

    = 5

    (X ij ! X j)

    X j = X T = 5.26

  • 8/17/2019 Apuntes Estadistica II

    33/74

    32

    LA TABLA DE ANOVA.

    Entendido el concepto de SS se hace necesario presentar un nuevo término

    conocido comogrados de libertad (gl). En nuestro ejemplo las SS inter e intra(54.5 y 12.4) no son directamente comparables dado que el valor 12.4 viene dehallar las diferencias cuadráticas de 15 datos respecto a sus medias grupales,mientras que 54.5 viene de hallar las diferencias de tan sólo 3 datos (las mediasgrupales) respecto a la media total (si bien tales diferencias cuadráticas aparecenrepetidas 5 veces cada una de ellas). El concepto de gl viene de las cienciasfísicas en relación a características del movimiento de los objetos: un objeto quese mueve en línea recta tiene 1 gl; si se mueve en un plano tiene 2 gl; en elespacio, 3 gl,... En ANOVA los gl se refieren a criterios de ponderación de lasSS. En concreto los gl asociados a las tres SS vistas son

    glT = N-1gl inter = k-1

    gle = N-k

    siendo k el número de tratamientos o condiciones experimentales y N el número

    total de sujetos, es decir, , verificándose siempre que glT = gl inter +gle.

    Si ponderamos la SSinter por sus respectivos gl obtenemos la llamadamediacuadrática inter (MSinter), mientras que si ponderamos la SSe por susrespectivos gl obtenemos la llamadamedia cuadrática de error (MSe).

    Tales MS representan varianzas1 y ya son directamente contrastables. ¿Secomprende ahora el porqué del nombreanálisis de la varianza ?.

    En nuestro ejemplo la MSinter = 27.25 y la MSe=1.03, luego podemos decirque en nuestros datos el efecto de los tratamientos es 26.46 (27.25/1.03) vecesmayor que el efecto de factores espúreos. Podemos empezar pues a sospecharseriamente que Ho va a ser rechazada.Sin embargo para confirmar tal sospecha se requiere aplicar un test estadístico.

    1 Obsérvese si no su similitud con la fórmula de la cuasi-varianza:

    N = n j1

    K

    !

    s 2 =(X

    i ! X)

    2

    " n ! 1

  • 8/17/2019 Apuntes Estadistica II

    34/74

    33

    Si como hemos dicho MSinter y MSe representan varianzas, en el tema 11vimos cómo para contrastar hipótesis acerca del cociente de dos varianzasutilizábamos un test F. En nuestro ejemplo pues F=26.46 que contrastado contra

    el centil 95 de una distribución F con 2 gl inter asociados al numerador y 12 gleasociados al denominador permitirá rechazar Ho para un nivel de riesgo de 0.05.

    Los anteriores conceptos suelen presentarse agrupados en una tabla denominadatabla de ANOVA que para nuestros datos quedaría así:

    FV SS GL MS F pinter 54.5 2 27.25 26.46 Comparar medias > ANOVA de un factor

    PRUEBAS A POSTERIORI

    Si tras un ANOVA hemos aceptado Ho (es decir la razón F no ha alcanzado lasignificación estadística) la interpretación de los datos es clara en el sentido quese confirma la idea de que los tratamientos no son eficaces sobre la VD (y ahíacaba el análisis estadístico).Pero cuando hemos rechazado Ho lo que significa es que al menos una de lasdiferencias entre pares de medias es significativamente. En nuestro ejemplo elhaber obtenido una F significativa nos lleva a concluir que los distintos métodosdel inglés producen resultados distintos pero no podemos decir todavía quémétodo es el más eficaz. Es decir rechazar Ho puede significar que sea ciertauna de estas tres alternativas:

    (a) µ A1 ! µ A 2 = µ A3(b) µ A1 = µ A 2 ! µ A3

    o (c) µ A1 ! µ A 2 ! µ A3

  • 8/17/2019 Apuntes Estadistica II

    35/74

    34

    Ls pruebas estadísticasa posteriori , llamadas así por que se aplican tras haberhallado una F significativa, nos ayudarán a elegir cuál de estas tres alternativas

    es la cierta. Todas ellas comparan las diferencias entre los pares de mediasmuestrales.

    Una primera solución podría ser aplicar k(k-1)/2 pruebas t sobre tales pares demedias si bien ya dijimos que no es ésta una solución recomendable dado que$ crece exponencialmente a medida que k aumenta. En este caso Bonferronirecomendó rechazar Ho con niveles de riesgo menores o iguales a$ /(k(k-1)/2).De este modo estas pruebas t a posteriori se denominan t de Bonferroni.

    Existen otras muchas pruebas a posteriori entre las que destacan las deNewman-Keuls, Scheffé, Tukey, etc. Más o menos todas llevan a resultadosimilares. El programa SPSS realiza todas ellas (seleccionándolas en opcionesdel ANOVA de un factor).

  • 8/17/2019 Apuntes Estadistica II

    36/74

    35

    EL ANOVA UNIFACTORIAL INTRA

    Los ANOVAS intrasujeto son aquellos en los que una sola muestra de sujetospasa por todas las condiciones experimentales (por lo que se llamandiseños demedidas repetidas ). Presentan una gran ventaja de economía pues al trabajarcon una única muestra los esfuerzos materiales y humanos que se involucran enla investigación son menores que los utilizados en un diseño de grupos al azar.Sin embargo presentan algunos desventajas que hay que conocer:

    En primer lugar no todas las VI admiten una manipulación intra. Sólo aquellasVI que son susceptibles de manipulación directa y que no producen efectospersistentes en el organismo de los participantes (es decir, que desaparecenentre una medición y otra) pueden manipularse intrasujeto, mientras que lasmanipuladas por selección (p.e. el sexo, la edad, el lugar de nacimiento, etc)sólo admiten manipulación inter.

    En segundo lugar, siempre que medidos a los sujetos varias veces en el tiempose involucra el llamadoefecto de la práctica : Cuando medimos a una muestravarias veces, su rendimiento en la segunda medición no sólo refleja el efecto detal tratamiento si no la experiencia que han obtenido los sujetos en la primeramedición, etc. Para hacer que el efecto de la práctica se reparta por igual entretodos los tratamientos podemos hacer principalmente dos cosas: (a)aleatorizar para cada sujeto el orden de administración de los tratamientos o (b) emplearprocedimientos decontrabalenceo , es decir, hallar todas las posible formas decombinar el orden de presentación de las k condiciones experimentales (habrák! formas posibles) y asignar cada una de ellas a uno o varios sujetos distintos(aunque de este modo nuestra muestra tendrá que ser de tamaño k! o unmúltiplo de este número).

    Por último, las mediciones han de estar poco espaciadas en el tiempo dado que

    en caso contrario efectos madurativos de los sujetos pueden afectar a surendimiento en la VD.

    En el módulo Diseños de Investigación en Psicología se explicarán ampliamentelos conceptos anteriores, aunque es imprescindible conocerlos al hablar de losANOVAS intra.

    El ANOVA intra supone el cumplimiento del supuesto de esfericidad de losdatos (las varianzas y covarianzas de las puntuaciones de error han

    de ser similares) que es analizado por el test W de Mauchly (y que debe de

    (X ij ! X j)

  • 8/17/2019 Apuntes Estadistica II

    37/74

    36

    darnos no significativo, sig >. 05). Si no se cumple el programa nos da otrosestadísticos alternativos (p.e. Greenhouse-Geisser), o bien podemos recurrir aun análisis no paramétrico (ver tema 12).

    El SPSS realiza un ANOVA intra así:

    - Analizar > Modelo general lineal > medidas repetidas (ponemos nombreal factor y nº de niveles)

    - Comprobar si se cumple el supuesto de esfericidad (test de Mauchly)- Para hacer las pruebas a posteriori de Bonferroni ir a Opciones y meter

    nuestro factor en “Mostrar las medias para”, seleccionar “Comparar losefectos principales”+ “Ajuste del intervalo de confianza” +Bonferroni

  • 8/17/2019 Apuntes Estadistica II

    38/74

    37

    TEMA 5. CONTRASTE DE HIPÓTESISNO-PARAMÉTRICO

    Las pruebas de contraste de hipótesis no paramétricas se aplican- bien cuando la VD venga medida en una escala ordinal (variablessemicuantitativas) o categorial (variables cualitativas)- bien cuando venga medida en una escala de intérvalo (variables cuantitativas)pero los supuestos teóricos en los que se basa la aplicación de las pruebasparamétricas (normalidad de la VD, independencia de los errores,homoscedasticidad, etc.) quedan seriamente dañados.

    La estadística no-paramétrica o dedistribuciones libres , está libre de lossupuestos sobre la distribución, o la dispersión e incluso es muy laxa sobre lacondición de medida que deben respetar las observaciones, ya que no necesitautilizar puntuaciones exactas en sentido numérico, por lo que nos encontramoscon técnicas fáciles y que sólo requieren conocimientos matemáticoselementales.

    En general, la estadística no-paramétrica es la alternativa imprescindiblecuando no se puede usar la paramétrica. Sin embargo a igual de condiciones essiempre preferible utilizar una prueba paramétrica a una prueba no paramétricadado que la potencia de aquellas es mayor, así como la interpretación de losresultados es más completa (por ejemplo las pruebas paramétricas permitenhallar las interacciones de las variables manipuladas, cosa que no podremoshacer desde una perspectiva no paramétrica).

    Como en el caso de la estadística paramétrica la prueba estadísticaresponde al diseño experimental planteado. En concreto, en la estadística no-paramétrica la selección de la prueba adecuada dependerá del número decondiciones o muestras experimentales que intervengan (1 condición, 2condiciones o más de dos condiciones), del tipo de relación que se estableceentre dichas condiciones (muestras independientes vs mediciones repetidas deuna misma muestra o muestras relacionadas) y, del modelo de mediciónsubyacente a los datos (escala nominal vs escala ordinal).

    Así mismo estas pruebas se pueden agrupar en base al objetivo quepersiguen:

    a) Pruebas de bondad de ajuste (Ji-cuadrado, Kolmogorov): sirven paracomprobar si existen diferencias significativas entre las puntuaciones en la VD

    de nuestra muestra y una distribución teórica conocida o supuesta bajo Ho (p.e.

  • 8/17/2019 Apuntes Estadistica II

    39/74

    38

    si los datos se distribuyen uniformemente entre las distintas categoríasnominales; si se distribuyen de formal normal, etc).

    b) Pruebas de posición (prueba de los signos o binomial): sirven para

    verificar si el número de puntuaciones que quedan por debajo de determinadaposición o criterio (p.e. la mediana) se adecúa o no a lo predicho por Ho.c) Pruebas de independencia (Ji-cuadrado): analizan mediante tablas de

    contingencia y pruebas ji-cuadrado si existe relación entre dos variablescategoriales relativas a una misma muestra de sujetos o no (es decir que si sonvariables relacionadas o independientes). Este punto se desarrollará en el tema13.

    En la tabla inferior aparecen las principales pruebas que vamos a ver eneste tema.

  • 8/17/2019 Apuntes Estadistica II

    40/74

    39

    PRUEBAS NO PARAMÉTRICAS PARA UNA CONDICIÓN OMUESTRA

    De modo general y antes de presentar las técnicas concretas convieneseñalar lo que se entiende por una condición o muestra, ya que una muestra porsí sola no indica nada si no se la compara con algún elemento de contraste.Hablar de una sola muestra indica, precisamente, que el elemento decomparación o contraste no es otra muestra sino la población, o algún tipo dedistribución o de supuesto.

    Prueba Chi-cuadrado .

    La prueba ji-cuadrado fue sugerida por Karl Pearson como una formade valorar la bondad del ajuste de unos datos a una distribución deprobabilidad conocida. Desde entonces la prueba ji-cuadrado se haconvertido en una prueba muy aceptada y aplicable a múltiples usos cuandose dispone de datos independientes de tipo nominal. P.e. esta prueba esequivalente a hacer un contraste de hipótesis sobre una proporción (ver tema10) cuando la VD es dicotómica.

    La prueba ji-cuadrado ofrece un test general sobre la existencia dediferencias entre las categorías que agrupan a los datos de la variabledependiente. La H0 indicaría que la proporción de elementoscorrespondiente a cada categoría de la variable independiente es consistentecon una predicción específica. Por el contrario, la H1 representa una clarainconsistencia de los elementos observados en una categoría con respecto ala predicción específica.

    Para su cálculo como primer paso se requiere conocer las frecuenciasempíricas (fe) que corresponden a cada una de las k categorías. Una vezobtenidas estas frecuencias en las distintas categorías o casillas,comparamos el valor de cada una de ellas con el valor esperado o frecuenciateórica (ft) que es de esperar cuando Ho es cierta. El valor esperado puededepender de una distribución teórica determinada con la que queremoscomparar nuestros datos, o bien, sencillamente, reflejar que los datos serepartan por igual entre las distintask categorías. A continuación calculamos

    ( ! 2)

    ! 2 = (fe " f t)2

    f t1

    k

    #

  • 8/17/2019 Apuntes Estadistica II

    41/74

    40

    que se distribuye según un modelo de probabilidad . Luego elcentil 95 de dicha distribución nos dará el punto que delimita la región derechazo de Ho (en ji-cuadrado los contrastes son siempre unilateralesderechos).

    Para poder aplicar esta prueba es necesario el cumplimiento de unaserie de condiciones:

    - si k=2 no debe utilizarse si alguna celdilla tiene una ft2 no debe utilizarse si (a) más del 20% de las celdillas tienenftcuadros de diálogo antiguos > Chi-cuadrado

    Ejemplos en Pardo y Sanmartín, 12.2, pp 553, 530 y 529; San Martín yPardo pp. 78 (ejs. 1 y 2), 82 y 83; Siegel, 66.

    Prueba de Kolmogorov

    Al igual que el test chi-cuadrado es una prueba de bondad de ajuste que seaplica sobre cualquier tipo de datos (cualitativos agrupados en k categorías,semicuantitativos o cuantitativos). La ventaja que tiene sobre el test chi-cuadrado es que no requiere de la satisfación de supuesto teórico alguno por loque es más utilizada que aquella.

    Su significado radica en comparar en todas las categorías la proporción defrecuencias acumuladas teóricas (pfat) que se da cuando Ho es cierta, contra laproporción de frecuencias acumuladas empíricas (pfae) y analizar si el punto demáxima discrepancia entre ambas proporciones hace rechazar Ho o no.

    La prueba de Kolmogorov (así como la de Shapiro-Wilk) es condiciónsuficiente y necesaria para demostrar la normalidad de una distribución dedatos. Ejemplos en San Martín y Pardo pps. 87 y 88.

    Para realizarla en el SPSS: Analizar > Pruebas no paramétricas > Cuadrosde dialogo antiguos > K-S de una muestra

    !2

    k " 1

  • 8/17/2019 Apuntes Estadistica II

    42/74

    41

    Prueba binomial o de los signos.

    Es una prueba de posición aplicada sobre datos cuantitativos osemicuantitativos que serán luego dicotomizados en función de si quedan porencima o por debajo del criterio que establece Ho (los que coinciden con elcriterio se deshechan). A los queden por encima los etiquetaremos con un signo+, mientras que a los que queden por debajo los etiquetaremos con un signo -.Se tratará de ver hasta qué punto el número de signos + y de signos - está dentrode lo predicho por Ho.

    Ejemplos 9.1, pp 419, Pardo y San Martín. Ej. 3.9 pp. 105 y pp. 92 de SanMartín y Pardo

    Para realizarla en el SPSS: Analizar > Pruebas no paramétricas > Cuadrosde dialogo antiguos > binomial

  • 8/17/2019 Apuntes Estadistica II

    43/74

  • 8/17/2019 Apuntes Estadistica II

    44/74

  • 8/17/2019 Apuntes Estadistica II

    45/74

    44

    PRUEBAS NO PARAMETRICAS PARA 2 CONDICIONESRELACIONADAS

    Prueba de WilcoxonLa prueba de Wilcoxon es apropiada cuando se tiene observaciones en

    pares y cuando el tipo de medición responde al menos al modelo ordinal. Laprueba de Wilcoxon es una alternativa poderosa a la paramétrica t para gruposrelacionados.

    Para realizarla en el SPSS: Analizar > Pruebas no paramétricas > Cuadrosde dialogo antiguos > 2 muestras relacionadas

    Ejemplos 9.4, pp 432, Pardo y San Martín; San Martín y Pardo pp. 116,Cuadras, 693, Siegel, 101 y 104.

    Prueba de McNemar

    La prueba de McNemar analiza si existen cambios en una muestra medida dosveces en el tiempo (p.e. en diseños pre-post o antes-después) en una variablecategorial dicotómica, es decir, compara dos proporciones relacionadas. En elSPSS bien a) selecionaremos Analizar > Estadísticos descriptivos > Tablas decontingencia y en Estadísticos seleccionaremos McNemar, o b) Pruebas noparamétricas > Cuadros de dialogo antiguos > 2 muestras relacionadas >McNemar

    Si lasig de McNemar es! .05 querrá decir que hay un cambio significativo en

    entre ambos momentos temporales, mientras que sisig >.05 indicará que no hahabido un cambio significativo.

  • 8/17/2019 Apuntes Estadistica II

    46/74

    45

    PRUEBAS PARA MAS DE 2 MUESTRAS INDEPENDIENTES.

    Prueba de Kruskall-Wallis.La prueba de Kruskal-Wallis es adecuada para analizar los datos derivados

    de más de dos (k) muestras o condiciones experimentales ejecutadas por gruposde sujetos diferentes y cuya VD soporta, al menos, un modelo ordinal. Es decir,esta prueba es adecuada para el análisis de un diseño entre sujetos con más dedos grupos medido al menos ordinalmente. La prueba de Kruskal-Wallis, puedeconsiderarse, por tanto como una alternativa no-paramétrica al Análisis de laVarianza para grupos completamente aleatorizados.

    La estructura de esta prueba es similar a la de Mann-Whitney y elrazonamiento, por tanto, se debe apoyar en los mismos postulados.

    Para realizarla en el SPSS: Analizar > Pruebas no paramétricas > Cuadrosde dialogo antiguos > K muestras independientes

    Si hemos rechazado Ho y quisiéramos hacer pruebas a posteriori lo máscorrecto sería aplicar k(k-1)/2 pruebas de Mann-Whitney pero aplicando lacorrección de Bonferroni, es decir, rechazando en cada una de ellas Ho con

    niveles de riesgo menores o iguales a$ /(k(k-1)/2).Ejemplos 9.5, pp 436, Pardo y San Martín; San Martín y Pardo pp. 229 y

    234, Siegel, 217, 220.

    Prueba de Ji-Cuadrado

    Es la generalización de la prueba de ji-cuadrado de dos muestrasindependientes a tres o más muestras independientes. En el programa SPSSAnalizar > Estadísticos descriptivos > Tablas de contingencia. En Estadísticosseleccionaremos Chi-cuadrado.

    Ejs pps 535, 539 Pardo y San Martín.

  • 8/17/2019 Apuntes Estadistica II

    47/74

    46

    PRUEBAS NO PARAMETRICAS PARA MAS DE 2 CONDICIONESRELACIONADAS.

    Prueba de Friedman

    Puede considerarse como una extensión de la prueba de Wilcoxon. Laprueba de Friedman es una alternativa poderosa al análisis de varianza para ungrupo de sujetos que reciben una variable intra.

    Para realizarla en el SPSS: Analizar > Pruebas no paramétricas > Cuadrosde dialogo antiguos > K muestras relacionadas

    Si hemos rechazado Ho y quisiéramos hacer pruebas a posteriori lo máscorrecto sería aplicar k(k-1)/2 pruebas de Wilcoxon pero aplicando lacorrección de Bonferroni, es decir, rechazando en cada una de ellas Ho conniveles de riesgo menores o iguales a$ /(k(k-1)/2).

    Ejemplos 9.7, pp 445, o 9.16, pp 452, Pardo y San Martín. San Martín yPardo pp. 251, Siegel, 119.

    Prueba de Cochran

    Se utiliza cuando comparamos más de 2 muestras relacionadas y lavariable dependiente es dicotómica.

    Para realizarla en el SPSS: Analizar > Pruebas no paramétricas > Cuadrosde dialogo antiguos > K muestras relacionadas.

    Si hemos rechazado Ho y quisiéramos hacer pruebas a posteriori lo máscorrecto sería aplicar k(k-1)/2 pruebas de McNemar pero aplicando lacorrección de Bonferroni, es decir, rechazando en cada una de ellas Ho conniveles de riesgo menores o iguales a$ /(k(k-1)/2).

  • 8/17/2019 Apuntes Estadistica II

    48/74

    47

    TEMA 6. CONTRASTES EN ASOCIACION YPREDICCION

    1. Inferencia sobre la asociación entre datos categóricos.

    Como ya dijimos en el tema anterior, la información resumida relativa a dosvariables cualitativas o categoriales se presenta en las llamadastablas decontingencia . Para analizar el grado de asociación entre dichas variables seutilizan estadísticos basados en la prueba ji-cuadrado de Pearson (p.e. Phi y Vde Cramer), que analiza el supuesto de independencia de dos variablescategoriales comparando las frecuencias observadas (fo) en cada celdilla de latabla con las frecuencias esperadas (fe) bajo la Ho del supuesto deindependencia, que se calculan así:

    feij = (total de la fila i) x (total de la columna j) / nº total de casos

    Obtenidas las fe para cada celdilla de la tabla de contigencia, calculamos elestadístico ji-cuadrado así:

    ! 2 = " i " j ((fo ij-fe ij)2 / fe ij)

    que sigue una distribución de probabilidad ji cuadrado congl = (filas-1)(columnas-1) de la tabla de contigencia.

    Para poder aplicar este estadístico las fe < 5 no deben de aparecer en más del20% de las celdillas de la tabla de contingencia.

    La prueba de ji-cuadrado también se utiliza para analizar si existen diferenciasentre las proporciones (de una variable dicotómica o dicotomizada) entre dos o

    más muestras independientes: si transformamos dichas proporciones enfrecuencias observadas fo y configuramos una tabla de contingencia 2 (nivelesde la variable dicotómica) x k muestras, la prueba de ji-cuadardo nos dirá siexisten o no diferencias significativas entre dichas muestras en dicha variabledicotómica.

    El programa SPSS nos permite el cálculo de dicho estadísitico así: Analizar >Estadísticos descriptivos > Tablas de contingencia. En Estadísticosseleccionaremos Chi-cuadrado y la Phi yV de Cramer para calcular el grado de

    relación entre las dos variables en una escala de 0 a 1. Si lasig de la Phi o de la

  • 8/17/2019 Apuntes Estadistica II

    49/74

    48

    V de Cramer! .05 querrá decir que los datos no son independientes, es decirque están relacionadas, mientras que sisig > .05 es que son independientes, esdecir que no hay relación entre ambas variables categoriales. Hay que

    comprobar (en la nota a que aparace bajo la tabla de chi-cuadrado) que no másdel 20% de las casillas tengan fe < 5

    Ejs pps 535, 539 Pardo y San Martín.

    2. Inferencia sobre los coeficientes de regresión.

    Un modelo de regresión lineal es una ecuación de primer orden que asocia unavariable dependiente (también llamada criterio), cuantitativa o semicuantitativa,a una o varias (k) variables independientes (también llamados predictores),cuantitativas, semicuantitativas, o cualitativas dicotómicas de acuerdo a unafunción lineal del tipo:

    VD = a + b1VI1 + b2VI2 + ... + bkVIk

    dondea es la constante de la recta (o punto donde dicha recta corta al eje deordenadas cuando la VI vale 0) y lasb representan la proporción de cambio quese observa en la VD por cada unidad de cambio de cada VI.

    Dado que cada VI viene medida en una escala distinta las b no son directamentecomparables entre sí. Para ello el SPPS calcula también lasbetas de losmodelos de regresión (ocoeficientes tipificados o estandarizados , es decir,previa tipificación de las VIs) y que nos sirven además para analizar si laaportación de cada VI es significativa o no para nuestro modelo de regresión (sila sig asociada a una beta es! .05 entonces es significativa, si essig > .05 no loes).

    Estimar un modelo de regresión lineal nos permite pues analizar tresobjetivos principales: 1) analizar si el modelo en su conjunto (es decir con todas las VIsseleccionadas) es predictivo o no, viendo la R2 (que nos dice el porcentaje devarianza de la VD que explican las VIs) y la sig del ANOVA (si sig! .05entonces el modelo es predictivo); 2) analizar el papel relativo que cada VI juega en el modelo (viendo las betas y su significación: si la sig de una beta! .05 entonces dicha VI debe de ser incluida en el modelo, en caso contrariopuede ser eliminada); 3) una vez comprobado que el modelo es predictivo,utilizarlo para pronosticar las puntuaciones en la VD de nuevos sujetos de los

    que disponemos sus puntuaciones en las VIs, sustituyendo sus valores en la

  • 8/17/2019 Apuntes Estadistica II

    50/74

    49

    ecuación de regresión.

    Para hacer un modelo de regresión lineal en el SPSS seleccionaremos Analizar

    > Regresión > Lineales, eligiendo la variable criterio (VD) y la(s) variablespredictoras (VIs). En Estadísticos elegiremos Durbin-Watson, Diagnóstico deColinealidad. EnGuardar : residuos no tipificados. EnOpciones : Valoresperdidos: reemplazar por la media.

    Por ejemplo imaginemos que en el fichero GSS93 queremos predecir losingresos del encuestado en función de estas 5 VIs: años de escolarización, edaddel encuestado, título escolar del padre, título escolar de la madre y horas diariasviendo TV. Obtendremos los siguientes resultados:

    Resumen del modelo b

    Modelo R R cuadradoR cuadrado

    corregidaError típ. de la

    estimación Durbin-Watson1 ,459 a ,210 ,205 4,754 1,887

    ANOVA b

    ModeloSuma de

    cuadrados glMedia

    cuadrática F Sig.1 Regresión 4451,974 5 890,395 39,392 ,000 a

    Residual 16703,911 739 22,603Total 21155,885 744

    Coeficientes a

    odeloCoeficientes no estandarizados

    Coeficientes

    tipificadost Sig.B Error típ. Beta

    (Constante) ,655 1,191 ,550 ,5 Años de escolarización ,643 ,068 ,344 9,395 ,0Título escolar del padre ,044 ,178 ,010 ,249 ,8Título escolar de la madre ,043 ,229 ,008 ,190 ,8Edad del encuestado ,097 ,015 ,225 6,564 ,0Horas diarias viendo TV -,433 ,095 -,154 -4,554 ,0

  • 8/17/2019 Apuntes Estadistica II

    51/74

    50

    Nos indicarían que el ajuste global del modelo es significativo (sig=.0001), quedicho modelo explica el 21% de la varianza de la VD (a su vez R=.459 es lacorrelaciónr entre Y e Y', es decir, entre los valores reales en Y y lospronosticados por el modelo de regresión, respectivamente), y que las variablestítulo escolar del padre y de la madre no aportan nada al mismo, por lo quepodríamos eliminarlas. La beta de años de escolarización indica que por cadaaño de escolarización los ingresos aumentan en 0.344 unidades; la beta de edad

    indica que cada año aumenta los ingresos e .225 unidades y la beta de horasviendo TV indica que por cada hora de promedio diaria que se ve la TV losingresos disminuyen en .154 unidades.Este mismo procedimiento de análisis es aplicable a otros modelos de regresiónno lineal.

    Aspectos a tener en cuenta a la hora de estimar un modelo de regresión.

    a) Un modelo de regresión descansa sobre unossupuestos teóricos que han deser verificados y tenidos en cuenta:

    a1) se asume que la relación entre los variables implicadas en el modelo hade ser lineal, aunque este supuesto casi siempre se da por válido sinanalizarlo

    a2) los residuos (Yi-Yi') han de ser independientes unos de otros, es decir

    no han de estar autocorrelacionados. En el SPSS este supuesto lo podemoscomprobar mediante el cálculo estadístico de Durbin-Watson (Analizar >

    Regresión Lineales > Estadísticos: Residuos > Durbin-Watson) que debe

  • 8/17/2019 Apuntes Estadistica II

    52/74

    51

    darnos valores comprendidos entre 1.5 y 2.5 para que se cumpla dichosupuesto. En nuestro ejemplo dicho estadístico vale 1.887 luego hay

    independiencia en los residuos.

    a3) la distribución de los residuos (Yi-Yi') ha de ser normal con media = 0.

    En el SPSS este supuesto lo podemos comprobar en Gráficos: Gráficos deresiduos tipificados > Histograma y hacer una interpretación visual delmismo. O también podemos pedirle al SPSS que nos guarde los residuos

    como una nueva variable (primero en Analizar > Regresión Lineales >Estadísticios > Residuos > Diagnóstico por casos >Todos los casos , y acontinuación en Guardar > Residuos > no tipificados) y a continuaciónhacer un test de normalidad de Kolmogorov-Smirnov o de Shapiro-Wilksobre ellos (Analizar > Estadísticos descriptivos > Explorar > Gráficos >Gráficos con pruebas de normalidad).

    a4) No debe de haber colinealidad entre las distintas VI, es decir, no debende estar muy correlacionadas entre sí. En el SPSS este supuesto lopodemos comprobar mediante Analizar > Regresión Lineales >Estadísticos > Diagnósticos de la colinealidad. En la tabla de Resultadosetiquetada como "Diagnósticos de colinealidad" ningún "índice decondición" debería superar el valor 15 para que se cumpla de forma óptimael supuesto de no colinealidad (de 15 a 30 puntos indica colinealidadcreciente, pero en ningún caso podremos aceptar un modelo con índices decondición superiores a 30 puntos). Además en "proporciones de varianza"debería de haber sólo una correlación alta por columna, siendo el restobajas. Si se incumple este supuesto podríamos: 1) aumentar el tamaño de lamuestra; 2) eliminar las VI redundantes o 3) promediar dichas VIs. En

  • 8/17/2019 Apuntes Estadistica II

    53/74

    52

    nuestro ejemplo, sólo el índice de condición igual a 18.29 parece indicarcierta colinealidad entre las variables (aunque está alejado del valor crítico

    30), pero las proporciones de varianza parecen correctas, por lo que engeneral podemos decir que no hay colinealidad en nuestros datos:

    Para comprender mejor el papel que juega la colinealidad entre las VIs es útilpedirle también al SPPS en la opción Estadísticos que calcule las correlacionesparciales y semiparciales. En nuestro ejemplo:

    Coeficientes a

    ModeloCorrelaciones

    Orden cero Parcial Semiparcial1 (Constante)

    Años de escolarización ,368 ,327 ,307Título escolar del padre ,087 ,009 ,008Título escolar de la madre ,096 ,007 ,006Edad del encuestado ,194 ,235 ,215Horas diarias viendo TV -,252 -,165 -,149

    Las correlaciones de orden cero son la r de cada VI con la VD. La correlaciónparcial nos indica la r de cada VI con la VD tras eliminar de ambas el efecto delresto de VIs (es decir, tras eliminar la colinealidad). La semiparcial indica la rentre la VD y la VI, quitando el efecto que sobre la VD tienen el resto de VIs.

    b) Antes de calcular un modelo de regresión debemos prestar especial atencióna los 'datos anómalos' (outliers ; p.e. los que se salen del rango media ± 3desviaciones típicas) tanto en la VD como en las VI, dado que uno sólo dedichos datos puede cambiarnos el poder predictivo del modelo de regresión

    drásticamente. Dichos datos pueden ser motivados por distintas causas: un error

  • 8/17/2019 Apuntes Estadistica II

    54/74

    53

    en la transcripción, un sujeto anómalo o muy excepcional, etc. Es muyimportante antes de calcular el modelo de regresión identificar y decidir quéhacer con dichos datos anómalos (eliminarlos, retenerlos,...).

    c) La situación ideal para un modelo de regresión es aquella donde observandola matriz de correlaciones entre todas las variables (criterio y predictoras)observamos correlaciones altas entre cada una de las variables predictoras con elcriterio pero bajas entre sí. En tal caso todas dichas VI deben ser incorporadas almodelo. Muy comúnmente sin embargo se dan además intercorrelaciones altasentre las VIs, en tal caso puede llegar a darse el caso decolinealidad entre ellas(ver lo dicho arriba en el punto a4)

    d) Con respecto al número ideal de predictores hay que decir lo siguiente:

    d.1. La ratio tamaño de la muestra / número de predictores es crucial a lahora de poder generalizar nuestro modelo. Stevens propone un mínimo de15 sujetos por cada VI que incorporemos a la ecuación de regresión

    d.2. Para resolver el problema del número ideal de predictores el métodomás adecuado es llevar a cabo un procedimiento de 'regresión escalonada opor pasos' (stepwise regression ), de la hay que distintas versiones: a) Elmétodo de regresión escalonada hacia atrás consiste en tomar al principiotodas las variables predictoras e ir eliminando de la ecuación de regresióntodas aquellas que no aporten nada significativo al modelo (observando laimportancia relativa de las betas de las distintas variables predictoras yeliminando de la ecuación de regresión aquellas VIs con betas nosignificativas). En la regresión escalonada hacia adelante se van añadiendouna a una las distintas VIs al modelo de regresión comenzando por las quemás correlacionen con la VD hasta llegar a un punto en que añadir nuevasVIs no aporten una mejoría significativa la modelo.

    Hay que tener en cuenta aquí también la llamada desigualdad deBonferroni, según la cual$ aumenta de forma progresiva a medida quevamos incluyendo más predictores. Al respecto Stevens (pp. 68-69) llega aproponer contrastar la significatividad de R con niveles de riesgo$ /p,siendo p el número de variables predictoras que incorporamos al modelo.

    d.3. Por último hay que decir que a igualdad de condiciones es preferibleun modelo con pocas variables predictoras que con muchas (Stevens, pp99).

  • 8/17/2019 Apuntes Estadistica II

    55/74

    54

    TEMA 7. INTRODUCCION A LA ESTADISTICAMULTIVARIADA.

    En un sentido estricto las técnicas estadísticas multivariadas son aquellas queanalizan más de una variable dependiente (como ocurre p.e. cuando trabajamoscon encuestas, tests o cuestionarios). Se pueden dar varias importantes razonespara justificar el uso de tales técnicas. Por ejemplo: En muchas ciencias, y enconcreto en la Psicología, pocas veces la medición de una sola conducta reflejade forma precisa el influjo de las variables que la modulan, más bien en nuestraciencia ocurre que 'todas las variables afectan a todas la variables'. Es decir muya menudo es necesario conocer las intercorrelaciones que se dan entre ampliosconjuntos de variables. El uso de las técnicas multivariadas ha aumentadomucho debido a la accesibilidad al uso de paquetes estadísticos computerizados.

    Se encuadran aquí un amplio conjunto de técnicas estadísticas:

    (a) técnicas de agrupación o de reducción de datos, cuyo objetivo esresumir o sintetizar la información contenida en un conjunto de n variablesa un conjunto menor de m variables distintas (tal que m

  • 8/17/2019 Apuntes Estadistica II

    56/74

    55

    TÉCNICAS DE AGRUPACIÓN DE DATOS: EL ANALISISFACTORIAL (AF) O DE COMPONENTES PRINCIPALES (ACP)

    El AF (no confundir con Análisis de la Varianza ni con ANOVA factorial) es unmétodo estadístico desarrollado por Thurstone que permite explicar n variablesX1, ..., Xn mediante un reducido número de m variables latentes (hipotéticas)llamadas factores F1,...Fm tal que m

  • 8/17/2019 Apuntes Estadistica II

    57/74

    56

    Se puede apreciar como si tales 6 variables en realidad midiesen sólo dos cosas

    tal y como muestran los dos grupos de correlaciones significativas. El resultadode aplicar un AF (de componentes principales) sobre tal matriz es la siguientematriz factorial o de componentes (en SPSS > Analizar > Reducción dedimensiones > Factor):

    Pruebas F1 F2 h2 __________________________V .83 .01 .70L .79 .10 .63I .70 .10 .50A .10 .70 .50F .10 .79 .63Q .01 .83 .70__________________________) 1.8231 1.8231% var 30.385 30.385 __________________________en negrita p

  • 8/17/2019 Apuntes Estadistica II

    58/74

    57

    de varianza de R expresada por Fi .

    No existen criterios unívocos para determinar cuándo un factor es significativo

    o cuando puede ser desechado de la matriz factorial. Muy comúnmente en AFse suelen considerar como factores significativos aquellos con) " 1 (criterio deKaiser), pero podemos optar también por desechar aquellos cuya varianzaexplicada no alcance un valor mínimo (p.e. del 15%). Por defecto el SPSSextrae los factores con autovalores mayores de 1 (criterio de Kaiser).

    Existen infinitas soluciones factoriales para una misma matriz de datos. Laforma de conseguir una sola solución es imponer ciertos criterios que definenotros tantos tipos de AF (de componentes principales, centroide, de máxima

    verosimilitud, tipo de rotación, etc).

    Rotaciones ortogonales y oblicuas.

    Como señaló Thurstone en la mayoría de los casos es difícil encontrar unamatriz factorial que defina unos factores claramente interpretables. La finalidadde la rotación es conseguir dar una mayor capacidad explicativa a los factores(principio de parsimonia). Con las ideas de estructura simple y de rotación delos factores intentó Thurstone resolver el problema.

    Una forma simple de entender el concepto de rotación factorial es concebir unespacio de m dimensiones ortogonales y representar en él las distintas cargasfactoriales de la matriz factorial. P.e. podemos representar la matriz factorial denuestro ejemplo sobre los dos factores hallados (izquierda) y rotarlos luego(manteniendo su ortogonalidad) un determinado número de grados$ (derecha):

  • 8/17/2019 Apuntes Estadistica II

    59/74

    58

    Como se puede apreciar la posición de las 6 variables en el espacio bifactoriales la misma, pero al rotar los ejes cambian sus coordenadas de proyección(cargas factoriales). Pues bien el objetivo de la rotación factorial es dar con unaposición idónea de los factores sobre los que proyectar las variables,maximizando algunas saturaciones (aunque sea en detrimento de otras) para quelos factores comunes queden destacados. En nuestro ejemplo es la figura de la

    izquierda la solución rotada mejor.La equivalencia entre una solución ortogonal rotada y no rotada se aprecia enque las comunalidades de las distintas variables siguen siendo las mismas,debido a que como queda dicho la solución factorial nunca es única. En nuestroejemplo:

    ROTADA NO ROTADAPruebas F1 F2 h2 F1 F2

    ________________________________________V .83 .01 .70 .60 -.58L .79 .10 .63 .63 -.49I .70 .10 .50 .56 -.43A .10 .70 .50 .56 .43F .10 .79 .63 .63 .49Q .01 .83 .70 .60 .58_________________________________________

    Sin embargo se puede apreciar que los autovalores varían.

    Existen diversos métodos de rotación ortogonal (varimax, quartimax,...).

    F1

    F2

    1

    0.20 .40 .60 .80 1

    .80

    .60

    .40

    .20

    V LI

    A FQ

    F1

    F2

    VLI

    A FQ

  • 8/17/2019 Apuntes Estadistica II

    60/74

    59

    En las rotaciones oblicuas (menos utilizadas) se permite que los factores dejende ser ortogonales, es decir que sean correlacionados. Los factores oblicuos son

    entonces variables correlacionadas entre sí.Para orientar al investigador en sus técnicas de rotación Thurstone desarrollócinco principios aplicables tanto a rotaciones ortogonales como oblicuasconocidos como el'Principio de Estructura Simple' y que definen la soluciónfactorial óptima:

    1) Cada fila de la matriz factorial debe de tener al menos una carga cercanaa 0.2) En cada columna debe de haber, por lo menos, tantas cargas cercanas a0 como factores haya.3) Entre cada par de columnas debe de haber cargas altas en un factor ybajas en el otro (o a la inversa).4) Ante 4 o más factores es interesante que una gran proporción devariables tengan cargas cercanas a 0 ante cada par de factores5) En cualquier par de columnas de la matriz factorial debe de haber unnúmero pequeño de variables con cargas altas en ambas.

    Estos criterios buscan encontrar variables 'puras', es decir, que saturen mucho enalgunos factores y muy poco en otros en aras de facilitar la interpretación de losresultados.

    AF de segundo orden.

    Si correlacionamos las cargas factoriales de la matriz factorial A obtenidas trashaber llevado a cabo un AF, y a su vez factorizamos dicha matriz decorrelaciones habremos llevado a cabo un AF de segundo orden. En élutilizamos los factores de primer orden como si fueran variables empíricas enaras de encontrar "factores detrás de los factores". El factor G de Spearman o elrasgo introversión-extroversión de Cattel han sido hallados de este modo.

    AF exploratorio y AF confirmatorio.

    Como acabamos de ver, generalmente el objetivo del AF es explorar ladimensionalidad subyacente a un cierto número de variables empíricas del

    modo más sencillo posible (AF exploratorio o simplemente AF). Sin embargo

  • 8/17/2019 Apuntes Estadistica II

    61/74

    60

    otras veces el análisis se realiza con un conocimiento previo del número y/oestructura de los factores denominándose AF confirmatorio, pues pone a pruebasi la hipótesis formulada a priori es cierta o no. Dicha hipótesis se plantea bien

    sobre el número de factores, su naturaleza (oblicuos, ortogonales, mixtos) osobre las saturaciones de l