métodos de diseño y análisis de experimentos iiniciador del analisis y dise´ no de experimentos,...

82
etodos de Dise ˜ no y An ´ alisis de Experimentos I Patricia Isabel Romero Mares Departamento de Probabilidad y Estad´ ıstica IIMAS UNAM enero 2020 1 / 82

Upload: others

Post on 19-Mar-2020

11 views

Category:

Documents


1 download

TRANSCRIPT

Metodos de Diseno y Analisis deExperimentos I

Patricia Isabel Romero Mares

Departamento de Probabilidad y EstadısticaIIMAS UNAM

enero 2020

1 / 82

Introduccion

Criterios de clasificacion de investigaciones

• Segun el proposito son Descriptivos o Comparativos

• Segun la evolucion son Transversales o Longitudinales

• Segun la fuente de informacion son Prospectivos oRetrospectivos

• Segun el control del investigador son Observacionales oExperimentales

2 / 82

Introduccion

• Experimento

• Estudio comparativo, 2 o mas poblaciones• Longitudinal• Prospectivo• Experimental

• Psudoexperimento o Cuasiexperimento

• El investigador solo observa el fenomeno, es observacionalen lugar de experimental

3 / 82

Introduccion

Estadıstica: Ciencia para recolectar, analizar y obtenerconclusiones de un conjunto de datos.

Los datos se recolectan a traves de encuestas por muestreo,estudios observacionales o experimentos.

Encuestas por muestreo: Estimar alguna caracterıstica de unapoblacion finita sin medir a todos los elementos de la poblacion(censo).

Estudios observacionales y experimentos: Determinar larelacion entre dos o mas caracterısticas en una poblacionconceptual (infinita).

4 / 82

Introduccion

R.A. Fisher, en la decada de los 20’s del siglo pasado, fue eliniciador del Analisis y Diseno de Experimentos, conexperimentos en Inglaterra en el area de agricultura.

De ahı se generalizaron al area de Medicina.

En la decada de los 80’s, tambien del siglo pasado, tuvieron unauge en la Industria, cuando surgio la escuela de Taguchi deControl de Calidad de procesos industriales.

5 / 82

Introduccion

En un experimento se consideran todas las variables relevantesque intervienen en el fenomeno, mediante la manipulacion delas que presumiblemente son su causa, el control de lasvariables extranas y la aleatorizacion de las restantes.

Se utilizan los experimentos para contestar preguntas,comparando varias situaciones generadas por variablesrelevantes (tratamientos).

6 / 82

Introduccion

Ventajas de los experimentos

• Los experimentos nos permiten hacer una comparaciondirecta entre los tratamientos de interes

• Podemos disenar experimentos para minimizar cualquiersesgo en la comparacion

• Podemos disenar experimentos para que el error en lacomparacion sea pequeno

• Lo mas importante, tenemos el control en losexperimentos, lo que nos permite tener inferencias massolidas acerca de la naturaleza de las diferencias queveamos, especıficamente, podemos hacer inferenciasacerca de causalidad

7 / 82

Introduccion

Los experimentos se realizan en muchas areas deinvestigacion, algunos ejemplos son:

Veterinaria. Se desea saber cual de cuatro dietas diferentesA,B,C y D proporciona mayor ganancia de peso en cerdos.

Biologıa. Se desea saber cual es el efecto en el crecimientode las plantas de centeno de la aplicacion de ciertas dosis deradiacion en presencia de uno de tres radioprotectores.

Agricultura. Se desea saber cual es el mejor fertilizante de ungrupo de cinco, en cuanto a rendimiento de plantas de maız.

Industria. Se desea comparar la eficiencia de tres maquinasde hilados. La eficiencia se mide como un ındice entre eltiempo que tarda la maquina en hilar una tela de cierto tamanoentre el numero de errores.

8 / 82

Introduccion

Medicina. Se desea investigar el funcionamiento de ciertadroga para aliviar el dolor de cabeza.

Experimento. Es un tipo de investigacion en el que se hacencambios a las variables bajo estudio y se observan los efectosde estos cambios.

El diseno estadıstico de experimentos es el proceso de“planear” el experimento de tal manera que se puedananalizar por metodos estadısticos los datos recolectados yque resulten en conclusiones objetivas y validas.

9 / 82

Lineamientos para disenar experimentos

1. Reconocimiento y establecimiento del problema.

Esto se hace preferentemente por un equipointerdisciplinario con un estadıstico en el.

• En el ejemplo de agricultura.

Cual de los cinco fertilizantes produce mayor rendimientoen las plantas de maız de cierto tipo definido?

Estos cinco fertilizantes modifican su accion segun el tipode maız?. Hay interaccion?

Que dosis de fertilizante es mas efectiva para aumentar elrendimiento?

10 / 82

Lineamientos para disenar experimentos

2. Definir factores, niveles. Equipo interdisciplinario.

• Factor: es la caracterıstica que controlaremos, cuyo efectoqueremos estudiar.En el ejemplo, un solo factor: Fertilizante.

• Nivel: es la categorıa (modalidad) estudiada del factor.En el ejemplo, cinco niveles: fertilizante A, B, C, D y E.

• Tratamiento: Combinacion de niveles de los factoresestudiados. Otro ejemplo,

Factor fertilizante: A,B,C,D,E.

Factor Cantidad de agua: 1,2,3.

Tratamientos: A1, B1,...,E3.

11 / 82

Lineamientos para disenar experimentos

Es importante considerar un tratamiento que es no recibirningun fertilizante o recibir el habitual, a este se le llama:

tratamiento testigo o control.

12 / 82

Lineamientos para disenar experimentos

3. Definir la unidad experimental (u.e.)

La unidad experimental es la subdivision menor delmaterial experimental que puede recibir un tratamiento enforma independiente.

13 / 82

Lineamientos para disenar experimentos

Submuestras. Cuando la u.e. esta compuesta de unidadesobservacionales mas elementales, a estas se les llamasubmuestras.

Por ejemplo, la u.e. es un grupo de alumnos, la unidadobservacional es el alumno y se mide a cada uno de ellos.

Las mediciones en las submuestras generalmente estancorrelacionadas y no pueden ser tratadas como observacionesindependientes.

14 / 82

Lineamientos para disenar experimentos

4. Definir la variable de respuesta.

La variable de respuesta es lo que se va a medir en cadaunidad experimental.

Se debe estar seguro que de informacion util acerca delfenomeno estudiado.

En el ejemplo, Kg. de maız

No es raro que se mida mas de una variable de interesprimario: kg. de maız, kg. de hojas, etc.

15 / 82

Lineamientos para disenar experimentos

Se debe tener cuidado en la toma de las mediciones paraeliminar sesgos introducidos por operaciones conscientes oinconscientes.

En medicina, se recomienda que ni los sujetos (u.e.) ni losmedicos que toman las mediciones conozcan los tratamientosasignados a cada u.e., a esto se le llama metodo de dobleciego.

16 / 82

Lineamientos para disenar experimentos

5. Eleccion del diseno experimental.

El diseno experimental es la forma de asignar lostratamientos a las unidades experimentales.

El diseno determina el modelo y el analisis estadıstico aseguir.

Aleatorizacion. Introducida por Fisher, sirve para“controlar” factores de variacion (de confusion) no incluidaen el modelo en forma explıcita. Se busca eliminar sesgossistematicos y justificar la independencia de los errores.

17 / 82

Lineamientos para disenar experimentos

Otro ejemplo en Agronomıa:

Aleatorizamos dentro de cada bloque (una restriccion a laaleatorizacion). Cada uno de los tratamientos los tenemos encada una de las dos condiciones de terreno.

18 / 82

Lineamientos para disenar experimentos

5. Eleccion del diseno experimental.

Un bloque es un grupo de u.e. mas o menos homogeneas.

El uso de bloques es la inclusion en el diseno (modelo) deun factor que, aunque no es de interes, se sabe que puedecausar una fuerte variacion en las u.e.

En general, los factores de bloqueo mas importantes sonlas posiciones en el tiempo y en el espacio.

El uso de bloques tiene como objetivo el control defactores de variacion en forma explıcita en el modelo,disminuyendo ası la varianza de los errores.

19 / 82

Lineamientos para disenar experimentos6. Determinacion del numero de repeticiones.

Las repeticiones (replicas) son el numero de u.e. a las quese les aplica, en forma independiente, un mismotratamiento.

• Dan una estimacion de la varianza del error experimental• Incrementan la precision del experimento. A mayor numero

de repeticiones menor la varianza de los estimadores.

7. Hacer el experimento y colectar datos.

El estadıstico solo asesora.

8. Efectuar el analisis estadıstico.

9. Obtencion de conclusiones.

El estadıstico auxilia.

20 / 82

Error experimental

El error experimental describe la variacion entre u.e. identica eindependientemente tratadas.

Se origina por:1. Variacion natural entre u.e.2. Variabilidad en la medicion de la respuesta3. Incapacidad de reproducir las condiciones de los

tratamientos exactamente de una u.e. a otra4. Interaccion de tratamientos y u.e.5. Cualquier otro factor externo que afecte las caracterısticas

medidas

21 / 82

Error experimental

Lo que se busca es tener un diseno del experimento queminimice el efecto del error experimental.

Hay ciertos aspectos del diseno que hacen esto y que veremosmas adelante. Aleatorizacion, repeticion y bloqueo.

22 / 82

Repaso

23 / 82

Repaso

Una variable es la caracterıstica numerica de interes que semide en los resultados de un estudio, puede ser la respuesta auna pregunta de un cuestionario, la medicion de algunacaracterıstica de interes.

Se llama variable aleatoria (v.a.) cuando se esta trabajandocon fenomenos aleatorios (aquellos en que no se sabepreviamente cual es el resultado). Denotemos por X una v.a. yx un valor especıfico que toma la v.a.

Variable aleatoria discreta, cuando solo puede tomar valoresdiscretos.

Variable aleatoria continua, cuando puede tomar cualquiernumero real en algun intervalo.

24 / 82

Repaso

Una v.a. esta completamente especificada por su distribucionde probabilidad asociada al conjunto de valores posibles, lacual se describe a traves de la funcion de densidad (deprobabilidad).

Sea fX(x) la funcion de densidad de una v.a. X. Para a y b dosconstantes reales tales que a < b, la probabilidad de obtener unvalor de X entre a y b es

P(a < X < b) =∫ b

afX(x)dx.

25 / 82

Repaso

Las funciones de densidad deben satisfacer dos condiciones:

fX(x)≥ 0 ∀x∫∞

−∞

fX(x)dx = 1

26 / 82

Repaso

La media o valor esperado de una v.a. X, se define (para v.a.continuas) como:

E(X) =∫

−∞

x fX(x)dx.

La media es una medida de localizacion.

La varianza de una v.a., V(X), se define como:

V(X) = E{[X−E(X)]2

}V(X) = E

[X2−2XE(X)+E(X)2]= E(X2)−E(X)2

E(X2) = E(X)2 +V(X)

27 / 82

Repaso

Media y varianza de sumas de variables aleatorias.

Sean a, b y c constantes reales y sean X y Y v.a.independientes, entonces:

E(aX+bY + c) = aE(X)+bE(Y)+ c

V(aX+bY + c) = a2V(X)+b2V(Y).

28 / 82

Repaso

El objetivo de la inferencia estadıstica es obtener conclusionesacerca de una poblacion usando una muestra de esapoblacion.

Muestra aleatoria. Sean n variables aleatorias X1,X2, . . . ,Xn

independientes, todas con la misma funcion de densidad fX(x).Se dice que X1,X2, . . . ,Xn es una muestra aleatoria de tamano nde fX(x). La densidad conjunta de las n variables aleatorias es:

g(x1,x2, . . . ,xn) = f (x1)f (x2) · · · f (xn)

Nota. X1,X2, . . . ,Xn son v.a.i.i.d. y forman unamuestra aleatoria de f (x)

29 / 82

Repaso

Estadıstica. Una funcion de la muestra que no contieneparametros desconocidos.

Estimador. Es una estadıstica utilizada para estimar unparametro desconocido de la poblacion.

Estimacion. Es un valor numerico particular de un estimador,calculado en una muestra.

30 / 82

Repaso

Hay algunas caracterısticas que se requieren para ser un buenestimador. Dos de las mas importantes:

1. Insesgamiento. Un estimador es insesgado cuando suvalor esperado es el parametro que esta estimando.Aunque es deseable el insesgamiento, esta propiedad porsi sola no garantiza un buen estimador.

2. Varianza mınima. El estimador de varianza mınima tieneuna varianza que es menor que la de cualquier otroestimador del parametro.

31 / 82

Repaso

Suponga y1,y2, . . . ,yn una m.a. de fY(y) con E(yi) = µ yV(yi) = σ2.

Sean y = ∑ni=1 yin y S2 = ∑

ni=1(yi−y)2

n−1 dos estimadores.

E(y) = E(

∑ni=1 yi

n

)=

1n

E

(n

∑i=1

yi

)

=1n

n

∑i=1

E(yi)

=1n

nµ = µ

y es un estimador insesgado de µ.

32 / 82

Repaso

E(S2) = E

[n

∑i=1

(yi− y)2

n−1

]

=1

n−1E

[n

∑i=1

(yi− y)2

]=

1n−1

E [SS]

donde SS = ∑ni=1(yi− y)2 es la Suma de Cuadrados corregida

de las observaciones.

E (SS) = E

[n

∑i=1

(yi− y)2

]

= E

[n

∑i=1

y2i −ny2

]

=n

∑i=1

E(y2i )−nE(y2)

33 / 82

Repaso

Por otro lado:

V(y) = E[(y−E(y))2]

= E[y2−2yE(y)+ [E(y)]2

]= E

[y2]−2E(y)E(y)+ [E(y)]2

= E[y2]− [E(y)]2

σ2 = E

[y2]−µ

2

por lo tanto

E(y2) = σ2 +µ

2

34 / 82

RepasoY por otro:

V(y) = V

(1n

n

∑i=1

yi

)=

1n2 V

(n

∑i=1

yi

)

=iid 1n2

n

∑i=1

V(yi)

=1n2 nσ

2 =σ2

n.

Entonces,

V (y) = E(y2)− [E(y)]2

E(y2) = V(y)+ [E(y)]2

= σ2/n+µ

2.

35 / 82

RepasoRegresando,

E (SS) =n

∑i=1

E(y2i )−nE(y2)

=n

∑i=1

(µ2 +σ2)−n(µ2 +σ

2/n)

= nµ2 +nσ

2−nµ2−σ

2

= (n−1)σ2

Por lo tanto,

E(S2)= 1

n−1E (SS) =

1n−1

(n−1)σ2 = σ2

S2 es un estimador insesgado de σ2.

36 / 82

Repaso

Distribucion muestral.

Es la distribucion de probabilidad de una estadıstica.

Se puede determinar la distribucion muestral de unaestadıstica si conocemos la distribucion de probabilidad de lapoblacion de la que se extrajo la muestra.

37 / 82

Distribuciones (algunas)

38 / 82

NormalSi y∼ N(µ,σ2) entonces:

f (y) =1

σ√

2πe−

12σ2 (y−µ)2

−∞ < y < ∞

−∞ < µ < ∞

σ2 > 0

5 10 15 20

0.1

0.2

0.3

0.4

NH10,9L

NH10,4L

NH10,1L

39 / 82

Normal

Caracterısticas

1. Es simetrica respecto a su media2. Media, mediana y moda son iguales

Entre (µ−σ ,µ +σ) esta aproximadamente el 68% del areabajo la curva.

Entre (µ−2σ ,µ +2σ) esta aproximadamente el 95% del areabajo la curva.

Entre (µ−3σ ,µ +3σ) esta aproximadamente el 99% del areabajo la curva.

40 / 82

Normal

Si y∼ N(µ,σ2) entonces:

z =y−µ

σ∼ N(0,1)

A la distribucion N(0,1) se le llama normal estandar ycomunmente se utiliza la letra Z para denotar a una variablecuya distribucion de probabilidad es la N(0,1).

fZ(z) =1√2π

e−z2

2 −∞ < z < ∞

41 / 82

Normal

Media y varianza de una muestra aleatoria normal.

Sea X1,X2, . . . ,Xn una muestra aleatoria de una distribucionN(µ,σ2).

Sea X la media muestral y S2 la varianza muestral, es decir,

X =1n

n

∑i=1

Xi, S2 =1

n−1

n

∑i=1

(Xi− X

)2.

X ∼ N(µ,σ2/n)

(n−1)S2

σ2 ∼ χ2n−1

42 / 82

Normal

Existen tablas construidas para la Normal estandar queproporcionan el area bajo la curva en ciertas regiones.

Ejemplos de determinacion de probabilidades en N(0,1) con R:

P[0 < z < 2] = P[z < 2]−P[z < 0]

= pnorm(2)−pnorm(0)

= 0.97725−0.5 = 0.47725

43 / 82

Normal

P[z≥ 2.71] = 1−P[z < 2.71]

= 1−pnorm(2.71)

= 1−0.9972 = 0.0028

P[|z|> 1.96] = P[z <−1.96]+P[z > 1.96]

= pnorm(−1.96)+1−P[z < 1.96]

= 0.025+1−pnorm(1.96)

= 0.025+1−0.975 = 0.05

44 / 82

Normal

Ejemplos de obtencion de porcentiles en N(0,1).

Obtener el porcentil 2.5; el porcentil 2.5 es el valor de z quedeja a su izquierda una area de 0.025, es decir, encontrar elvalor de z tal que P[z < P2.5] = 0.025.

45 / 82

Normal

Con R:P2.5 = qnorm(0.025) =−1.96

Obtener los porcentiles que, entre ellos, se encuentra una areadel 99% en el centro de la distribucion.

P0.005 = qnorm(0.005) =−2.57

P0.995 = qnorm(0.995) = 2.57

Otro ejemplo,Suponga que el IQ tiene aproximadamente una distribucionnormal con media 100 y desviacion estandar 16.

Sea X = IQ de una persona, X ∼ N(100,162)

46 / 82

Normal

Cual es la probabilidad de que una persona tenga un valor deIQ de al menos 120?

En R:

P[X > 120] = 1−P[X < 120] = 1−pnorm(120,100,16)

= 1−0.89 = 0.11

P[X > 120] = pnorm(120,100,16,FALSE) = 0.11

47 / 82

Normal

Cual es la probabilidad de que una persona tenga un IQ demenos de 84?

En R:P[X < 84] = pnorm(84,100,16) = 0.16

Cual es el valor de IQ que solo el 1% de la poblacion tienevalores mayores que el? Es decir, encontrar el valor de P.99,P[X < P.99] = 0.99.En R:

P.99 = qnorm(0.99,100,16) = 137.22

48 / 82

Ji-cuadrada

Una distribucion muestral que se puede definir a traves de v.a.normales es la distribucion Ji-cuadrada χ2

Si Z1,Z2, . . . ,Zk son v.a.i.i.d. N(0,1) entonces:

X = Z21 +Z2

2 + . . .+Z2k

tiene una distribucion χ2k .

La densidad tiene la forma:

f (x) =1

2k/2Γ( k2)

xk/2−1e−x/2 x > 0

dondeΓ(z) =

∫∞

0tz−1e−tdt

49 / 82

Ji-cuadrada

5 10 15 20 25 30

0.025

0.05

0.075

0.1

0.125

0.15

ΧH15L

ΧH10L

ΧH5L

50 / 82

Ji-cuadrada

La distribucion es asimetrica con µ = k y σ2 = 2k.

Un ejemplo de v.a. con distribucion Ji-cuadrada es el siguiente:

Suponga que y1,y2, . . . ,yn es una m.a. de N(µ,σ2), entonces:

SSσ2 =

∑ni=1(yi− y)2

σ2 ∼ χ2n−1

51 / 82

t-Student

Si Z tiene distribucion normal estandar y X tiene distribucion χ2k

y Z y X son independientes, entonces la v.a.

T =Z√X/k∼ tk

La funcion de densidad tiene la forma:

f (t) =Γ[(k+1)/2]√

kπΓ(k/2)1

[(t2/k)+1](k+1)/2 −∞ < t < ∞

La distribucion es simetrica con µ = 0 y σ2 = k/(k−2) parak > 2.

52 / 82

t-Student

-6 -4 -2 2 4 6

0.1

0.2

0.3

0.4

tH30L

tH2L

tH1L

53 / 82

t-Student

Un ejemplo de v.a. con distribucion t es:

Si y1,y2, . . . ,yn es una m.a. de N(µ,σ2) entonces:

t =y−µ

S/√

n∼ tn−1

donde,

S =

√∑

ni=1(yi− y)2

n−1

54 / 82

Distribucion F

Si χ2u y χ2

v son dos v.a. χ2 independientes con u y v g.l.respectivamente, entonces

F =χ2

u/uχ2

v /v∼ Fu,v

55 / 82

Distribucion F

Como ejemplo de una estadıstica que se distribuye como F,suponga que tenemos dos poblaciones normalesindependientes con varianza comun σ2, es decir,

y11,y12, . . . ,y1n1 es una m.a. de la primera poblacion

y21,y22, . . . ,y2n2 es una m.a. de la segunda poblacion

entonces,S2

1

S22∼ Fn1−1,n2−1

donde

S21 =

∑n1i=1(y1i− y1)

2

n1−1y S2

2 =∑

n2i=1(y2i− y2)

2

n2−1

56 / 82

Distribucion F

Sabemos que:

S21 =

SS1

n1−1y S2

2 =SS2

n2−1

ySS1

σ2 =(n1−1)S2

1σ2 ∼ χ

2n1−1

SS2

σ2 =(n2−1)S2

2σ2 ∼ χ

2n2−1

Por lo tanto:

(n1−1)S21

(n1−1)σ2

(n2−1)S22

(n2−1)σ2

∼ Fn1−1,n2−1

57 / 82

Prueba de hipotesis

58 / 82

Procedimiento general

1. Haga algunas suposiciones en sus datos2. Escriba una hipotesis nula H0 y una alternativa Ha

3. Calcule una estadıstica de prueba4. Pregunte: ¿El valor observado de la estadıstica de prueba

es compatible con la hipotesis nula?

Si no entonces rechazar la hipotesis nula.

Si sı entonces no rechazar la hipotesis nula.

59 / 82

Un ejemploUn ingeniero desea comparar la resistencia de una formulamodificada de cemento a la cual se le agrega latex durante elmezclado. Se tienen diez observaciones de la resistencia parala formula modificada y otras diez para la formula usual.

mezcla modificada mezcla sin modificarj kgf/cm2 (y1j) kgf/cm2 (y2j)

1 16.85 17.502 16.40 17.633 17.21 18.254 16.35 18.005 16.52 17.866 17.04 17.757 16.96 18.228 17.15 17.909 16.59 17.96

10 16.57 18.15 60 / 82

Primero un ejemplo

Factor: formula con dos niveles: modificada(1) y usual(2). Dostratamientos 10 repeticiones y1 = 16.76 y y2 = 17.92.

61 / 82

Primero un ejemplo

Los promedios de resistencia son diferentes entre estas dosmuestras, sin embargo, no es obvio que esta diferencia sea losuficientemente grande para que implique que las dos formulasson “realmente” diferentes.

Tal vez esta diferencia observada en los promedios deresistencia es el resultado de fluctuaciones muestrales y quelas dos formulas son realmente iguales. Posiblemente otrasdos muestras podrıan dar resultados opuestos.

Para probar si las dos formulas son iguales o no, se utiliza unatecnica de estadıstica inferencial llamada Prueba de Hipotesis,la cual permite hacer la comparacion de las dos formulas enterminos objetivos, con el conocimiento del riesgo asociado allegar a una conclusion erronea.

62 / 82

Prueba de hipotesis con un ejemplo

Primero, necesitamos establecer un modelo para los datos:

yij = µi + εij i = 1,2 j = 1, . . . ,10

donde

yij es la j-esima observacion del i-esimo tratamiento

µi es la media de la respuesta en el tratamiento i, i = 1,2

εij es el error asociado a la ij-esima observacion.

Suponga que εij ∼ NID(0,σ2) i = 1,2 j = 1, . . . ,10.

Esto implica que

yij ∼ NID(µi,σ2) i = 1,2 j = 1, . . . ,10.

63 / 82

Prueba de hipotesis con un ejemplo

Lo que interesa probar es:

H0 : µ1 = µ2 hipotesis nulavs.

Ha : µ1 6= µ2 hipotesis alternativa dos colasµ1 < µ2 o µ1 > µ2

Para probar una hipotesis necesitamos una estadıstica deprueba, su distribucion muestral y especificar una region derechazo o region crıtica, que es el conjunto de valores de laestadıstica de prueba que llevan a rechazar la hipotesis nula.

64 / 82

Prueba de hipotesis con un ejemplo

Se pueden cometer dos tipos de error al probar una hipotesis:

situacion real (desconocida)H0 es cierta H0 no es cierta

rechazar H0 error Tipo I 3

conclusionestadıstica

no rechazar H0 3 error Tipo II

α = P(error tipo I) = P(rechazar H0 |H0 es cierta)

β = P(error tipo II) = P(no rechazar H0 |H0 no es cierta)

65 / 82

Prueba de hipotesis con un ejemplo

El procedimiento general en pruebas de hipotesis esespecificar un valor de α, llamado nivel de significancia de laprueba y disenar el procedimiento de tal manera que β seapequeno.

Regresando al ejemplo.

y1 = 16.764 y2 = 17.992

S1 = 0.3164 S2 = 0.2479

S21 = 0.100 S2

2 = 0.061

n1 = 10 n2 = 10

66 / 82

Construccion de la estadıstica de prueba

Suponga, por el momento, que las varianzas de las dospoblaciones son iguales. Es decir,

y1j ∼ NID(µ1,σ2) y2j ∼ NID(µ2,σ

2) j = 1, . . . ,10

y1 ∼ N(µ1,σ2/n1) y2 ∼ N(µ2,σ

2/n2)

Si las dos poblaciones son independientes, entonces:

y1− y2 ∼ N(

µ1−µ2,σ2(

1n1

+1n2

))y1− y2−(µ1−µ2)

σ

√1n1+ 1

n2

∼ N (0,1)

67 / 82

Construccion de la estadıstica de prueba

Si σ2 es conocida y si H0 : µ1 = µ2 es cierta, entonces:

z0 =y1− y2

σ

√1n1+ 1

n2

∼ N (0,1)

Si no conocemos σ2, entonces se utiliza la estadıstica deprueba:

t0 =y1− y2

Sp

√1n1+ 1

n2

∼ tn1+n2−2

donde,

S2p =

(n1−1)S21 +(n2−1)S2

2n1 +n2−2

(pooled)

68 / 82

Region de rechazo

Para determinar la region de rechazo, es decir, los valores dela estadıstica de prueba que llevan a rechazar H0, se fijaprimero el nivel de significancia α.

69 / 82

Region de rechazo

Se compara t0 con t1−α/2n1+n2−2 porcentil (1−α/2) de la distribucion

t con n1 +n2−2 g.l.

Si |t0|> t1−α/2n1+n2−2 se rechaza H0.

Esto es, si H0 es cierta entonces t0 ∼ tn1+n2−2 y esperarıamosque el 100(1−α)% de los valores de t0 cayeran entre tα/2 yt1−α/2.

Si una muestra produce un valor de t0 fuera de estos lımites,serıa “extrano” si la hipotesis nula es cierta, por lo que esevidencia de que H0 se debe rechazar.

70 / 82

De vuelta al ejemplo

Haciendo los calculos del ejemplo:

t0 =y1− y2

Sp

√1n1+ 1

n2

=16.76−17.92

0.284√

210

=−9.13

Si fijamos α = 0.05 entonces rechazamos H0 si

|t0|> t0.97518 = 2.101

Como 9.13 > 2.101 entonces, rechazamos H0 al 5% de nivel designificancia. Y concluımos que en promedio, la resistencia delas dos formulas es diferente.

71 / 82

p-value

Esta es una forma de reportar los resultados, es decir, lahipotesis nula se rechazo o no se rechazo a un nivel designificancia α especificado.

Sin embargo, esto no da al investigador idea de si el valorcalculado de la estadıstica de prueba estaba en la frontera dela region crıtica o si estaba muy adentro de esta. Para eliminaresta deficiencia se utiliza el p-value.

72 / 82

p-value (valor p)

El p-value (significancia observada) es la probabilidad, si lahipotesis nula es cierta, de que la estadıstica de prueba resulteen un valor tan extremo como el observado o mas.

73 / 82

p-value

En el ejemplo anterior, la integral de menos infinito a -9.13(igual a la integral de 9.13 a infinito) es 1.77784x10−8.

Entonces el p-value serıa este valor por 2, es decir,

p− value = 1.77784x10−8(2) = 3.5556x10−8.

74 / 82

Suposiciones de la prueba t

• Ambas muestras provienen de poblaciones independientesy que pueden ser descritas por distribuciones normales.

• Las varianzas de ambas poblaciones son iguales.

• Las observaciones son independientes.

75 / 82

Intervalos de confianza

Aunque las pruebas de hipotesis son una herramienta muy util,algunas veces no dan todo el panorama. A veces es preferibledar un intervalo en el que esperamos que este el verdaderovalor del parametro. O puede suceder que el investigador yasabe que las medias µ1 y µ2 son diferentes, pero quiere saberque tan diferentes pueden ser.

Suponga que θ es un parametro desconocido. Para construirun intervalo de confianza para θ necesitamos dos estadısticasL y U tales que:

P(L≤ θ ≤ U) = 1−α

El intervalo (L,U) es llamado intervalo del (1−α)100% deconfianza para el parametro θ .

76 / 82

Intervalos de confianza

La interpretacion de este intervalo es:

Si en un numero grande de muestreos repetidos se construyenintervalos de confianza para θ , entonces el (1−α)100% deestos contendran al verdadero valor de θ .

L y U son los lımites de confianza, inferior y superior.

1−α es el coeficiente de confianza.

Los intervalos de confianza tienen una interpretacionfrecuentista, esto es, no sabemos si la aseveracion es ciertapara esta muestra especıfica, pero sabemos que elprocedimiento usado para calcular el intervalo de confianzaproduce aseveraciones correctas el (1−α)100% de las veces.

77 / 82

Intervalos de confianza

Para el caso que estamos tratando de dos poblacionesnormales independientes, el intervalo de confianza para µ1−µ2se construye de la siguiente manera:

y1− y2− (µ1−µ2)

Sp

√1n1+ 1

n2

∼ tn1+n2−2

P

−t(1−α/2)n1+n2−2 ≤

y1− y2− (µ1−µ2)

Sp

√1n1+ 1

n2

≤ t(1−α/2)n1+n2−2

= 1−α

78 / 82

Intervalos de confianza

P

(y1− y2− t(1−α/2)

n1+n2−2Sp

√1n1

+1n2

≤ µ1−µ2

≤ y1− y2 + t(1−α/2)n1+n2−2Sp

√1n1

+1n2

)= 1−α

79 / 82

Intervalos de confianzaUn intervalo del (1−α)100% de confianza para µ1−µ2 es:[(y1− y2)− t(1−α/2)

n1+n2−2Sp

√1n1

+1n2

,(y1− y2)+ t(1−α/2)n1+n2−2Sp

√1n1

+1n2

]

Regresando al ejemplo del problema del cemento:

y1 = 16.76 y2 = 17.92

Sp = 0.284 n1 = n2 = 10

t0.97518 = 2.101

El intervalo es: (−1.43,−0.89).

Note que si el valor 0 (cero) no esta incluıdo en el intervaloimplica que los datos no sostienen la hipotesis de que µ1 = µ2al 5% de nivel de significancia.

80 / 82

Prueba de hipotesis cuando σ21 6= σ2

2

Si estamos probando

H0 : µ1 = µ2 vs. Ha : µ1 6= µ2

y no podemos suponer que las varianzas σ21 y σ2

2 son iguales,la prueba t se modifica. La estadıstica de prueba es ahora:

t0 =y1− y2√

S21

n1+

S22

n2

.

Esta estadıstica no se distribuye exactamente como una t. Sinembargo, se aproxima muy bien a una t si usamos comogrados de libertad:

ν =

(S2

1n1+

S22

n2

)2

(S21/n1)

2

n1−1 +(S2

2/n2)2

n2−1

81 / 82

El ejemplo con R

El programa esta en prueba t.r

82 / 82