estadÍstica y probabilidad

38
BLOQUE: ESTADÍSTICA Y PROBABILIDAD UNIDAD 1: ESTADÍSTICA DESCRIPTIVA 1.1. Definición de Estadística La Estadística trata del recuento, ordenación y clasificación de los datos obtenidos por las observaciones, para poder hacer comparaciones y sacar conclusiones. 1.2. Conceptos de Estadística Población Una población es el conjunto de todos los elementos a los que se somete a un estudio estadístico. Individuo Un individuo o unidad estadística es cada uno de los elementos que componen la población. Muestra Una muestra es un conjunto representativo de la población de referencia, el número de individuos de una muestra es menor que el de la población. Muestreo El muestreo es la reunión de datos que se desea estudiar, obtenidos de una proporción reducida y representativa de la población. Valor Un valor es cada uno de los distintos resultados que se pueden obtener en un estudio estadístico. Si lanzamos una moneda al aire 5 veces obtenemos dos valores: cara y cruz. Dato Un dato es cada uno de los valores que se ha obtenido al realizar un estudio estadístico. Si lanzamos una moneda al aire 5 veces obtenemos 5 datos: cara, cara, cruz, cara, cruz. 1.3. Variables estadísticas Variable cualitativa Las variables cualitativas se refieren a características o cualidades que no pueden ser medidas con números. Podemos distinguir dos tipos: Variable cualitativa nominal Una variable cualitativa nominal presenta modalidades no numéricas que no admiten un criterio de orden.

Upload: loli-valero

Post on 29-Mar-2016

250 views

Category:

Documents


1 download

DESCRIPTION

Recopilación de los contenidos del bloque de Estadística y Probabilidad para todos los niveles de Secundaria.

TRANSCRIPT

Page 1: ESTADÍSTICA Y PROBABILIDAD

BLOQUE: ESTADÍSTICA Y PROBABILIDAD

UNIDAD 1: ESTADÍSTICA DESCRIPTIVA

1.1. Definición de EstadísticaLa Estadística trata del recuento, ordenación y clasificación de los datos obtenidos por las observaciones, para poder hacer comparaciones y sacar conclusiones.

1.2. Conceptos de Estadística

PoblaciónUna población es el conjunto de todos los elementos a los que se somete a un estudio estadístico.

IndividuoUn individuo o unidad estadística es cada uno de los elementos que componen la población.

MuestraUna muestra es un conjunto representativo de la población de referencia, el número de individuos de una muestra es menor que el de la población.

MuestreoEl muestreo es la reunión de datos que se desea estudiar, obtenidos de una proporción reducida y representativa de la población.

ValorUn valor es cada uno de los distintos resultados que se pueden obtener en un estudio estadístico. Si lanzamos una moneda al aire 5 veces obtenemos dos valores: cara y cruz.

DatoUn dato es cada uno de los valores que se ha obtenido al realizar un estudio estadístico. Si lanzamos una moneda al aire 5 veces obtenemos 5 datos: cara, cara, cruz, cara, cruz.

1.3. Variables estadísticas

Variable cualitativaLas variables cualitativas se refieren a características o cualidades que no pueden ser medidas con números. Podemos distinguir dos tipos:

Variable cualitativa nominalUna variable cualitativa nominal presenta modalidades no numéricas que no admiten un criterio de orden.

Page 2: ESTADÍSTICA Y PROBABILIDAD

Variable cualitativa ordinal o variable cuasicuantitativaUna variable cualitativa ordinal presenta modalidades no númericas, en las que existe un orden.

Variable cuantitativaUna variable cuantitativa es la que se expresa mediante un número, por tanto se pueden realizar operaciones aritméticas con ella. Podemos distinguir dos tipos:

Variable discretaUna variable discreta es aquella que toma valores aislados, es decir no admite valores intermedios entre dos valores específicos.

Variable continuaUna variable continua es aquella que puede tomar valores comprendidos entre dos números.

1.4. Distribución de frecuenciasLa distribución de frecuencias o tabla de frecuencias es una ordenación en forma de tabla de los datos estadísticos, asignando a cada dato su frecuencia correspondiente.

1.5. Diagrama de barrasUn diagrama de barras se utiliza para de presentar datos cualitativos o datos cuantitativos de tipo discreto.

Los datos se representan mediante barras de una altura proporcional a la frecuencia.

1.6. Polígonos de frecuenciasUn polígono de frecuencias se forma uniendo los extremos de las barras mediante segmentos.

También se puede realizar trazando los puntos que representan las frecuencias y uniéndolos mediante segmentos.

1.7. Diagrama de sectoresUn diagrama de sectores se puede utilizar para todo tipo de variables, pero se usa frecuentemente para las variables cualitativas.

Los datos se representan en un círculo, de modo que el ángulo de cada sector es proporcional a la frecuencia absoluta correspondiente.

1.8. HistogramaUn histograma es una representación gráfica de una variable en forma de barras.

Se utilizan para variables continuas o para variables discretas, con un gran número de datos, y que se han agrupado en clases.

En el eje abscisas se construyen unos rectángulos que tienen por base la amplitud del intervalo, y por altura, la frecuencia absoluta de cada intervalo.

Page 3: ESTADÍSTICA Y PROBABILIDAD

1.9. Medidas de centralización

ModaLa moda es el valor que tiene mayor frecuencia absoluta.

Se representa por Mo.

Se puede hallar la moda para variables cualitativas y cuantitativas.

Cálculo de la moda para datos agrupados

1º Todos los intervalos tienen la misma amplitud.

2º Los intervalos tienen amplitudes distintas.En primer lugar tenemos que hallar las alturas.

La clase modal es la que tiene mayor altura.

MedianaEs el valor que ocupa el lugar central de todos los datos cuando éstos están ordenados de menor a mayor. La mediana se representa por Me.

La mediana se puede hallar sólo para variables cuantitativas.

Cálculo de la mediana1 Ordenamos los datos de menor a mayor. 2 Si la serie tiene un número impar de medidas la mediana es la puntuación central de la misma.

3 Si la serie tiene un número par de puntuaciones la mediana es la media entre las dos puntuaciones centrales.

Cálculo de la mediana para datos agrupadosLa mediana se encuentra en el intervalo donde la frecuencia acumulada llega hasta la mitad de la suma de las frecuencias absolutas.

Es decir tenemos que buscar el intervalo en el que se encuentre .

Page 4: ESTADÍSTICA Y PROBABILIDAD

Media aritméticaLa media aritmética es el valor obtenido al sumar todos los datos y dividir el resultado entre el número total de datos.

es el símbolo de la media aritmética.

Media aritmética para datos agrupadosSi los datos vienen agrupados en una tabla de frecuencias, la expresión de la media es:

1.10. Medidas de posición

CuartilesLos cuartiles son los tres valores de la variable dividen a un conjunto de datos ordenados en cuatro partes iguales.

Q1, Q2 y Q3 determinan los valores correspondientes al 25%, al 50% y al 75% de los datos.

DecilesLos deciles son los nueve valores que dividen la serie de datos en diez partes iguales.

Los deciles dan los valores correspondientes al 10%, al 20%... y al 90% de los datos.

Page 5: ESTADÍSTICA Y PROBABILIDAD

PercentilesLos percentiles son los 99 valores que dividen la serie de datos en 100 partes iguales.

Los percentiles dan los valores correspondientes al 1%, al 2%... y al 99% de los datos.

1.11. Medidas de dispersión

Desviación mediaLa desviación media es la media aritmética de los valores absolutos de las desviaciones respecto a la media.

La desviación media se representa por

Desviación media para datos agrupadosSi los datos vienen agrupados en una tabla de frecuencias, la expresión de la desviación media es:

VarianzaLa desviación típica es la raíz cuadrada de la varianza.

La desviación típica se representa por σ.

Desviación típica para datos agrupados

Page 6: ESTADÍSTICA Y PROBABILIDAD

Para simplificar el cálculo vamos o utilizar las siguientes expresiones que son equivalentes a las anteriores.

Desviación típica para datos agrupados

Desviación típicaLa desviación típica es la raíz cuadrada de la varianza.

La desviación típica se representa por σ.

Desviación típica para datos agrupados

Para simplificar el cálculo vamos o utilizar las siguientes expresiones que son equivalentes a las anteriores.

Desviación típica para datos agrupados

Coeficiente de variaciónEl coeficiente de variación es la relación entre la desviación típica de una muestra y su media.

Page 7: ESTADÍSTICA Y PROBABILIDAD

Puntuaciones típicasLas puntuaciones típicas son el resultado de dividir las puntuaciones diferenciales entre la desviación típica. Este proceso se llama tipificación.

UNIDAD 2: INFERENCIA ESTADÍSTICA

2.1. Inferencia estadística Estudia cómo sacar conclusiones generales para toda la población a partir del estudio de una muestra, y el grado de fiabilidad o significación de los resultados obtenidos.

Muestreo probabilísticoConsiste en elegir una muestra de una población al azar. Podemos distinguir varios tipos:

Muestreo aleatorio simple: Para obtener una muestra, se numeran los elementos de la población y se seleccionan al azar los n elementos que contiene la muestra.

Muestreo aleatorio sistemático: Se elige un individuo al azar y a partir de él, a intervalos constantes, se eligen los demás hasta completar la muestra.

Muestreo aleatorio estratificado: Se divide la población en clases o estratos y se escoge, aleatoriamente, un número de individuos de cada estrato proporcional al número de componentes de cada estrato.

2.2. Intervalos característicos El nivel de confianza (p) se designa mediante 1 - α.

El nivel de significación se designa mediante α.El valor crítico (k) como z α/2 .

P(Z>z α/2) = α/2 P[-z α/2 < z < z α/2] = 1- α

En una distribución N(μ, σ ) el intervalo característico correspondiente a una probabilidad p = 1 - α es:

(μ - z α/2 · σ , μ + z α/2 · σ )

1 - α α/2 z α/2 Intervalos característicos

0.90 0.05 1.645 (μ - 1.645 · σ , μ + 1.645 · σ)

0.95 0.025 1.96 (μ - 1.96 · σ , μ + 1.96 · σ )

0.99 0.005 2.575 (μ - 2.575 · σ , μ + 2.575 · σ )

Page 8: ESTADÍSTICA Y PROBABILIDAD

2.3. Distribución de las medias muestrales

Teorema central del límiteSi una población tiene media μ y desviación típica σ , y tomamos muestras de tamaño n (n>30, ó cualquier tamaño si la población es "normal"), las medias de estas muestras siguen aproximadamente la distribución:

Consecuencias:

1.Permite averiguar la probabilidad de que la media de una muestra concreta esté en un cierto intervalo.

2.Permite calcular la probabilidad de que la suma de los elementos de una muestra esté, a priori, en un cierto intervalo.

3.Inferir la media de la población a partir de una muestra.

2.4. Estimación

• Intervalo de confianza Se llama así a un intervalo en el que sabemos que está un parámetro, con un nivel de confianza específico.

• Nivel de confianza Probabilidad de que el parámetro a estimar se encuentre en el intervalo de confianza.

• Error de estimación admisible Que estará relacionado con el radio del intervalo de confianza.

Estimación de la media de una población

Intervalo de confianza para la media El intervalo de confianza, para la media de una población, con un nivel de confianza de 1- α , siendo x la media de una muestra de tamaño n y σ la desviación típica de la población, es:

El error máximo de estimación es:

Tamaño de la muestra

Page 9: ESTADÍSTICA Y PROBABILIDAD

Estimación de una proporción Si en una población, una determinada característica se presenta en una proporción p, la proporción p' , de individuos con dicha característica en las muestras de tamaño n, se distribuirán según:

Intervalo de confianza para una proporción

El error máximo de estimación es:

2.5. Hipótesis estadísticas Un test estadístico es un procedimiento para, a partir de una muestra aleatoria y significativa, extraer conclusiones que permitan aceptar o rechazar una hipótesis previamente emitida sobre el valor de un parámetro desconocido de una población.

La hipótesis emitida se designa por H0 y se llama hipótesis nula.

La hipótesis contraria se designa por H1 y se llama hipótesis alternativa.

Contrastes de hipótesis1. Enunciar la hipótesis nula H0 y la alternativa H1.

Bilateral H0=k H1 ≠ k

UnilateralH0≥ k H1 < k

H0 ≤k H1> k

2. A partir de un nivel de confianza 1 - α o el de significación α. Determinar:

El valor zα/2 (bilaterales), o bien zα (unilaterales)

La zona de aceptación del parámetro muestral (x o p').3. Calcular: x o p', a partir de la muestra.4. Si el valor del parámetro muestral está dentro de la zona de la aceptación, se acepta la hipótesis con un nivel de significación α. Si no, se rechaza.

Contraste Bilateral Se presenta cuando la hipótesis nula es del tipo H0: μ = k (o bien H0: p = k) y la hipótesis alternativa, por tanto, es del tipo H1: μ≠ k (o bien H1: p≠ k).

El nivel de significación α se concentra en dos partes (o colas) simétricas respecto de la media.

Page 10: ESTADÍSTICA Y PROBABILIDAD

La región de aceptación en este caso no es más que el correspondiente intervalo de probabilidad para x o p', es decir:

o bien:

Contraste unilateral Caso 1

La hipótesis nula es del tipo H0: μ ≥ k (o bien H0: p ≥ k).

La hipótesis alternativa, por tanto, es del tipo H1: μ < k (o bien H1: p < k).

Valores críticos

1 - α α z α

0.90 0.10 1.28

0.95 0.05 1.645

0.99 0.01 2.33La región de aceptación en este caso será:

o bien:

Caso 2

La hipótesis nula es del tipo H0: μ ≤ k (o bien H0: p ≤ k).

La hipótesis alternativa, por tanto, es del tipo H1: μ > k (o bien H1: p > k).

La región de aceptación en este caso será:

o bien:

Page 11: ESTADÍSTICA Y PROBABILIDAD

Errores Error de tipo I. Se comete cuando la hipótesis nula es verdadera y, como consecuencia del contraste, se rechaza.

Error de tipo II. Se comete cuando la hipótesis nula es falsa y, como consecuencia del contraste se acepta.

H0 Verdadera Falsa

AceptarDecisón correcta

Probabilidad = 1 - α

Decisión incorrecta:

ERROR DE TIPO II

RechazarERROR DE TIPO I

Probabilidad = α

Decisión correcta

La probabilidad de cometer Error de tipo I es el nivel de significación α.

La probabilidad de cometer Error de tipo II depende del verdadero valor del parámetro. Se hace tanto menor cuanto mayor sea n.

UNIDAD 3: COMBINATORIA

3.1. Factorial de un número naturalEs el producto de los “n” factores consecutivos desde “n” hasta 1. El factorial de un número se denota por n!.

3.2. VariacionesSe llama variaciones ordinarias de m elementos tomados de n en n (m ≥ n) a los distintos grupos formados por n elementos de forma que:

No entran todos los elementos.

Sí importa el orden.

No se repiten los elementos.

También podemos calcular las variaciones mediante factoriales:

Page 12: ESTADÍSTICA Y PROBABILIDAD

Las variaciones se denotan por

Variaciones con repeticiónSe llama variaciones con repetición de m elementos tomados de n en n a los distintos grupos formados por n elementos de manera que:

No entran todos los elementos si m > n. Sí pueden entrar todos los elementos si m ≤ n

Sí importa el orden.

Sí se repiten los elementos.

3.3. PermutacionesSí entran todos los elementos.

Sí importa el orden.

No se repiten los elementos.

Permutaciones circularesSe utilizan cuando los elementos se han de ordenar "en círculo", (por ejemplo, los comensales en una mesa), de modo que el primer elemento que "se sitúe" en la muestra determina el principio y el final de muestra.

Permutaciones con repeticiónPermutaciones con repetición de m elementos donde el primer elemento se repite a veces , el segundo b veces , el tercero c veces, ...(m = a + b + c + ... = n) son los distintos grupos que pueden formarse con esos m elementos de forma que :

Sí entran todos los elementos.

Sí importa el orden.

Sí se repiten los elementos.

Page 13: ESTADÍSTICA Y PROBABILIDAD

3.4. Combinaciones

Se llama combinaciones de m elementos tomados de n en n (m ≥ n) a todas las agrupaciones posibles que pueden hacerse con los m elementos de forma que:

No entran todos los elementos.

No importa el orden.

No se repiten los elementos.

También podemos calcular las combinaciones mediante factoriales:

Combinaciones con repeticiónLas combinaciones con repetición de m elementos tomados de n en n (m ≥ n), son los distintos grupos formados por n elementos de manera que:

No entran todos los elementos.

No importa el orden.

Sí se repiten los elementos.

3.5. Números combinatorios

El número se llama también número combinatorio. Se representa por y se lee "m sobre n".

Propiedades de los números combinatorios

1.

Page 14: ESTADÍSTICA Y PROBABILIDAD

2.

3.

Binomio de NewtonLa fórmula que nos permite hallar las potencias de un binomio se conoce como binomio de Newton.

UNIDAD 4: PROBABILIDAD

4.1. Teoría de probabilidadesLa teoría de probabilidades se ocupa de asignar un cierto número a cada posible resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar dichos resultados y saber si un suceso es más probable que otro.

SucesoEs cada uno de los resultados posibles de una experiencia aleatoria.

Espacio muestralEs el conjunto de todos los posibles resultados de una experiencia aleatoria, lo representaremos por E (o bien por la letra griega Ω).

4.2. Tipos de sucesos

Suceso elementalSuceso elemental es cada uno de los elementos que forman parte del espacio muestral.

Suceso aleatorioSuceso compuesto es cualquier subconjunto del espacio muestral.

Suceso seguroSuceso seguro, E, está formado por todos los posibles resultados (es decir, por el espacio muestral).

Suceso imposible

Suceso imposible, , es el que no tiene ningún elemento.

Por ejemplo al tirar un dado obtener una puntuación igual a 7.

Page 15: ESTADÍSTICA Y PROBABILIDAD

Sucesos compatiblesDos sucesos, A y B, son compatibles cuando tienen algún suceso elemental común.

Sucesos incompatiblesDos sucesos, A y B, son incompatibles cuando no tienen ningún elemento en común.

Sucesos independientesDos sucesos, A y B, son independientes cuando la probabilidad de que suceda A no se ve afectada porque haya sucedido o no B.

Sucesos dependientesDos sucesos, A y B, son dependientes cuando la probabilidad de que suceda A se ve afectada porque haya sucedido o no B.

Suceso contrario

El suceso contrario a A es otro suceso que se realiza cuando no se realiza A., Se denota por .

Unión de sucesos

La unión de sucesos, A B, es el suceso formado por todos los elementos de A y de B.

Intersección de sucesos

La intersección de sucesos, A B, es el suceso formado por todos los elementos que son, a la vez, de A y B.

Diferencia de sucesosLa diferencia de sucesos, A − B, es el suceso formado por todos los elementos de A que no son de B.

Sucesos contrarios

El suceso = E - A se llama suceso contrario o complementario de A.

4.3. Axiomas de la probabilidad1.0 ≤ p(A) ≤ 12.p(E) = 1

3.p(A B) = p(A) + p(B)

Propiedades de la probabilidad

1

Page 16: ESTADÍSTICA Y PROBABILIDAD

2

3

4

5 Si A1, A2, ..., Ak son incompatibles dos a dos entonces:

6 Si el espacio muestral E es finito y un suceso es S = {x1, x2, ..., xn} entonces:

4.4. Ley de Laplace

Probabilidad de la unión de sucesos incompatibles

A B =

p(A B) = p(A) + p(B)

Probabilidad de la unión de sucesos compatibles

A B ≠

p(A B) = p(A) + p(B) − p(A B)

Probabilidad condicionada

Probabilidad de la intersección de sucesos independientes

p(A B) = p(A) · p(B)

Probabilidad de la intersección de sucesos dependientes

p(A B) = p(A) · p(B/A)

Page 17: ESTADÍSTICA Y PROBABILIDAD

4.5. Teorema de la probabilidad total

Si A 1, A 2 ,... , A n son sucesos incompatibles 2 a 2, cuya unión es el espacio muestral (A 1 A 2 ... A n = E) y B es otro suceso, resulta que::

p(B) = p(A1) · p(B/A1) + p(A2) · p(B/A2 ) + ... + p(An) · p(B/An )

4.6. Teorema de Bayes

Si A 1, A 2 ,... , A n son sucesos incompatibles 2 a 2, cuya unión es el espacio muestral (A 1 A 2 ... A n = E) y B es otro suceso, resulta que::

UNIDAD 5: DISTRIBUCIONES DISCRETAS DE PROBABILIDAD

5.1. Variable aleatoriaSe llama variable aleatoria a toda función que asocia a cada elemento del espacio muestral E un número real.Se utilizan letras mayúsculas X, Y, ... para designar variables aleatorias, y las respectivas minúsculas (x, y, ...) para designar valores concretos de las mismas.

Variable aleatoria discretaUna variable aleatoria discreta es aquella que sólo puede tomar valores enteros.

EjemplosEl número de hijos de una familia, la puntuación obtenida al lanzar un dado.

Variable aleatoria continua Una variable aleatoria continua es aquella que puede tomar todos los valores posibles dentro de un cierto intervalo de la recta real.

EjemplosLa altura de los alumnos de una clase, las horas de duración de una pila.

5.2. Función de probabilidadSe llama función de probabilidad de una variable aleatoria discreta X a la aplicación que asocia a cada valor de xi de la variable su probabilidad pi.

0 ≤ pi ≤ 1

Page 18: ESTADÍSTICA Y PROBABILIDAD

p1 + p2 + p3 + · · · + pn = Σ pi = 1

EjemploCalcular la distribución de probabilidad de las puntuaciones obtenidas al lanzar un dado.

x p i

1

2

3

4

5

6

1

RepresentaciónLa representación de una distribución discreta de probabilidad es un diagrama de barras.

5.3. Función de distribuciónSea X una variable aleatoria discreta cuyos valores suponemos ordenados de menor a mayor. Llamaremos función de distribución de la variable X, y escribiremos F(x) a la función:F(x) = p(X ≤ x)

Page 19: ESTADÍSTICA Y PROBABILIDAD

La función de distribución asocia a cada valor de la variable aleatoria la probabilidad acumulada hasta ese valor.

EjemploCalcular la función de distribución de probabilidad de las puntuaciones obtenidas al lanzar un dado.

x p i

x <1 0

1≤ x < 2

2≤ x < 3

3≤ x < 4

4≤ x < 5

5≤ x < 6

6≤ x 1

RepresentaciónLa representación de una función de distribución de probabilidad es una gráfica escalonada.

5.4. Media, varianza y desviación típica

Esperanza matemática o media

Page 20: ESTADÍSTICA Y PROBABILIDAD

Varianza

Desviación típica

EjemploCalcular la esperanza matemática, la varianza, y la desviación típica, de la distribución de probabilidad de las puntuaciones obtenidas al lanzar un dado.

x p i x · p i x 2 · pi

1

2

3

4

5

6 1 6

Page 21: ESTADÍSTICA Y PROBABILIDAD

UNIDAD 6: DISTRIBUCIÓN BINOMIAL

6.1. Distribución binomialUn experimento sigue el modelo de la distribución binomial o de Bernoulli si:1. En cada prueba del experimento sólo son posibles dos resultados: el suceso A (éxito) y su contrario .

2.La probabilidad del suceso A es constante, es decir, que no varía de una prueba a otra. Se representa por p.

3.El resultado obtenido en cada prueba es independiente de los resultados obtenidos anteriormente.

Variable aleatoria binomialLa variable aleatoria binomial, X, expresa el número de éxitos obtenidos en cada prueba del experimento.

La variable binomial es una variable aleatoria discreta, sólo puede tomar los valores 0, 1, 2, 3, 4, ..., n suponiendo que se han realizado n pruebas.

Ejemplok = 6, al lanzar una moneda 10 veces y obtener 6 caras.

Distribución binomialLa distribución binomial se suele representar por B(n, p).n es el número de pruebas de que consta el experimento.

p es la probabilidad de éxito.

La probabilidad de es 1− p, y la representamos por q.

6.2. Función de probabilidad de la distribución binomialLa función de probabilidad de la distribución binomial, también denominada función de la distribución de Bernoulli, es:

n es el número de pruebas.

k es el número de éxitos.

p es la probabilidad de éxito.

q es la probabilidad de fracaso.

Page 22: ESTADÍSTICA Y PROBABILIDAD

El número combinatorio

EjemploLa última novela de un autor ha tenido un gran éxito, hasta el punto de que el 80% de los lectores ya la han leido. Un grupo de 4 amigos son aficionados a la lectura:

1. ¿Cuál es la probabilidad de que el grupo hayan leido la novela 2 personas?

n = 4

p = 0.8

q = 0.2

B(4, 0.8)

2.¿Y cómo máximo 2?

6.3. Media y varianza de la distribución binomial

Media

Varianza

Desviación típica

EjemploLa probabilidad de que un artículo producido por una fabrica sea defectuoso es 0.02. Se envió un cargamento de 10.000 artículos a unos almacenes. Hallar el número esperado de artículos defectuosos, la varianza y la desviación típica.

Page 23: ESTADÍSTICA Y PROBABILIDAD

UNIDAD 7: DISTRIBUCIÓN NORMAL

7.1. Variable aleatoria de la distribución normalUna variable aleatoria continua, X, sigue una distribución normal de media μ y desviación típica σ, y se designa por N(μ, σ), si se cumplen las siguientes condiciones:

1. La variable puede tomar cualquier valor: (-∞, +∞)

2. La función de densidad, es la expresión en términos de ecuación matemática de la curva de Gauss:

Curva de la distribución normal

El campo de existencia es cualquier valor real, es decir, (-∞, +∞).

Es simétrica respecto a la media µ.

Tiene un máximo en la media µ.

Crece hasta la media µ y decrece a partir de ella.

En los puntos µ − σ y µ + σ presenta puntos de inflexión.

El eje de abscisas es una asíntota de la curva.

El área del recinto determinado por la función y el eje de abscisas es igual a la unidad.

Al ser simétrica respecto al eje que pasa por x = µ, deja un área igual a 0.5 a la izquierda y otra igual a 0.5 a la derecha.

La probabilidad equivale al área encerrada bajo la curva.p(μ - σ < X ≤ μ + σ) = 0.6826 = 68.26 %

p(μ - 2σ < X ≤ μ + 2σ) = 0.954 = 95.4 %

p(μ - 3σ < X ≤ μ + 3σ) = 0.997 = 99.7 %

7.2. Distribución normal estándar

N(0, 1) La distribución normal estándar, o tipificada o reducida, es aquella que tiene por media el valor cero, μ = 0, y por desviación típica la unidad, σ =1.

Page 24: ESTADÍSTICA Y PROBABILIDAD

Su función de densidad es:

Su gráfica es:

La probabilidad de la variable X dependerá del área del recinto sombreado en la figura. Y para calcularla utilizaremos una tabla.

Tipificación de la variablePara poder utilizar la tabla tenemos que transformar la variable X que sigue una distribución N(μ, σ) en otra variable Z que siga una distribución N(0, 1).

7.3. Tabla de la distribución normal

z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359

0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753

0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141

0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517

0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879

0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224

0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549

0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852

0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133

0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389

0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621

1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830

1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015

Page 25: ESTADÍSTICA Y PROBABILIDAD

1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177

1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319

1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441

1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545

1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633

1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706

1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767

0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817

2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857

2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890

2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916

2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936

2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952

2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964

2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974

2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981

2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986

0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

3 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990

3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993

3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995

3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997

3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998

3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998

3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999

3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999

3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999

3.9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

Page 26: ESTADÍSTICA Y PROBABILIDAD

7.4. Empleo de la tabla de distribución normal

Tabla de la curva normal (0, 1)La tabla nos da las probabilidades de P(z ≤ k), siendo z la variable tipificada.

Estas probabilidades nos dan la función de distribución Φ(k).Φ(k) = P(z ≤ k)

Búsqueda en la tabla de valor de kUnidades y décimas en la columna de la izquierda.

Céntesimas en la fila de arriba.

P(Z ≤ a)

P(Z ≤ 1.47) = 0.9292

P(Z > a) = 1 - P(Z ≤ a)

P(Z > 1.47) = 1 − P(Z ≤ 1.47) = 1 − 0.9292 = 0.0708

P(Z ≤ −a) = 1 − P(Z ≤ a)

P(Z ≤ −1.47) = 1 − P(Z ≤ 1.47) = 1 − 0.9292 = 0.0708

Page 27: ESTADÍSTICA Y PROBABILIDAD

P(Z > −a) = P(Z ≤ a)

p(Z > 1.47) = p(Z ≤ 1.47) = 0.9292

P(a < Z ≤ b ) = P(Z ≤ b) − P(Z ≤ a)

P( 0.45 <Z ≤ 1.47) = P(Z ≤ 1.47) − P(Z ≤ 0.45) =

= 0.9292 − 0.6736 = 0.2556

P(−b < Z ≤ −a ) = P(a < Z ≤ b )

P(−1.47 <Z ≤ − 0.45) = P( 0.45 <Z ≤ 1.47) =

= P(Z ≤ 1.47) − P(Z ≤ 0.45) = 0.9292 − 0.6736 = 0.2556

P(−a < Z ≤ b ) = P(Z ≤ b) − [ 1 − P(Z ≤ a)]

P(-1.47 < Z ≤ 0.45) = P(Z ≤ 0.45) − [ 1 − P(Z ≤ 1.47)]=

= 0.6736 − (1 − 0.9292) = 0.6028

p = K Nos encontramos con el caso inverso a los anteriores, conocemos el valor de la probabilidad y se trata de hallar el valor de la abscisa. Ahora tenemos que buscar en la tabla el valor que más se aproxime a K.

Page 28: ESTADÍSTICA Y PROBABILIDAD

p = 0.75Z ≤ 0.68

Para calcular la variable X nos vamos a la fórmula de la tipificación.(X - μ)/σ = 0.68X = μ + 0.68 σ

7.5. Distribución normal y binomial

Aproximación de la binomial por la normal

Teorema de MoivreSi:

n·p ≥ 0 y n·q ≥ 0.

La distribución binomial B(n, p) se puede aproximar mediante una distribución normal:

EjemploEn una ciudad una de cada tres familias posee teléfono. Si se eligen al azar 90 familias, calcular la probabilidad de que entre ellas haya por lo menos 30 tengan teléfono.

Page 29: ESTADÍSTICA Y PROBABILIDAD

UNIDAD 8: DISTRIBUCIONES BIDIMENSIONALES

8.1. Conceptos

Relación funcionalDos variables x e y están relacionadas funcionalmente cuando conocida la primera se puede saber con exactitud el valor de la segunda.

EjemploSi se deja caer una piedra, existe una fórmula que nos permite calcular exactamente, la altura a la que se encuentra en función del tiempo transcurrido.

h = ½ g t².

Relación estadísticaDos variables x e y están relacionadas estadísticamente cuando conocida la primera se puede estimar aproximadamente el valor de la segunda.

EjemplosIngresos y gastos de una familia.

Producción y ventas de una fábrica.

Gastos en publicidad y beneficios de una empresa.

Variable estadística bidimensionalUna variable bidimensional es una variable en la que cada individuo está definido por un par de caracteres, (X, Y). Estos dos caracteres son a su vez variables estadísticas en las que sí existe relación entre ellas, una de las dos variables es la variable independiente y la otra variable dependiente.

Distribuciones bidimensionalesSon aquellas en las que a cada individuo le corresponden los valores de dos variables, las representamos por el par (xi, yi).

Si representamos cada par de valores como las coordenadas de un punto, el conjunto de todos ellos se llama nube de puntos o diagrama de dispersión.

Sobre la nube de puntos puede trazarse una recta que se ajuste a ellos lo mejor posible, llamada recta de regresión.

EjemploLas notas de 12 alumnos de una clase en Matemáticas y Física son las siguientes:

Page 30: ESTADÍSTICA Y PROBABILIDAD

Matemáticas 2 3 4 4 5 6 6 7 7 8 10 10Física 1 3 2 4 4 4 6 4 6 7 9 10

8.2. Covarianza

La covarianza de una variable bidimensional es la media aritmética de los productos de las desviaciones de cada una de las variables respecto a sus medias respectivas.La covarianza se representa por sxy o σxy.

La covarianza indica el sentido de la correlación entre las variables

Si σxy > 0 la correlación es directa.

Si σxy < 0 la correlación es inversa.

La covarianza presenta como inconveniente, el hecho de que su valor depende de la escala elegida para los ejes.

Es decir, la covarianza variará si expresamos la altura en metros o en centímetros. También variará si el dinero lo expresamos en euros o en dólares.

EjemplosLas notas de 12 alumnos de una clase en Matemáticas y Física son las siguientes:

Matemáticas 2 3 4 4 5 6 6 7 7 8 10 10Física 1 3 2 4 4 4 6 4 6 7 9 10

Page 31: ESTADÍSTICA Y PROBABILIDAD

Hallar la covarianza de la distribución.

xi yi xi · yi

2 1 2

3 3 9

4 2 8

4 4 16

5 4 20

6 4 24

6 6 36

7 4 28

7 6 42

8 7 56

10 9 90

10 10 100

72 60 431

Después de tabular los datos hallamos las medias aritméticas:

Los valores de dos variables X e Y se distribuyen según la tabla siguiente:

Y/X 0 2 41 2 1 32 1 4 23 2 5 0Hallar la covarianza de la distribución.

En primer lugar convertimos la tabla de doble entrada en tabla simple y calculamos las medias aritméticas.

xi yi fi xi · fi yi · fi xi · yi · fi

0 1 2 0 2 0

0 2 1 0 2 0

0 3 2 0 6 0

Page 32: ESTADÍSTICA Y PROBABILIDAD

2 1 1 2 1 2

2 2 4 8 8 16

2 3 5 10 15 30

4 1 3 12 3 12

4 2 2 8 4 16

20 40 41 76

8.3. Correlación linealLa correlación trata de establecer la relación o dependencia que existe entre las dos variables que intervienen en una distribución bidimensional.Es decir, determinar si los cambios en una de las variables influyen en los cambios de la otra. En caso de que suceda, diremos que las variables están correlacionadas o que hay correlación entre ellas.

Tipos de correlación1º Correlación directaLa correlación directa se da cuando al aumentar una de las variables la otra aumenta.

La recta correspondiente a la nube de puntos de la distribución es una recta creciente.

2º Correlación inversaLa correlación inversa se da cuando al aumentar una de las variables la otra disminuye.

La recta correspondiente a la nube de puntos de la distribución es una recta decreciente.

Page 33: ESTADÍSTICA Y PROBABILIDAD

3º Correlación nulaLa correlación nula se da cuando no hay dependencia de ningún tipo entre las variables.

En este caso se dice que las variables son incorreladas y la nube de puntos tiene una forma redondeada.

Grado de correlaciónEl grado de correlación indica la proximidad que hay entre los puntos de la nube de puntos. Se pueden dar tres tipos:

1. Correlación fuerteLa correlación será fuerte cuanto más cerca estén los puntos de la recta.

2. Correlación débilLa correlación será débil cuanto más separados estén los puntos de la recta.

Page 34: ESTADÍSTICA Y PROBABILIDAD

3. Correlación nula

8.4. Coeficiente de correlación linealEl coeficiente de correlación lineal es el cociente entre la covarianza y el producto de las desviaciones típicas de ambas variables.El coeficiente de correlación lineal se expresa mediante la letra r.

Propiedades del coeficiente de correlación1. El coeficiente de correlación no varía al hacerlo la escala de medición.

Es decir, si expresamos la altura en metros o en centímetros el coeficiente de correlación no varía.

2. El signo del coeficiente de correlación es el mismo que el de la covarianza.

Si la covarianza es positiva, la correlación es directa.

Si la covarianza es negativa, la correlación es inversa.

Si la covarianza es nula, no existe correlación.

3. El coeficiente de correlación lineal es un número real comprendido entre −1 y 1.

−1 ≤ r ≤ 14. Si el coeficiente de correlación lineal toma valores cercanos a −1 la correlación es fuerte e inversa, y será tanto más fuerte cuanto más se aproxime r a −1.

5. Si el coeficiente de correlación lineal toma valores cercanos a 1 la correlación es fuerte y directa, y será tanto más fuerte cuanto más se aproxime r a 1.

6. Si el coeficiente de correlación lineal toma valores cercanos a 0, la correlación es débil.7. Si r = 1 ó −1, los puntos de la nube están sobre la recta creciente o decreciente. Entre ambas variables hay dependencia funcional.

Page 35: ESTADÍSTICA Y PROBABILIDAD

EjemplosLas notas de 12 alumnos de una clase en Matemáticas y Física son las siguientes:

Matemáticas 2 3 4 4 5 6 6 7 7 8 10 10Física 1 3 2 4 4 4 6 4 6 7 9 10Hallar el coeficiente de correlación de la distribución e interpretarlo.

xi yi xi ·yi xi2 yi

2

2 1 2 4 1

3 3 9 9 9

4 2 8 16 4

4 4 16 16 16

5 4 20 25 16

6 4 24 36 16

6 6 36 36 36

7 4 28 49 16

7 6 42 49 36

8 7 56 64 49

10 9 90 100 81

10 10 100 100 100

72 60 431 504 380

1º Hallamos las medias aritméticas.

2º Calculamos la covarianza.

3º Calculamos las desviaciones típicas.

4º Aplicamos la fórmula del coeficiente de correlación lineal.

Al ser el coeficiente de correlación positivo, la correlación es directa.

Page 36: ESTADÍSTICA Y PROBABILIDAD

Como coeficiente de correlación está muy próximo a 1 la correlación es muy fuerte.

Los valores de dos variables X e Y se distribuyen según la tabla siguiente:

Y/X 0 2 41 2 1 32 1 4 23 2 5 0Determinar el coeficiente de correlación.

Convertimos la tabla de doble entrada en tabla simple.

xi yi fi xi · fi xi2 · fi yi · fi yi

2 · fi xi · yi · fi

0 1 2 0 0 2 2 0

0 2 1 0 0 2 4 0

0 3 2 0 0 6 18 0

2 1 1 2 4 1 1 2

2 2 4 8 16 8 16 16

2 3 5 10 20 15 45 30

4 1 3 12 48 3 3 12

4 2 2 8 32 4 8 16

20 40 120 41 97 76

Al ser el coeficiente de correlación negativo, la correlación es inversa.

Como coeficiente de correlación está muy próximo a 0 la correlación es muy débil.

8.5. Rectas de regresiónLa recta de regresión es la que mejor se ajusta a la nube de puntos.

La recta de regresión pasa por el punto llamado centro de gravedad.

Page 37: ESTADÍSTICA Y PROBABILIDAD

Recta de regresión de Y sobre XLa recta de regresión de Y sobre X se utiliza para estimar los valores de la Y a partir de los de la X.

La pendiente de la recta es el cociente entre la covarianza y la varianza de la variable X.

Recta de regresión de X sobre YLa recta de regresión de X sobre Y se utiliza para estimar los valores de la X a partir de los de la Y.

La pendiente de la recta es el cociente entre la covarianza y la varianza de la variable Y.

Si la correlación es nula, r = 0, las rectas de regresión son perpendiculares entre sí, y sus ecuaciones son:

y =

x =

EjemploLas notas de 12 alumnos de una clase en Matemáticas y Física son las siguientes:

Matemáticas 2 3 4 4 5 6 6 7 7 8 10 10Física 1 3 2 4 4 4 6 4 6 7 9 10Hallar las rectas de regresión y representarlas.

xi yi xi ·yi xi2 yi

2

2 1 2 4 1

3 3 9 9 9

4 2 8 16 4

4 4 16 16 16

5 4 20 25 16

6 4 24 36 16

6 6 36 36 36

7 4 28 49 16

7 6 42 49 36

Page 38: ESTADÍSTICA Y PROBABILIDAD

8 7 56 64 49

10 9 90 100 81

10 10 100 100 100

72 60 431 504 380

1º Hallamos las medias ariméticas.

2º Calculamos la covarianza.

3º Calculamos las varianzas.

4ºRecta de regresión de Y sobre X.

5ºRecta de regresión de X sobre Y.