tema 66 . distribuciones de probabilidad de variable ...joseluislorente.es/academia/temas/tema...
TRANSCRIPT
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 1
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
TEMA 66. Distribuciones de probabilidad de variable
continúa. Distribución Normal.
1. Introducción.
1.1 Histórica.
Los conceptos de azar e incertidumbre son tan viejos como la propia civilización. La
humanidad siempre ha debido soportar la incertidumbre del clima, de las cosechas y otros
aspectos de medio que lo rodea, así como buscar los efectos que los regulan para tratar de
reducir las probabilidades que generan efectos negativos.
El origen de la probabilidad desde un punto de vista matemático se cree que surge con los
juegos de azar. Así en el Egipto antiguo ( 3500 aC) se tiene constancia de la existencia de
juegos de azar practicado con objetos de hueso, siendo estos los predecesores de los dados
actuales. También los egipcios construyeron dados con marcas como los actuales.
Se suele aceptar como el comienzo de la teoría matemática de la probabilidad con Fermat
y Pascal, matemáticos franceses del siglo XVIII. Estos lograron calcular la probabilidad exacta
para ciertos juegos de azar relacionados con los dados. Desde este momento la teoría de la
probabilidad ha sido constantemente desarrollada y aplicada a más diversos campos de
estudio.
1.2. Espacio de probabilidad.
En este tema se usará la concepción matemática de la Teoría de Probabilidad sin
tener en cuenta las concepciones filosóficas que la soportan. Para usarla tenemos en
cuenta los tres elementos fundamentales que forman un espacio de probabilidad:
• Ω el espacio muestral, que es conjunto de todos los resultado posibles distintos de
un experimento aleatorio.
• S es el conjunto de todos los sucesos que se dan sobre Ω (técnicamente es un σ-
álgebra de sucesos sobre Ω):
1) Ω∈S
2) Si A∈S Ac∈S
3) Si A y B∈S A∪B∈S
• ℘ es la función de probabilidad que refleja la regularidad estadística del experimento; es
una función real definida sobre S, ℘: S → ℝ, que satisface los siguientes axiomas:
1) ℘(A)≥0, ∀A∈C
2) ℘(Ω)=1
3) ( ) 1
11
,n n n n
nn
A A A∞ ∞
≥==
℘ = ℘ ∀
∑U ,An sucesos incompatibles dos a dos (Ai∩Aj=∅, ∀ i≠j)
Notar que independientemente del concepto probabilístico a partir del cual se calcule
la probabilidad (Laplace, experimental o subjetiva) han de cumplir estos requisitos.
Con estos elementos se trata el problema de formalizar la idea intuitiva de que la
“información” aportada por el hecho de que haya ocurrido un suceso B, ha de ser
recogida cambiando el espacio de probabilidad de partida.
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 2
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
2. Variable aleatoria continúa.
Definición: Sea el espacio probabilístico (Ω, S, ℘) un espacio de probabilidad que
modeliza los posibles resultados de un experimento aleatorio, una variable aleatoria es una
aplicación que asigna a cada uno de los posibles resultados del experimento aleatorio un valor
real. Es decir X es una variable aleatoria si se cumple.
X: Ω ℝ
A X(A)
Definición: sea el espacio probabilístico (Ω, S, ℘) un espacio de probabilidad, una variable
aleatoria es continua cuando la imagen de X, X(Ω), puede tomar todos los valores dentro de un
intervalo, no siendo por tanto valores discretos.
Ejemplo: Lanzar un objeto, si suponemos que la distancia es inferior, pongamos que a 100
m, entonces la variable X asigna a cada suceso que puede ocurrir la distancia desde el
lanzamiento, siendo X(Ω)=[0,100].
3. Función distribución.
El objetivo es asociar a cada variable aleatoria una función real que contiene toda la
información sobre la probabilidad del experimento aleatorio. No podemos en la probabilidad
continua asignar un valor de probabilidad a cada valor de X (como hicimos en la discreta), pues
al haber infinitos valores de X la probabilidad puntual es nula.
Definición: sea X una variable aleatoria sobre el espacio probabilístico (Ω, S, ℘), se llama
función distribución de la variable aleatoria X a la aplicación F definida de la siguiente forma:
F: ℝ ℝ
t F(t)=p(X≤t)
Propiedades:
1. F es una función definida creciente: si a<b F(a)≤F(b).
2. F es una función continua por la derecha, es decir )()(lim aFxFax
=+→
3. Asíntota horizontal en x=1: 1)(lim =∞→
xFx
4. 0)(lim =−∞→
xFx
5. 0≤F(x)≤1
6. p(a<x<b)=F(b)-F(a).
Nota: Por lo general F no siempre es continua por la izquierda ni estrictamente creciente.
Teorema: si F es una función real que cumple las 4 propiedades entonces puede
encontrarse un espacio de probabilidad (Ω, S, ℘) y una variable aleatoria X sobre este espacio
donde F es la función distribución de X.
Jose Luis Lorente (preparador oposiciones secundaria
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
Veamos un ejemplo gráfico:
4. Variable aleatoria estrictamente continua. Función densidad.
Podemos concretar la definición de variable aleatoria continua y definir variable aleatoria
estrictamente continua a partir de la función distribución.
Definición: una variable aleatoria es est
es continua y derivable en el intervalo de definición. De tal manera que exista la función
x
Fxf
∂∂
=)( , tal que =xF )(
Las variables estrictamente continuas son continuas, no así al revés. En este tema nos
centraremos en las absolutamente continuas y por exceso de notación las denominaremos
variables continuas.
Ejemplos: cuando tomamos medidas experimentales, como alturas, durac
teléfono, longitudes…Un ejemplo concreto puede ser los números reales aleatorios en el
intervalo (0,1), que suele implementarse con asiduidad en los lenguajes de programación.
En este último ejemplo, si concretamos que todos los valores son
densidad vendrá definida como:
∉
∈=
)1,0(0
)1,0(1)(
xsi
xsixf
1
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es)
66. Distribuciones de probabilidad de variable continua. Distribución normal
gráfico:
Variable aleatoria estrictamente continua. Función densidad.
Podemos concretar la definición de variable aleatoria continua y definir variable aleatoria
estrictamente continua a partir de la función distribución.
: una variable aleatoria es estrictamente continua si la función distribución, F(t)
es continua y derivable en el intervalo de definición. De tal manera que exista la función
∫ ∞−
x
dttf )( que se denomina función densidad de probabilidad
iables estrictamente continuas son continuas, no así al revés. En este tema nos
centraremos en las absolutamente continuas y por exceso de notación las denominaremos
cuando tomamos medidas experimentales, como alturas, durac
teléfono, longitudes…Un ejemplo concreto puede ser los números reales aleatorios en el
intervalo (0,1), que suele implementarse con asiduidad en los lenguajes de programación.
En este último ejemplo, si concretamos que todos los valores son equiprobables la función
densidad vendrá definida como:
)1
) F(x)=
>
≤≤
<
11
10
00
xsi
xsix
xsi
1
1
f(x)
3
66. Distribuciones de probabilidad de variable continua. Distribución normal
Variable aleatoria estrictamente continua. Función densidad.
Podemos concretar la definición de variable aleatoria continua y definir variable aleatoria
rictamente continua si la función distribución, F(t)
es continua y derivable en el intervalo de definición. De tal manera que exista la función
función densidad de probabilidad.
iables estrictamente continuas son continuas, no así al revés. En este tema nos
centraremos en las absolutamente continuas y por exceso de notación las denominaremos
cuando tomamos medidas experimentales, como alturas, duración llamada de
teléfono, longitudes…Un ejemplo concreto puede ser los números reales aleatorios en el
intervalo (0,1), que suele implementarse con asiduidad en los lenguajes de programación.
equiprobables la función
1
F(x)
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 4
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
Propiedades:
1. f(x)≥0
2. ∫ =R
dxxf 1)(
3. ∫=<<℘b
adxxfbxa )()(
4. Se cumple que F’(x)=f(x)
Las dos primeras propiedades caracterizan a la función densidad, ya que si se cumple que
una función cualesquiera las cumple, puede construirse una variable aleatoria en la que f sea
su función densidad. La cuarta propiedad proporciona una forma de calcular la función
densidad a partir de la función distribución cuando esta es derivable.
Aunque no es lo habitual puede haber variables aleatorias que no son continuas ni
discretas. Por ejemplo, supongamos que la vida de una pieza viene definida por la función
distribución siguiente:
>
<<+
=
<
=
11
102/)1(
05.0
00
)(
tsi
tsix
tsi
tsi
tF
No es continua por cumplir que F(0)=0.5 y por tanto no ser continua en 0 por la izquierda,
y tampoco es discreta al estar definida en un intervalo (0,1).
5. Esperanza matemática o valor esperado.
Se llama esperanza matemática, o valor esperado al valor medio que toma la variable. Se
denota como E(X) o x o µ y su valor viene dado en variables continuas como:
∫∞
∞−= dxxfxXE )(·)(
En el ejemplo propuesto del número aleatorio entre 0 y 1:
∫∫ =
===
∞
∞−
1
0
1
0
2
2/12
·)(·)(x
dxxdxxfxXE
Si tenemos dos variables aleatorias, X e Y relacionadas entre sí (Y=g(X)) la esperanza de Y
se calcular como:
∫∞
∞−== dxxfxgXgEYE )·()·())(()(
Veamos un ejemplo para asentar conceptos: sea el juego que resulta de obtener un valor
numérico en (0,1) de forma aleatoria, y tal que se cumple que el dinero que se obtiene
depende de x de la forma y=10·(x-0.6). Calcular el valor esperado del dinero obtenido:
∫ <−=−==1
0
22 )(0)6.04.0·(5)6.0·(10))(()( dineropierdesedxxxgEYE
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 5
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
Propiedades de la esperanza matemática:
1) Min(X)≤E(X)≤max(X)
2) Desplazamiento: E(X+b)=E(X)+b
3) Proporcionalidad E(k·X)=k·E(X)
4) Linealidad: E(X±Y)=E(X) ±E(Y)
Demostraciones:
1) )min()()·min()()min()(·)( XxfXdxxfXxfxXE ==≤= ∫∫∫∞
∞−
∞
∞−
∞
∞− (iden Max)
2) ( ) 1·)()()()()( bxEdxxbfdxxxfdxxfbxbXE +=+=+=+ ∫∫∫∞
∞−
∞
∞−
∞
∞−
3) )(·)()(·)·( XEkxxfkxxfkXkE === ∫∫∞
∞−
∞
∞−
4) )()()()())(()( YEXEydxxfxdxxfdxyxxfYXE ±=±=+=± ∫∫∫∞
∞−
∞
∞−
∞
∞−
6. Momentos.
Definición: llamamos momento de orden k respecto al origen de la variable aleatoria X a la
expresión ∫∞
∞−== )(·)( xfxXE kk
kα . El momento de orden 1 es la esperanza (α1=E(X)).
Definición llamaremos momentos centrales (respecto la media) de orden k de la variable
aleatoria X ∫∞
∞−−=−= dxxfxXE k
k )()())(( 2µµµ
El momento central de orden 2 es el más importante y se denomina varianza de X,
denotándose generalmente como Var(X) o σ2. Su raíz cuadrada positiva es denominada como
desviación típica de X y se denota como σ o DT(X).
Propiedades de la varianza:
1. Independencia del cambio de origen: Var(X+c)=Var(X)
2. Cambio de escala: Var(k·X)=k2·Var(X)
3. Var(x)=α2-α12=E(x
2)-E(x)
2
4. Si Z es la variable tipificada definida como Z=(X-µ)/σ entonces E(X)=0 y Var(X)=1.
Demostraciones:
1. )()()()(·))(()( 22 XVardxxfxxfccxcXVar =−=+−+=+ ∫∫∞
∞−
∞
∞−µµ (donde
hemos aplicado que µ(X+c)=µ(x)+c.
2. )(·)(·)())·(·()·( 2222 XVarkdxxkdxxfkxkXkVar ==−=−= ∫∫∞
∞−
∞
∞−µµ (donde
hemos aplicado que µ(k·X)=k·µ(x)
3. )()(·2)()()2()()()( 222222 XEXEXEdxxfxxdxxfxXVar −=−+=−+=−= ∫∫∞
∞−
∞
∞−µµµµµµ
4. La propiedad es un corolario de las propiedades 2 y 3.
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 6
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
Teorema de la desigualdad de Tchevychev: para cualquier variable X y cualquier número
real a se cumple la siguiente desigualdad: 2
)(1)|(|
a
xVaraxp −≥<− µ .
Este teorema permite estimar probabilidades en torno a la media conociendo únicamente
el valor de la varianza, independientemente como sea la distribución.
7. Medidas de centralización
Además de la esperanza existen más mediadas de centralización que se calculan a partir de
la probabilidad de la variable de estudio. Las mediadas de centralización sirven para describir
la distribución a partir de un único valor (valor central):
- Moda Mo: es el valor más probable, es decir f(M0)≥f(x) ∀x∈X. Si hay dos puntos con
máximo valor se dice que la distribución es bimodal, igualmente con tres, cuatro…
- Mediana Me: es el menor valor de X que verifica que p(x≤Me)≥0.5
8. Medidas de dispersión.
Además de la varianza y de la desviación típica hay otras medidas de dispersión que nos
indican cómo se alejan los valores de la media:
- Coeficiente de variación de Perarson: CV=µσ
que es adimensional y es válido para
comparar la dispersión de magnitudes diferentes.
- El rango o Recorrido, mide la diferencia entre el valor máximo y el mínimo: R=sup(X)-
inf(X).
- Recorrido relativo, mide el recorrido relativo al valor de la media: νR
Rr =
9. Medidas de Asimetría y Curtosis.
Se suele utilizar la medida de asimetría γ1= 3
3
σµ
tal que se cumple:
o Si γ1=0 la distribución totalmente simétrica
o γ1>0 antisimétrica a la derecha (mayor cuanto mayor sea)
o γ1<0 antisimétrica a la izquierda (mayor cuanto menor sea)
Para el aplastamiento de la distribución o curtosis se utiliza el parámetro γ2= 4
4
σµ
tal que:
o Si γ2=0 distribución normal.
o Si γ2>0 distribución menos aplastada de lo normal.
o Si γ2<0 distribución más aplastada de lo normal.
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 7
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
10. Distribución Normal.
10.1 Reseñas históricas y aplicaciones.
La distribución normal fue introducida en el siglo XVIII como herramienta para calcular de
forma aproximada las probabilidades relacionadas con la distribución discreta binomial. La
utilización de la distribución normal es amplia, desde estudios astronómicos, estudio de
errores realizados en mediciones (Gauss), siendo su campo principal el estudio de variables
relacionadas con los seres vivos (alturas, pesos, etc.) o variables que puedan representarse
como resultados de sumas de pequeños incrementos.
En la actualidad la distribución normal es una herramienta básica para ciencias tan
dispares como economía, sociología , medicina o ingeniería.
No olvidemos también su importancia en su utilización en la aproximación de muchas
distribuciones discretas, que como comentamos es el origen de esta distribución.
10.2 Definición y propiedades.
La función distribución normal es toda aquella en la que la función densidad de
probabilidad viene definida por la función Gaussiana, cuya expresión algebraica viene dada por
2
2
2
)(
22
1)( σ
µ
πσ
−−
=x
exf Donde los parámetro µ y σ son cualquier valor real.
La gráfica de la función es simétrica a x=µ y tiene forma de campana, siendo más ancha
cuanto mayor sea el valor deσ. Tiene dos puntos de inflexión en x=µ+σ y x=µ-σ. Para ver que
esta función es de densidad tendremos que ver las propiedades descritas en el apartado 4:
1. f(x)≥0 (trivial pues la función exponencial es siempre positiva)
2. ∫ =R
dxxf 1)( .
Demostración: ∫ ∫∞
∞−
∞
∞−
−−
−
== Idtedxe
tx2
2
2
2
22
)(
2 2
1
2
1 σσ
µ
ππσ
ππρρππππ
ρρσσσ 222
2
1
2
1
2
12
0
22222
22
2
22
2
2
2
2
=
−====
∞
∞−
−∞ −∞
∞−
∞
∞−
+−∞
∞−
∞
∞−
−−
∫∫ ∫∫ ∫ edeedydxdyedxeI
yxyx
Propiedades de la función densidad y por ende de la distribución normal:
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 8
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
1. La función f(x) tiene un máximo en x=µ, siendo por tanto la probabilidad mayor cuanto
más cerca esté el intervalo a este valor.
2. La función simétrica respecto a este valor x=µ.
3. Los valores de las constantes µ y σ son respectivamente de la media y la varianza de la
distribución.
Demostraciones:
1. µσ
µ
πσσ
µ
=→=−−
=−
−
xex
xf
x
0)(
2
1)('
2
2
2
)(
22
<
−
−=
−−
)('';1
2
)(
2
1)(''
24
2
2
)(
2
2
2
µσσ
µ
πσσµ
fx
exf
x
0 (máximo)
2. 2
2
2
2
2
)(
2
2
)(
2 2
1)(
2
1)( σσ
πσµ
πσµ
aa
eafeaf
−−−
=−==+
3. Veamos primero la media:
µπ
µ
π
σ
π
µσ
πσ σµ
σ
µ
∫ ∫∫∫∞
∞−
∞
∞−
−
=
−∞
∞−
−∞
∞−=
−
−−
=+=+
== dtedtet
dtet
dxex
xE
t
IMPARSERAL
tt
tx
x
2
0
222
)(
2
222
2
2
222
)(
2)(
43421
Var(x)=E(x2)-E(x)
2. Calculemos E(x
2):
22
(*)
22222
)(0
22
2
2
22
2
222
2
2
2
)(
2
22
22222
22
2
2
2
1
22
2
22
2
2
2
)(
2)(
µσπ
µπ
σ
π
σ
π
µ
π
σ
π
σµσ
π
µσ
πσ σµ
σ
µ
+=+=++=
=++
=+
==
∫∫ ∫∫ ∫
∫∫∫
∞
∞−
−∞
∞−
∞
∞−
−∞
∞−
=
∞
∞−
−−−
∞
∞−
−∞
∞−
−∞
∞−=
−
−−
dtedtetdtet
dtedtet
dtett
dtet
dxex
xE
tt
impar
ttt
tt
tx
x
44 344 21
dtdvtveuetdu
dtetedtetpartesporIntegrando
tt
ttt
=→=−=→=
+=+
−=
−−
∞
∞−
−∞
∞−
−∞
∞−
−
∫∫2/2/
2222
22
222
·
20(*) π
Por tanto Var(x)=E(x2)-E(x)
2=
22 µσ + 2µ+ = 2σ
10.3. Función distribución. Distribución normal estándar o tipificada.
La función distribución estándar, F(x)= ∫ ∞−
x
dttf )( no tiene expresión analítica, pues la
integral no tiene primitiva como tal, sino que se debe calcular integrando al desarrollo de la
función ∑∞
=
− −==
0
2
!
)()(
2
n
nx
n
xexf . Al no tener expresión analítica para el cálculo de las
probabilidades se utilizan tablas con distintos valores de F(x) según los distintos valores de x.
Habría tantas tablas como distintos valores de σ y µ, por lo que se trabaja siempre para el
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 9
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
cálculo de probabilidades con la distribución estándar o tipificada con σ=1 y µ=0, y se
representa como N(0,1).
Para el cálculo de probabilidades de otra distribución x N(µ,σ) se pude utilizar la tabla de
la distribución estándar con el siguiente cambio de variable (tipificación) σµ−
=x
z , tal que
zN(0,1).
Veamos un ejemplo, supongamos que xN(2,10) y queremos calcular p(x<11)=Fµ,σ(x=11).
Esto es equivalente a 5.02
1011=
−=
−=
σµx
z : p(x<11)=p(z<0.5)=F0,1(x=0.5).
10.4. Aproximación de la binomial.
1. Problemas de la distribución binomial
Supongamos una distribución binomial B(n,p) con un número muy grande de n; por
ejemplo lanzamos un tiro libre 200 veces siendo la probabilidad de encestar del 40%, es decir
B(n=200,p=0,4). Si nos planteamos cual es la probabilidad de encestar más de 100
lanzamientos tendremos que calcular 100 términos, siendo aburrido y muy laborioso:
P(x>100)=p(x=100)+p(x=101)+…+ …+p(x=199)+p(x=200)=
=200100 · 0,4 · 0,6 + 200
101 · 0,4 · 0,6 + ⋯ + 200199 · 0,4 · 0,6 + 200
200 ·
0,4 · 0,6.
Surge así la pregunta natural: ¿no se podría calcular esta probabilidad sin tener que
recurrir a la formula de distribución binomial 100 veces?. Resulta que si se puede, el Teorema
de Movire-Laplace nos muestra que de forma aproximada podemos aproximar esta
probabilidad utilizando la distribución normal.
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 10
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
2. Aproximación de la binomial a la normal
Teorema de Movire-Laplace: si X es una variable discreta que sigue una distribución
binomial de parámetros n y p, B(n,p) y se cumple que n>10, n·p>5 y n·q>5 resulta una
aproximación bastante buena suponer que la variable X’ (recordemos que en la binomial
µ=n·p y σ= · · ) se aproxima a la variable normal N(n·p, · · ).
Resulta mucho más sencillo trabajar con la variable normal X’ que con la binomial X, pues
recordemos que los valores de la normal están tabulados.
Corrección de continuidad o de Yates: cuando aproximamos una distribución binomial
mediante una normal, estamos convirtiendo una variable X discreta (toma un número
determinado de valores) en una continua X’ (toma valores en un intervalo).
Los valores de la probabilidad para valores fijos de la variable continua son cero (ya que
sería el área de un punto), y necesitamos definir un intervalo. Para evitar este problema en la
aproximación de los valores fijos estos se corrigen (corrección de continuidad o de Yates)
sustituyéndolos por un intervalo centrado en el punto y de valor unidad. En el siguiente
esquema se muestran todas las situaciones posibles:
X⇒B(n,p) y X’⇒N(n·p, · · )
• P(X=a)=P(a-0,5≤X’≤a+0,5)
• P(X≤a)=P(X’≤a+0,5) (para que contenga al punto a)
• P(X<a)= P(X’≤a-0,5) (para que no contenga al punto a)
• P(X>a)=P(X’≥a+0,5) (para que no contenga al punto a)
• P(X≥a)=P(X’≥a-0,5) (para que contenga al punto a)
P(a≤X<b)=P(a-0,5≤X’≤b+0,5) (para que contenga al punto a y no a b)
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 11
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
Ejemplo: Se efectúan 15 lanzamientos de una moneda. Calcular la probabilidad de que ocurran
los siguientes sucesos
a) salgan entre 8 y 12 caras
b) Salgan menos de 6 caras
Solución
a) X=nº carasB(15,0,5)
Si calculamos el problema de forma exacta el problema tenemos que sumar 5 términos
P(8≤X≤12)=P(x=8)+p(x=9)+p(x=10)+p(x=11)+p(x=12)=0,4963
Aproximando con la distribución normal (µ=n·p=7.5;σ= · · =1,94):
X’N(7.5,194): P(8≤X≤12)=P(7,5≤X’≤12,5)=P(..
, ≤ ≤ .., ) = !0 ≤ ≤ 2.6) =
0,497
b) Exacto: P(X<6)=P(x=5)+P(x=4)+P(x=3)+P(x=2)+P(x=1)+P(x=0)=0,1508
Aproximación: P(X’≤5.5)=P(Z ≤ .., )=P(Z≤-1,03)=1-P(Z≤1,03)=0,1515
Binomial n=100 p=0,5 y N(n·p, $ · % · &)
Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 12
TEMA 66. Distribuciones de probabilidad de variable continua. Distribución normal
11. Conclusiones
La probabilidad se introduce en los cursos de 2º y 3º de la Eso teniendo un peso más
fuerte en las dos ramas de las matemáticas del 4º curso, donde ya se habla de la probabilidad
condicional y de la probabilidad total (no así del teorema de Bayes) .
La probabilidad cobra más importancia en el currículo de bachillerato, en especial en el
bachillerato de ciencias sociales. Es en estos dos cursos donde se ven las distribuciones de
probabilidad, en concreto la binomial y la normal.
En casi todos los exámenes de selectividad (ya sea la PAU o la EBAU) de matemáticas
aplicadas a las ciencias sociales suele haber un ejercicio de distribución normal.