capítulo3 variablesaleatorias - universidad autónoma de ... · 44 capÍtulo3. variablesaleatorias...

32
Capítulo 3 Variables aleatorias 3.1 Definición, tipos En ocasiones de un experimento aleatorio sólo nos interesará conocer ciertas características del mismo. En estos casos nos bastará con conocer la distribución o modelo de probabilidad de cada característica. Ejemplo 21 Si queremos estudiar “la suma de dos dados lanzados uno tras otro” , de los 36 resultados (a, b), estudiaremos los 11 posibles resultados a + b. Si ninguno de los dados está trucado, nuestro modelo de probabilidad será: P ( Suma sea ω)= 1 36 si a + b =2 2 36 si a + b =3 . . . 1 36 si a + b = 12 Si quisiéramos estudiar también “cuánto distan” , es decir |a-b|, tendríamos 6 resultados: 0, 1, 2, 3, 4 ó 5, con distribución de probabilidad dada por: P ( Distancia sea ω)= 6 36 si |a - b| =0 10 36 si |a - b| =1 . . . 2 36 si |a - b| =5 Para ambas características estamos utilizando el mismo modelo de probabilidad sobre el espacio mues- tral de 36 sucesos elementales: Ω= {(1, 1), (1, 2),..., (6, 5), (6, 6)}. Y este modelo de probabilidad nos permite calcular el modelo para ambas características (o cualquier otra asociada al experimento). Definición 3.1.1. Una variable aleatoria X es una “función” X -→ R, que a cada elemento del espacio muestral le hace corresponder un número real. La idea recogida en esta definición es que para cada suceso elemental, ω Ω, el valor X (ω) representa la característica que queremos estudiar. 41

Upload: tranliem

Post on 01-Oct-2018

216 views

Category:

Documents


0 download

TRANSCRIPT

Capítulo 3

Variables aleatorias

3.1 Definición, tipos

En ocasiones de un experimento aleatorio sólo nos interesará conocer ciertas características del mismo.En estos casos nos bastará con conocer la distribución o modelo de probabilidad de cada característica.

Ejemplo 21 Si queremos estudiar “la suma de dos dados lanzados uno tras otro” , de los 36 resultados(a, b), estudiaremos los 11 posibles resultados a + b. Si ninguno de los dados está trucado, nuestromodelo de probabilidad será:

P ( Suma sea ω) =

136

si a + b = 2236

si a + b = 3...136

si a + b = 12

Si quisiéramos estudiar también “cuánto distan” , es decir |a−b|, tendríamos 6 resultados: 0, 1, 2, 3, 4ó 5, con distribución de probabilidad dada por:

P ( Distancia sea ω) =

636

si |a− b| = 01036

si |a− b| = 1...236

si |a− b| = 5

Para ambas características estamos utilizando el mismo modelo de probabilidad sobre el espacio mues-tral de 36 sucesos elementales: Ω = (1, 1), (1, 2), . . . , (6, 5), (6, 6). Y este modelo de probabilidadnos permite calcular el modelo para ambas características (o cualquier otra asociada al experimento).

Definición 3.1.1. Una variable aleatoria X es una “función” X : Ω −→ R, que a cada elemento delespacio muestral le hace corresponder un número real.

La idea recogida en esta definición es que para cada suceso elemental, ω ∈ Ω, el valor X(ω)representa la característica que queremos estudiar.

41

42 CAPÍTULO 3. VARIABLES ALEATORIAS

Ejemplo 22 En el experimento del lanzamiento sucesivo de dos dados, estamos considerando lassiguientes variables aleatorias:

X = suma de los dados ;

Y = diferencia (en valor absoluto) de ambos dados .

A partir de ellas podemos definir distintos sucesos aleatorios. Por ejemplo:

A1 = ω ∈ Ω : X(ω) = 5 ; A2 = ω ∈ Ω : X(ω) > 7 ;

A3 = ω ∈ Ω : Y (ω) ≤ 4 ; A4 = ω ∈ Ω : (X − Y )(ω) = 6 .

Y nos interesará conocer la probabilidad de los diferentes sucesos correspondientes a una variablealeatoria, es decir, su modelo o función de probabilidad.

Definición 3.1.2. Sea X : Ω −→ R una variable aleatoria. Si A es un subconjunto de R, definimos:

P (A) = P (X ∈ A) := P (ω ∈ Ω : X(ω) ∈ A) .

Ejemplo 23 De los tres primeros sucesos del ejemplo anterior, considerando que los dados no estántrucados, tenemos que:

P (A1) =4

36=

1

9; P (A2) =

5 + 4 + 3 + 2 + 1

36=

15

36=

5

12; P (A3) = 1− 2

36=

17

18; P (A4) =

7

36

que hemos calculado con las siguientes igualdades, evidentes:

P (A2) = P (X > 7)) = P (X = 8) + P (X = 9) + P (X = 10) + P (X = 11) + P (X = 12))

P (A3) = P ((Y ≤ 4)) = 1− P ((Y = 5)) .

Obsérvese el abuso de notación, P (X > x) en lugar de P (X(ω) > x) por ejemplo, que utilizaremos,para simplificar, siempre que esté claro lo que queremos decir. Por último, los casos ω = (a, b) en quese verifica (X − Y )(ω) = 6 son los siete siguientes: (3, 3), (3, 4), (4, 3), (3, 5), (5, 3), (3, 6) y (6, 3).

3.2 Función de masa o de densidad, función de distribución

Definición 3.2.1. La función de distribución de una variable aleatoria se define como:

F (x) = P ((−∞, x]) = P (ω ∈ Ω : X(ω) ≤ x) para todo x ∈ R .

Propiedades de las funciones de distribución

1. lımx→−∞

F (x) = 0;

2. lımx→∞

F (x) = 1;

3. si x1 < x2, entonces F (x1) ≤ F (x2);

3.2. FUNCIÓN DE MASA O DE DENSIDAD, FUNCIÓN DE DISTRIBUCIÓN 43

4. F es continua por la derecha, es decir:

lımh→0+

F (x + h) = F (x) .

Es fácil, dada una función de distribución, calcular la probabilidad de diferentes tipos de inter-valos de la recta real. Basta tomar la definición, P ((−∞, x]) = F (x) y las propiedades generales decualquier función de distribución. Denotaremos por

F (x−) = lımh→0+

P ((−∞, x− h]) = P ((−∞, x)) .

Se tienen así las siguientes identidades:

P ((a, b]) = P ((−∞, b])− P ((−∞, a]) = F (b)− F (a)

P ((a, b)) = P ((−∞, b))− P ((−∞, a]) = F (b−)− F (a)

P ([a, b]) = P ((−∞, b])− P ((−∞, a)) = F (b)− F (a−)

P (b) = ((−∞, b])− P ((−∞, b)) = F (b)− F (b−) = “salto de F en el punto b .

La última de ellas nos dice que si la función de distribución, F , tiene un salto en un punto, laprobabilidad de ese punto es positiva.

Ya hemos dicho que al estudiar una variable aleatoria nos interesará conocer su función de proba-bilidad. La función de distribución caracteriza completamente la de probabilidad. Ahora bien, paralos casos más interesantes de variables aleatorias que trataremos, hay herramientas más sencillas quela función de distribución para conocer el reparto de probabilidad. Éstas son: la función de masa,para una variable aleatoria discreta; la función de densidad, si la variable aleatoria es continua.

3.2.1 Variables aleatorias discretas

Definición 3.2.2. Una variable aleatoria, X, se dice discreta cuando sólo puede tomar un númerofinito o numerable de valores x1, . . . , xn, . . . .

La función de probabilidad de una variable aleatoria discreta X queda totalmente caracterizadapor su función de masa, que nos da la probabilidad de cada uno de esos posibles valores:

P (X = xi) = P (xi) = P (xi) = P (ω ∈ Ω : X(ω) = xi) i = 1, 2, 3, . . . , n, . . . .

Se sigue de la definición que∑i

P (xi) = 1. La función de distribución de una variable aleatoria

discreta tiene forma de escalera:

• •

x1 x2 x3 x

F (x)

Obsérvese que la función de distribución, F (x), es no decreciente (¿por qué?).

44 CAPÍTULO 3. VARIABLES ALEATORIAS

Ejemplo 24 Calcular la función de masa y la función de distribución de la variable aleatoriaX =“suma de los dados” , en el experimento de tirar sucesivamente dos dados no trucados.Solución: El espacio muestral tiene 36 elementos:

Ω = (1, 1), (1, 2), . . . , (6, 5), (6, 6) .

La variable aleatoria X, es una función del espacio muestral Ω en R que sólo toma los 11 valores en-teros: 2, 3, . . . , 12. Puesto que los dados no están trucados, los sucesos elementales son equiprobables,y así:

P ((a, b)) =1

36, para cualquier (a, b) ∈ Ω .

Puesto que podemos contar cuántos elementos de Ω hay en cada uno de los sucesos X = 2, X = 3,. . . , X = 12, conocemos la función de masa de la variable X. La siguiente tabla de valores, determinacompletamente la función de masa de X:

xi 2 3 4 5 6 7 8 9 10 11 12

P (X = xi)1

36

2

36

3

36

4

36

5

36

6

36

5

36

4

36

3

36

2

36

1

36

Obsévese que1 + 2 + 3 + 4 + 5 + 6 + 5 + 4 + 3 + 2 + 1

36= 1 .

Por su parte la función de distribución, F : R −→ [0, 1], viene dada por:

F (x) = 0 si x < 2 , F (x) = 1 si x ≥ 12

y para 2 ≤ x < 12, va subiendo de 0 a 1 paulatinamente creando una gráfica con escalones horizontalesentre cada dos enteros consecutivos, con los saltos en cada entero determinados por la función demasa (dibujar la gráfica).

3.2.2 Variables aleatorias continuas

Definición 3.2.3. Una variable aleatoria, X, se dice continua cuando puede tomar cualquierade los valores de un intervalo. La función de probabilidad de una variable aleatoria continua quedacaracterizada por su función de densidad, que es una función f : R −→ R verificando:

1. f(x) ≥ 0, para todo x ∈ R;

2.∫

Rf(x) dx = 1.

La probabilidad de un suceso, A, relativo a una variable aleatoria continua, X, con función dedensidad f se calcula mediante la fórmula:

P (A) =

A

f(x) dx

3.2. FUNCIÓN DE MASA O DE DENSIDAD, FUNCIÓN DE DISTRIBUCIÓN 45

Conviene resaltar que para una variable aleatoria continua X, los sucesos unitarios, A = t, tienenprobabilidad 0 pues:

P (t) =

tf(x) dx = 0 .

Este hecho viene a decir que si X es una variable aleatoria continua, la probabilidad de que X tomeun valor particular es nula: P (X = t) = P (t) = 0. Como consecuencia, la función de distribuciónno tiene saltos, es decir, es continua.

La función de distribucion se obtiene a partir de la función de densidad:

F (x) = P ((−∞, x]) =

∫ x

−∞f(t) dt .

Además, en los puntos en que F (x) es derivable:

f(x) = F ′(x) .

Ejemplo 25 Sea un segmento OA de longitud 5. ¿Cuál es la probabilidad de que un punto B,situado al azar en OA, se encuentre en un segmento CD de OA? ¿Cuál es la función de densidad dela distancia OB?Solución: El conjunto Ω de sucesos es no numerable. La probabilidad de que B sea un puntocualquiera del segmento CD, es nula. La probabilidad de que B esté sobre CD se define mediantela razón de las longitudes: CD/OA. Modelizaremos el experimento tomando OA sobre el intervalo[0, 5] de la recta real:

•O = 0

•A = 5

C

D

B

ª U q

Podemos definir la función de distribución de la variable aleatoria continua X =“distancia OB” ,de manera que sea igual a 1 cuando B esté en A:

∫ 5

0

f(x) dx = 1 .

Puesto que el punto B se sitúa al azar en el intervalo OA, la distribución es uniforme sobre OA, esdecir, la función de densidad es constante, y así:

f(x) =

0 si x /∈ [0, 5]1

5si x ∈ [0, 5]

=⇒ F (x) =

0 si x < 0∫ x

0

1

5dt =

x

5si x ∈ [0, 5]

1 si x ≥ 5 .

x

f(x)

15

x

F (x)

46 CAPÍTULO 3. VARIABLES ALEATORIAS

3.3 Esperanza: media y varianza

Con frecuencia de los experimentos aleatorios que estudiemos, podremos realizar un estudio es-tadístico previo. Para ello, se toma cierta muestra, realizando varias veces el experimento, y serecogen datos sobre distintas características del mismo. El objetivo último es adaptar, para las dis-tintas características del experimento (variables aleatorias), modelos de probabilidad teóricos quenos permitan predecir el comportamiento real (su probabilidad) de estas características. De los datostomados se calcularán ciertas medidas que nos darán idea de la distribución de cada una de lascaracterísticas objeto de estudio.

Destacamos entre éstas la media (medida de centralización), la varianza y la desviacióntípica (medidas de dispersión). En esta sección definiremos los conceptos análogos a estas medidasde la Estadística.

Definición 3.3.1. Dada una variable aleatoria discreta, X, con función de masa P (xi), i = 1, 2, . . . ,se define su media o esperanza como:

µ = E[X] =∑

i

xiP (xi) .

De manera análoga, si X es una variable aleatoria continua, con función de densidad f(x), sedefine su media o esperanza como:

µ = E[X] =

Rxf(x) dx .

Pasemos a las medidas de dispersión (en el capítulo de Estadística vimos la utilidad de estasmedidas).

Definición 3.3.2. La varianza de una variable aleatoria discreta, X, con función de masa P (xi)y media µ se define como:

σ2 = V [X] = E[(X − µ)2] =∑

i

(xi − µ)2P (xi) .

Análogamente, la varianza de una variable aleatoria continua, X, con función de densidad f(x)media µ se define como:

σ2 = V [X] = E[(X − µ)2] =

R(x− µ)2f(x) dx .

La desviación típica, σ, de una variable aleatoria se define como la raíz cuadrada positiva desu varianza.

Ejercicio 1 Demostrar, en los casos discreto y continuo, la siguiente identidad para la varianza deuna variable aleatoria:

σ2 = E[X2]− µ2

3.3. ESPERANZA: MEDIA Y VARIANZA 47

Solución: Si X es una variable aleatoria discreta con función de masa P (xi), desarrollando elcuadrado y simplificando, se obtiene:

σ2 =∑

i

(xi − µ)2P (xi)

=∑

i

(x2i − 2xiµ + µ2)P (xi)

=∑

i

x2i P (xi)− 2µ · (

∑i

xiP (xi))

+ µ2 · (∑

i

P (xi))

= E[X2]− 2µ2 + µ2 = E[X2]− µ2 .

En el caso continuo, desarrollando el cuadrado y simplificando, se obtiene:

σ2 =

R(x− µ)2f(x) dx

=

Rx2f(x) dx− 2µ

( ∫

Rxf(x) dx

)+ µ2

( ∫

Rf(x) dx

)

= E[X2]− 2µ2 + µ2 = E[X2]− µ2 .

Ejemplos

Ejemplo 26 Una persona participa en un concurso de televisión con las siguientes reglas:

• Si contesta correctamente a una pregunta con cinco respuestas posibles (sólo una correcta) gana10 000e.

• En caso contrario se le propone una segunda pregunta con tres respuestas posibles (sólo unacorrecta). Si acierta gana 1 000e.

• Si tampoco acierta la segunda respuesta, se le propone una tercera con dos respuestas posibles(sólo una correcta). Si acierta no gana nada, pero si falla debe pagar 500e.

El juego termina cuando la persona acierta o tras fallar la tercera pregunta. Si un concursante contestaal azar, calcúlese:

a) probabilidad de que obtenga una respuesta correcta;

b) la ganancia esperada;

c) E[X] y V [X], siendo X el número de preguntas propuestas al concursante.

Solución: Sea Ai el suceso “el concursante responde correctamente la cuestión i-ésima” , i = 1, 2, 3.Los sucesos A1, A2 y A3 son independientes.

a) La probabilidad de que una respuesta sea correcta es:

P (A1) + P (A2)P (Ac1) + P (A3)P (Ac

1)P (Ac2) =

1

5+

1

3· 4

5+

1

2· 4

5· 2

3=

11

15.

48 CAPÍTULO 3. VARIABLES ALEATORIAS

b) Sea Y la variable aleatoria “ganancia” . Es claro que esta variable toma los valores:

y1 = 10 000 con P (y1) =1

5;

y2 = 1 000 con P (y2) =4

5· 1

3=

4

15;

y3 = 0 con P (y3) =4

5· 2

3· 1

2=

4

15;

y3 = −500 con P (y3) =4

5· 2

3· 1

2=

4

15.

Por tanto, la ganancia esperada es:

E[Y ] = 10 000 · 1

5+ 1 000 · 4

15+ 0 · 4

15− 500 · 4

15= 2 133.33e .

c) La variable aleatoria X puede tomar los valores:

x1 = 1 con P (X = 1) = P (A1) =1

5,

x2 = 2 con P (X = 2) = P (A2)P (Ac1) =

1

3· 4

5=

4

15,

x3 = 3 con P (X = 3) = P (Ac2)P (Ac

1) =2

3· 4

5=

8

15.

Así:

µ = E[X] =3∑

i=1

xiP (xi) = 1 · 1

5+ 2 · 4

15+ 3 · 8

15=

35

15= 2.33 ;

V [X] = E[X2]− µ2 =3∑

i=1

x2i P (xi)− µ2

= 1 · 1

5+ 4 · 4

15+ 9 · 8

15−

(35

15

)2

=91

15− 1225

225=

1365− 1225

225=

140

225=

28

45= 0.622 .

Ejemplo 27 La longitud de ciertos tornillos en centímetros se distribuye según la función de densi-dad:

f(x) =

3

4(x− 1)(3− x) si x ∈ [1, 3]

0 si x /∈ [1, 3] .

i) Calcúlese E[X] y σ[X].

ii) Si los tornillos son válidos sólo si su longitud está entre 1.7 y 2.4 cm., calcúlese la probabilidadde que un tornillo sea válido.

3.4. VARIAS VARIABLES 49

Solución: i) Aplicamos directamente las fórmulas a la variable aleatoria continua X =longitud deltornillo, que tiene función de densidad f(x):

E[X] =∫ 3

1

34

x(x− 1)(3− x) dx =34

∫ 3

1(−3x + 4x2 − x3) dx

=34

(− 3

2(9− 1) +

43(27− 1)− 1

4(81− 1)

)

=34

(− 12 +

1043− 20

)=

34· 83

= 2 ;

E[X2] =34

∫ 3

1(−3x2 + 4x3 − x4) dx =

34

(− (27− 1) + (81− 1)− 1

5(243− 1)

)

=34

(− 26 + 80− 242

5

)=

34· 28

5=

215

σ2[X] = E[X2]− µ2 =215− 4 =

15

σ[X] =

√15

=√

55

= 0.447 .

ii) Nos piden calcular P (1.7 < x < 2.4), que, por definición, es:

P (1.7 < x < 2.4) =∫ 2.4

1.7f(x) dx =

34

∫ 2.4

1.7(−3 + 4x− x2) dx

=34·(− 3(2.4− 1.7) + 2(2.42 − 1.72)− 1

3(2.43 − 1.73)

)

=34·(− 2.1 + 5.74− 1

38.911

)=

14·(10.92− 8.911

)

=2.009

4= 0.50225 .

3.4 Varias variables

En un mismo experimento aleatorio podemos considerar distintas variables aleatorias: X1, X2, . . . .En ocasiones interesará considerar sucesos determinados por valores referidos a varias de ellas, en cuyocaso tendremos que “mezclar” adecuadamente la información de las variables individuales.

En el mejor de los casos la información de cada variable no influirá en la de las demás. Diremosque estamos ante variables independientes. Cuando esto no sea así, tendremos una relación entreellas más o menos fuerte. La covarianza de dos variables aleatorias es un número que nos mideesta posible relación.

Definición 3.4.1. (Vectores aleatorios) Un vector aleatorio (o variable aleatoria de dimensión n)es una “función”

(X1, . . . , Xn) : Ω −→ Rn .

que a cada elemento ω del espacio muestral Ω le hace corresponder n números reales X1(ω), . . . , Xn(ω).

50 CAPÍTULO 3. VARIABLES ALEATORIAS

Ejemplo 28 En el experimento “tirar dos dados perfectos sucesivamente” , se considera el vectoraleatorio

(X,Y ) : Ω −→ R2

que dado un elemento ω = (a, b) nos devuelve:

(X, Y )(ω) = (a + b, |a− b|) .

En el concurso televisivo del Ejemplo 26, se considera el vector aleatorio

(X,Y ) : Ω −→ R2

que a cada elemento del espacio muestral, ω, le asocia:

(X, Y )(ω) = ( preguntas propuestas al concursante , ganancia del concursante ) .

En la producción de tornillos del Ejemplo 27, consideramos el vector aleatorio

(X,Y, Z) : Ω −→ R3

que al tomar cada tornillo ω ∈ Ω, nos dice:

(X, Y, Z)(ω) = ( su longitud , diámetro de la cabeza , longitud de la rosca ) .

En lo que sigue definiremos los conceptos análogos al caso de una variable aleatoria para vectoresaleatorios de dimensión 2. El caso n–dimensional es la generalización natural del de dimensión 2.Además, al considerar vectores aleatorios de la forma:

(X,Y ) : Ω −→ R2

podremos hacer representaciones sobre el plano, ganando en claridad a la hora de asimilar los con-ceptos.

Definición 3.4.2. Si A es un subconjunto de R2 descrito como conjunto de posibles valores del vectoraleatorio (X, Y ) : Ω −→ R2, definimos:

P (A) = P ((X, Y ) ∈ A) = P (ω ∈ Ω : (X(ω), Y (ω)) ∈ A) .

Definición 3.4.3. La función de distribución de un vector aleatorio (X,Y ) se define como:

F (x, y) = P ((s, t) ∈ R2 : s ≤ x, t ≤ y)= P (ω ∈ Ω : X(ω) ≤ x, Y (ω) ≤ y) para todo (x, y) ∈ R2 .

Las propiedades de las funciones de distribución de un vector aleatorio son, en cierto modo,parecidas al caso de una variable. Sin embargo son menos manejables, de manera que utilizaremoslas funciones de masa conjunta o de densidad conjunta, para el cálculo de probabilidades.

Ejercicio 2 Calcular la función de distribución del vector aleatorio

(X,Y ) : Ω −→ R2

correspondiente al concurso televisivo del Ejemplo 28.

3.4. VARIAS VARIABLES 51

3.4.1 Densidad conjunta

Definición 3.4.4. Un vector aleatorio (X, Y ) es discreto cuando sólo puede tomar un númerofinito o numerable de valores. El modelo de probabilidad conjunta de un vector aleatorio(X,Y ) discreto queda caracterizado por la función de masa conjunta:

P (X = xi, Y = yj) = P (ω ∈ Ω : X(ω) = xi, Y (ω) = yj) i = 1, . . . ,m ; j = 1, . . . , n .

Cuando esté claro por el contexto, utilizaremos la siguiente notación: pi,j = P (X = xi, Y = yj).La función de masa conjunta suele presentarse con una tabla de doble entrada:

X

Y

y1 · · · yj · · · yn

x1...

...xi · · · · · · pi,j · · · · · ·...

...xm

Ejemplo 29 Para el concurso televisivo descrito en el Ejemplo 26, calcular la función de masa delvector aleatorio determinado por:

(X, Y )(ω) = ( preguntas propuestas al concursante , ganancia del concursante ).Solución: Este vector aleatorio puede tomar 3 × 4 = 12 valores, tomando la primera componente3 posibles valores, y 4 la segunda. La siguiente tabla nos representa la función de masa conjunta:

X

Y

−500 0 1 000 10 000

1 0 0 015

2 0 0415

0

3415

415

0 0

En el caso de vectores aleatorios, aparte de la distribución conjunta, hay otras distribucionestambién muy interesantes: las distribuciones marginales y las condicionadas.

Definición 3.4.5. Las distribuciones marginales de un vector aleatorio (X, Y ) son las que seobtienen al considerar cada característica por separado. Así tenemos:Distribución marginal de X: es de tipo discreto y su función de masa marginal viene

dada por:

P (X = xi) =n∑

j=1

P (X = xi, Y = yj) , i = 1, . . . ,m .

Distribución marginal de Y : es de tipo discreto y su función de masa marginal vienedada por:

P (Y = yj) =m∑

i=1

P (X = xi, Y = yj) , j = 1, . . . , n .

52 CAPÍTULO 3. VARIABLES ALEATORIAS

Obsérvese que, de la definición, es fácil obtener cada distribución marginal si la función de masaconjunta viene representada por una tabla de doble entrada: basta en cada caso sumar por filas opor columnas.

Ejemplo 30 Las distribuciones marginales del ejemplo anterior se obtienen a partir de la tabla comose indica:

X

Y

−500 0 1 000 10 00 P (X = xi) FX(xi)

1 0 0 015

15

15

2 0 0415

0415

715

3415

415

0 0815

1

P (Y = yj)415

415

415

15

FY (yj)415

815

45

1

3.4.2 Covarianza

Antes de pasar a las distribuciones condicionadas conviene definir: covarianza e independencia.

Definición 3.4.6. La covarianza entre dos variables aleatorias discretas X e Y se define como:

Cov(X, Y ) = E[(X − E[X])(Y − E[Y ])

]

=m∑

i=1

n∑j=1

(xi − E[X])(yj − E[Y ])P (X = xi, Y = yj) .

Decimos que X e Y están incorreladas, cuando Cov(X,Y ) = 0.

Se define, también, el coeficiente de correlación lineal de (X, Y ) como:

r =Cov(X,Y )

σ[X]σ[Y ].

Este coeficiente verifica que −1 ≤ r ≤ 1, y sirve para estudiar la existencia de una posible relaciónlineal entre X e Y : digamos Y = aX + b para ciertos coeficientes a, b ∈ R. Si r = 1 ó r = −1, existetal relación lineal. Su utilidad quedará más clara en los capítulos sobre Estadística.

Ejercicio 3 Demostrar la siguiente fórmula:

Cov(X, Y ) = E[XY ]− E[X] · E[Y ] .

3.4. VARIAS VARIABLES 53

Solución: Desarrollando el sumatorio y usando las propiedades de las funciones de distribuciónconjunta y marginales, tenemos:

Cov(X, Y ) =m∑

i=1

n∑j=1

(xi − E[X])(yj − E[Y ])P (X = xi, Y = yj)

=m∑

i=1

n∑j=1

xiyjP (X = xi, Y = yj)− E[Y ]m∑

i=1

xi

( n∑j=1

P (X = xi, Y = yj))

−E[X]n∑

j=1

yj

( m∑i=1

P (X = xi, Y = yj))

+ E[X]E[Y ]m∑

i=1

n∑j=1

P (X = xi, Y = yj)

= E[XY ]− E[Y ]m∑

i=1

xiP (X = xi)− E[X]n∑

j=1

yjP (Y = yj) + E[X]E[Y ]

= E[XY ]− E[Y ]E[X]− E[X]E[Y ] + E[X]E[Y ] = E[XY ]− E[X]E[Y ] .

3.4.3 Independencia

Definimos a continuación la independencia de variables aleatorias discretas, de manera análoga a ladefinición de independencia de sucesos.

Definición 3.4.7. Dos variables aleatorias discretas, X e Y , se dicen independientes cuando:

P (X = xi, Y = yj) = P (X = xi) · P (Y = yj) para i = 1, . . . ,m ; j = 1, . . . , n .

Surge, de manera directa, la siguiente propiedad:

“Si X e Y son variables aleatorias discretas independientes entonces

E[XY ] = E[X] · E[Y ] .

En particular son incorreladas, es decir: Cov(X,Y ) = 0” .

Ejercicio 4 Demostrar la propiedad anterior.Solución: Supongamos que X e Y son independientes, es decir:

P (X = xi, Y = yj) = P (X = xi) · P (Y = yj) ,

para i = 1, . . . ,m ; j = 1, . . . , n. Calculemos la esperanza de la variable producto X · Y :

E[XY ] =m∑

i=1

n∑j=1

xiyjP (X = xi, Y = yj)

=m∑

i=1

n∑j=1

xiyjP (X = xi) · P (Y = yj)

=m∑

i=1

xiP (X = xi)( n∑

j=1

yjP (Y = yj))

= E[Y ]( m∑

i=1

xiP (X = xi))

= E[Y ]E[X] .

54 CAPÍTULO 3. VARIABLES ALEATORIAS

En particular Cov(X, Y ) = E[XY ] − E[X]E[Y ] = 0, en otras palabras, X e Y son incorreladassiempre que sean independientes.

Ejercicio 5 Calcular la covarianza de las variables aleatorias X = “número de preguntas propuestasal concursante” e Y = “ganancia de un concursante”, del Ejemplo 26.Solución: De la tabla de las funciones de masa conjunta y marginales del vector (X, Y ) vemos queno son independientes, pues, por ejemplo:

P (X = 3, Y = 0) =415

mientras que P (X = 3) · P (Y = 0) =815· 4156= 4

15.

Con los datos de la tabla calculamos:

E[X] = 1 · 15

+ 2 · 415

+ 3 · 815

=3515

=73

E[Y ] = 10 000 · 15

+ 1 000 · 415

+ 0 · 415− 500 · 4

15=

32 00015

=6 400

3

E[XY ] = 1 · 10 000 · 15

+ 2 · 1 000 · 415

+ 3 · 0 · 415

+ 3 · (−500) · 415

=32 000

15=

6 4003

de donde: Cov(X, Y ) = E[XY ]−E[X]E[Y ] =6 400

3− 7

3· 6 400

3=

(1− 7

3

)· 6 400

3=−25 600

9

3.4.4 Densidades condicionadas

Finalizamos esta sección con el concepto de probabilidad condicionada.

Definición 3.4.8. La distribución de la variable aleatoria X, condicionada por un valor fijo, yj, dela variable aleatoria Y , viene dada por la función de masa condicionada:

P (X = xi |Y = yj) =P (X = xi, Y = yj)

P (Y = yj), i = 1, . . . , m .

Es fácil comprobar que si X e Y son independientes, las distribuciones condicionadas coincidencon las distribuciones marginales correspondientes:

P (X = xi |Y = yj) =P (X = xi, Y = yj)

P (Y = yj)

=P (X = xi) · P (Y = yj)

P (Y = yj)= P (X = xi) , i = 1, . . . ,m .

Y, análogamente, para Y : P (Y = yj |X = xi) = P (Y = yj), j = 1, . . . , n.

3.4.5 Vectores aleatorios continuos

Definición 3.4.9. Un vector aleatorio (X,Y ) es continuo cuando toma valores en un subconjuntono discreto de R2; por ejemplo: un cuadrado, un rectángulo, un triángulo, un círculo, un sectorcircular, . . . .

El modelo de probabilidad conjunta de un vector aleatorio (X,Y ) continuo queda carac-terizado por la función de densidad conjunta, que es una “función” f : R2 −→ R, verificando:

1. f(x, y) ≥ 0 para todo (x, y) ∈ R2;

3.4. VARIAS VARIABLES 55

2.∫∫

R2

f(x, y) dx dy = 1.

La probablidad de cualquier suceso A ⊂ R2 relativo al vector aleatorio continuo (X,Y ), se calculapor la fórmula:

P (A) =

∫∫

A

f(x, y) dx dy .

Definición 3.4.10. Las distribuciones marginales de un vector aleatorio (X,Y ) son las quese obtienen al considerar cada característica por separado. Así tenemos:Distribución marginal de X: es de tipo continuo y su función de densidad marginal

viene dada por:

f(x) =

Rf(x, y) dy , para todo x ∈ R .

Distribución marginal de Y : es de tipo continuo y su función de densidad marginalviene dada por:

f(y) =

Rf(x, y) dx , para todo y ∈ R .

Definición 3.4.11. La covarianza entre dos variables aleatorias continuas X e Y se define como:

Cov(X,Y ) = E[(X − E[X])(Y − E[Y ])

]=

∫∫

R2

(x− E[X])(y − E[Y ])f(x, y) dx dy .

Decimos que X e Y están incorreladas, cuando Cov(X, Y ) = 0. El coeficiente de corre-lación lineal de (X, Y ) se define como:

r =Cov(X,Y )

σ[X]σ[Y ].

Ejercicio 6 Demostrar la igualdad: Cov(X,Y ) = E[XY ]− E[X]E[Y ].

Definición 3.4.12. Dos variables aleatorias continuas, X e Y , se dicen independientes si:

f(x, y) = f(x)f(y) para cualesquiera x ∈ R, y ∈ R .

Se tienen, también, la siguiente propiedad:

“Si X e Y son variables aleatorias continuas independientes entonces

E[XY ] = E[X] · E[Y ] .

En particular son incorreladas, es decir: Cov(X,Y ) = 0” .

Definición 3.4.13. La distribución de la variable aleatoria X, condicionada por un valor fijo, y, dela variable aleatoria Y , viene dada por la función de densidad condicionada:

f(x | y) = f(x |Y = y) =f(x, y)

f(y), para todo x ∈ R .

Obsérvese que es necesario que f(y) > 0. Intuitivamente, esto quiere decir que estamos condicio-nando por un valor de Y potencialmente observable.

56 CAPÍTULO 3. VARIABLES ALEATORIAS

Es fácil comprobar que si X e Y son independientes, las distribuciones condicionadas coincidencon las distribuciones marginales correspondientes:

f(x | y) =f(x)f(y)

f(y)= f(x) , para todo x ∈ R ; f(y | x) =

f(x)f(y)

f(x)= f(y), para todo y ∈ R .

Ejercicio 7 La función de densidad conjunta de dos variables aleatorias continuas es:

f(x, y) =

k(x + xy) si x ∈ (0, 1), y ∈ (0, 1)0 en otro caso.

1) ¿Cuál es el valor de k?

2) Calcular la densidad marginal, la esperanza y la varianza de cada variable.

3) ¿Son variables independientes?

4) Calcular la covarianza.

Solución: 1) Puesto que es una función de densidad hemos de tener integral total 1. Integrandotenemos:

∫∫

R2

f(x, y) dx dy = k

∫ 1

0

∫ 1

0

(x + xy) dx dy

= k

∫ 1

0

x( ∫ 1

0

(1 + y) dy)

dx = k

∫ 1

0

x((1− 0) + (

1

2− 0)

)dx

=3k

2

∫ 1

0

x dx =3k

2

(1

2− 0

)=

3k

4=⇒ k =

4

3.

2) Las densidades marginales serán:

f(x) =

Rf(x, y) dy

ahora bien:∫ 1

0

4

3x(1 + y) dy =

4x

3

((1− 0) + (

1

2− 0)

)= 2x

de donde: f(x) =

2x si x ∈ (0, 1)0 en otro caso;

f(y) =

Rf(x, y) dx

ahora bien:∫ 1

0

4

3(1 + y)x dx =

4(1 + y)

3

(1

2− 0

)=

2

3(1 + y)

de donde: f(y) =

2

3(1 + y) si y ∈ (0, 1)

0 en otro caso.

3.5. SUMA DE VARIABLES INDEPENDIENTES 57

Con las densidades marginales calculamos los parámetros pedidos de cada variable:

µX = E[X] =∫ 1

0x · 2xdx = 2

(13− 0

)=

23

E[X2] =∫ 1

0x2 · 2xdx =

12

(1− 0) =12

σ2X = E[X2]− µ2

X =12− 4

9=

118

µY = E[Y ] =∫ 1

0y · 2

3(1 + y) dy =

23

(12

+13

)=

59

E[Y 2] =23

∫ 1

0y2 (1 + y) dy =

23

(13

+14

)=

718

σ2Y = E[Y 2]− µ2

Y =718− 25

81=

13162

3) La densidad conjunta es el producto de las marginales:

f(x, y) = f(x) · f(y)

y, por tanto, son variables independientes.4) Al ser variables independientes, directamente son incorreladas, es decir: Cov(X, Y ) = 0.

3.5 Suma de variables independientesEs especialmente ventajoso considerar variables que se distribuyen de manera independiente puescombinándolas linealmente se obtienen otras variables cuyas distribuciones se conocen a partir de lasprimeras.

En la Estadística Descriptiva que hemos tratado en el Capítulo 1, es interesante que las muestrasrecogidas nos sirvan para inferir la distribución de cierta cualidad en determinada población. Paraello tomamos medidas numéricas de la muestra. Si cada dato muestral es representativo de la cualidad(o variable aleatoria) a inferir, nos gustaría, por ejemplo, que la media muestral fuese representativade la media de dicha cualidad (se dice de la media poblacional); y así con el resto de las medidas:varianza, desviación típica, mediana, . . .

Si consideramos a cada muestra, de tamaño N , como un valor concreto de un vector aleatorio(X1, X2, . . . , XN), con cada componente la misma variable, el requisito de independencia de las Xi

simplifica tanto los cálculos como el análisis.

Definición 3.5.1. Dadas n variables aleatorias X1, X2, . . . , Xn decimos que son variables aleatoriasindependientes igualmente distribuidas, en adelante v.a.i.i.d., si todas siguen el mismo modelo deprobabilidad, digamos Xi ∼ X, y son independientes dos a dos.

Ejercicio 8 Probar que si X1, X2, . . . , Xn son v.a.i.i.d. con distribución común Xi ∼ X, µ = E(X)y σ2 = V (X) entonces:

E(X1 + X2 + · · ·+ Xn) = nµ , V (X1 + X2 + · · ·+ Xn) = nσ2 .

Es más si X = 1n

(X1 + X2 + · · ·+ Xn

)entonces µ(X) = µ y V (X) = σ2/n.

58 CAPÍTULO 3. VARIABLES ALEATORIAS

Podemos, por último, tratar el caso más general de combinaciones lineales de variables aleato-rias independientes. Basta enunciar los resultados para dos variables. Los presentamos en forma deejercicio:

Ejercicio 9 Sean X e Y dos variables aleatorias independientes, y consideremos la nueva variableT = aX + bY (con a, b ∈ R). Entonces:

E(T ) = aE(X) + bE(Y ) , V (T ) = a2V (X) + b2V (Y ) .

Cerramos la sección con la observación de que si no se tiene independencia (ni tan siquieraincorrelación) entre las variables, la covarianza juega un papel importante en la fórmula de la varianzade la combinación (ver el problema 1).

Problemas1. Demuestra las siguientes propiedades de esperanzas y varianzas de variables aleatorias:

(a) E[kX] = kE[X].

(b) E[X + Y ] = E[X] + E[Y ].

(c) V [kX] = k2V [X].

(d) Si X e Y son incorreladas: E[XY ] = E[X]E[Y ].

(e) V [X1 + · · ·+ Xn] = V [X1] + · · ·+ V [Xn] + 2∑i<j

Cov(Xi, Xj).

(f) Si X1, . . . , Xn son variables aleatorias incorreladas:

V [X1 + · · ·+ Xn] = V [X1] + · · ·+ V [Xn] .

(g) V [X − Y ] = V [X] + V [Y ]− 2Cov(X, Y ).

(h) Si X e Y son variables aleatorias incorreladas: V [X − Y ] = V [X] + V [Y ].

2. Dadas las variables aleatorias independientes X e Y con funciones de densidad f y g respecti-vamente, dadas por:

f(x) =

2x si 0 ≤ x ≤ 10 en otro caso; g(y) =

y

2si 0 ≤ y ≤ 2

0 en otro caso;

calcula:

i) E[X + Y ];

ii) E[2X − 3Y + 5];

iii) E[2XY ];

iv) V [4X − 2Y − 3];

v) V [2X + 3Y ].

3.5. SUMA DE VARIABLES INDEPENDIENTES 59

3. En un experimento aleatorio el suceso A ocurre con probabilidad 0.2. Se realiza el experimentotres veces y se define la variable aleatoria X = “número de veces que ha ocurrido A” en las trespruebas que se suponen independientes.

(a) Calcular E[X] y V [X].

(b) Representar gráficamente la función de distribución de X.

(c) Calcular P (X > 2) a partir de la función de distribución.

4. La variable aleatoria X está distribuida de tal forma que su función de densidad determina conlos ejes un triángulo rectángulo con ángulo recto en el origen y base sobre el intervalo (0, 1).Calcula sus funciones de densidad y distribución, la esperanza, µ, la desviación típica, σ, y laprobabilidad de que X ∈ (µ− σ, µ + σ).

5. Un semáforo está verde para los coches durante un minuto y medio, y rojo durante 15 segundos.Suponiendo que un automovilista llega al semáforo con igual probabilidad en cualquier instante,calcúlese el tiempo medio de espera.

6. Una diana está formada por tres círculos concéntricos de radios 10, 20 y 30 cm. respectivamente.Si se cae en el círculo central se obtienen 5 puntos, 3 puntos si se cae en la primera coronay 1 punto al caer en la tercera corona. La probabilidad de que un tiro caiga en cada zona esproporcional al área de la misma (y ningún tiro cae fuera de la diana). Si se efectúan cuatrodisparos, calcúlese:

(a) la puntuación esperada;

(b) la probabilidad de la puntuación total se mayor que 17.

7. Un examen consta de 5 temas numerados. Para elegir un tema al azar, se propone lanzar undado; si sale de 1 a 5, el número del tema es el resultado del dado; si sale 6 se vuelve a tirarhasta que sale de 1 a 5. Sabemos que el dado está trucado de tal manera que la probabilidadde que salga el número 2 es 2/7 y la probabilidad de cualquier otro número es 1/7. Sea X lavariable aleatoria que representa el tema seleccionado finalmente. Halla la probabilidad de queX valga 1 (que nos interesa especialmente ya que el tema 1 es el único que hemos estudiado).

8. El vector aleatorio (X,Y ) tiene una distribución de probabilidad dada por:

P (X = 0, Y = 1) = 0.3 ; P (X = 1, Y = 1) = 0.1 ; P (X = 2, Y = 1) = 0.1 ;

P (X = 0, Y = 2) = 0.1 ; P (X = 1, Y = 2) = 0.2 ; P (X = 2, Y = 2) = 0.2 .

Calcúlese:

(a) Las distribuciones marginales y condicionadas;

(b) las esperanzas de cada variable, y la de XY ;

(c) las varianzas de cada variable y Cov(X, Y );

(d) el coeficiente de correlación lineal.

60 CAPÍTULO 3. VARIABLES ALEATORIAS

9. La vida útil de cierto producto perecedero es una variable aleatoria con función de densidad

f(x) =

e−x si x > 00 en otro caso.

Si X1 y X2 representan la vida útil de dos unidades de dicho producto, seleccionadas al azar,calcúlese P (X1 ≤ 2, 1 ≤ X2 ≤ 3).

10. Dado el vector aleatorio (X, Y ) y la función

f(x, y)

k(x + y) si 0 ≤ x ≤ 2 0 ≤ y ≤ 2x− x2

0 en otro caso.

(a) Determínese k para que f(x, y) sea su función de densidad.(b) Calcular P (0 ≤ X ≤ 1).

11. Las etiquetas de cierta bebida pueden tener un premio de forma que en cada 1000 etiquetashay 500 correspondientes a “inténtelo otra vez”, 300 con premio de 5 euros, 150 con premios de10 euros, 40 con premios de 50 euros y 10 con premios de 100 euros. Una persona compra unabotella que cuesta 10 euros.(a) Si X es la variable aleatoria correspondiente al beneficio obtenido por el comprador, ¿cuáles la distribución de X?(b) ¿Cuál es el beneficio esperado del comprador?(c) ¿Cuál es la probabilidad de perder dinero?(d) Si se sabe que el comprador ha ganado dinero, ¿cuál es la probabilidad de que le hayatocado una etiqueta de 100 euros?

12. En una ciudad hay una proporción p de personas que fuman. Se define una variable aleatoriaX que toma el valor 1 si al preguntar a una persona seleccionada aleatoriamente responde quees fumador, y toma el valor 0 si responde que no lo es.(a) En función de p calcula la esperanza de X e interpreta el valor obtenido.(b) Calcula la varianza de X en función de p. ¿Para qué valor de p es máxima la varianza?(c) Si se pregunta a n personas seleccionadas aleatoriamente con reemplazamiento, y la variablealeatoria Y representa el número de fumadores entre los n seleccionados, calcula la esperanzay la varianza de Y .

13. Sea X una variable aleatoria continua con función de densidad

f(x) =

k(1 + x), si x ∈ (0, 2)0, si x /∈ (0, 2)

(a) Calcula la constante k.(b) Calcula la probabilidad de que X tome valores entre 0 y 1.(c) Sabiendo que X es mayor que 1, ¿cuál es la probabilidad de que sea menor que 1.5?(d) Calcula P|X − E(X)| > 0.2

14. El tiempo de vida activa de un plaguicida (en días) es una variable aleatoria X con función dedensidad

f(x) =

1

500e−

1500

x, si x ≥ 00, si x < 0

3.5. SUMA DE VARIABLES INDEPENDIENTES 61

(a) Calcula el valor m tal que la probabilidad de que X sea menor o igual que m es 0.5.Interpreta el resultado obtenido.(b) Si al cabo de 800 días el plaguicida ya no estaba activo, ¿cuál es la probabilidad de quetras 600 días todavía lo estuviera?

15. El vector aleatorio (X, Y ) tiene una distribución uniforme en el cuarto de círculo de centro(0, 0) y radio r correspondiente al primer cuadrante. Obténganse las densidades conjunta ymarginales de X e Y , y estudiar si son variables independientes.

16. Una pareja decide encontrarse en un lugar prefijado entre las tres y las cuatro de la tarde, deforma que el primero que llegue sólo esperará al otro durante 15 minutos. Suponiendo que losmomentos de llegada de ambos al lugar son independientes y se distribuyen uniformementeentre las tres y las cuatro, calcúlese la probabilidad de que no se encuentren.

17. Una fábrica produce una pieza en dos calidades diferentes: el 60% de la producción es decalidad A. La duración (en años) de una pieza de esta calidad viene dada por la función dedensidad

fA(x) =

e−x si x > 00 en el resto.

El 40% restante es de calidad B. La duración viene dada, en este caso, por la función dedensidad

fB(x) =

2e−2x si x > 00 en el resto.

(a) Calcula la probabilidad de que una pieza de calidad A dure más de 1 año.(b) Si tomamos una pieza al azar de toda la producción, ¿cuál es la probabilidad de que duremás de 1 año?(c) Si tomamos una pieza al azar de toda la producción, y observamos que dura más de 1 año,¿cuál es la probabilidad de que sea de calidad A?

18. Una empresa suministra energía eléctrica a través de dos líneas de alta tensión A y B. En lasiguiente tabla se muestran las probabilidades conjuntas pij = PX = xi, Y = yj, para lasvariables X ≡ número de fallos mensuales en la línea A e Y ≡ número de fallos mensuales enla línea B.

YX 0 1 2 3 40 0.20 0.15 0.05 0.04 0.021 0.20 0.06 0.08 0.03 0.012 0.06 0.02 0.02 0 03 0.04 0.02 0 0 0

(a) Calcula las distribuciones marginales de X e Y .(b) Calcula la distribución del número de fallos que se producen en la línea B en un mes en queno se produce ningún fallo en la línea A. ¿Cuál es el número esperado de fallos en este caso?(c) ¿Son independientes los fallos en las dos líneas?

62 CAPÍTULO 3. VARIABLES ALEATORIAS

19. Dos características, X e Y , son variables aleatorias con función de densidad conjunta:

f(x, y) =

kye−2xe−y si x > 0, y > 00 en el resto.

(a) Hallar el valor de k. ¿Son independientes X e Y ?

(b) Calcular la esperanza de X.

20. Dos sustancias, A y B, se encuentran en la sangre en cantidades X e Y , respectivamente. Estascantidades varían de un individuo a otro. La densidad conjunta de ambas es:

f(x, y) =

281

xy2 si 0 < x < 3, 0 < y < 30 en el resto.

Calcúlese:

(a) la densidad marginal de Y y la esperanza de Y ;

(b) la probabilidad de que, en un individuo tomado al azar, haya más sustancia A que B.

Capítulo 4

Modelos de probabilidad

4.1 Modelos discretos

4.1.1 Pruebas de Bernoulli

Definición 4.1.1. Una prueba de Bernoulli es un experimento aleatorio cuyos posibles resul-tados se agrupan en dos conjuntos excluyentes que llamaremos éxito (E) y fracaso (F ), conrespectivas probabilidades: p = P (E) y 1− p = P (F ).

Ejemplos 31 En el lanzamiento de una moneda podemos tomar E = Cara y F = Cruz .Si la moneda no está trucada, p = 1

2.

En una población se elige al azar una persona y consideramos los sucesos E = altura ≥ 1.80y F = altura < 1.80. La probabilidad de éxito dependerá de la distribución de la variable alturaen la población.

En el lanzamiento de un dado podemos tomar E = 6 y F = 1, 2, 3, 4, 5. Si el dado esperfecto, p = 1

6; si está trucado y, por ejemplo, el 2 tiene probabilidad doble que cualquiera de los

demás resultados, p = 17.

La distribución de Bernoulli es el modelo más sencillo obtenido a partir de pruebas de Bernoulli.

Definición 4.1.2. Realizada una prueba de Bernoulli con P (E) = p se considera la variable aleatoria

X =

1 si obtenemos éxito0 si obtenemos fracaso

La función de masa es: P (X = 0) = 1− p y P (X = 1) = p. Los parámetros esperanza y varianza deuna variable X con distribución de Bernoulli son:

E[X] = p , V [X] = p (1− p) ;

obtenidos ambos de manera sencilla a partir de la definición. Para abreviar escribiremos X ∼ B(1; p)para indicar que X es una variable aleatoria con distribución de Bernoulli con esperanza p.

63

64 CAPÍTULO 4. MODELOS DE PROBABILIDAD

4.1.2 Distribución binomial

Definición 4.1.3. Supongamos que realizamos n pruebas de Bernoulli independientes, con P (E)=pen cada prueba. Sea X la variable “número de éxitos obtenidos en las n pruebas”. Llamamos dis-tribución binomial a la distribución de esta variable X. Denotaremos por B(n; p) la distribuciónbinomial de parámetros n = “número de pruebas de Bernoulli” y p = P (E) en cada prueba.

Si X sigue una distribución B(n; p), escribiremos X ∼ B(n; p), y su función de masa es:

P (X = i) =

(n

i

)pi(1− p)n−i , i = 0, 1, 2, . . . , n .

Obsérvese que si tomamos una prueba de Bernoulli con p(E) = p, y consideramos la variable Xcon valores 1 si éxito, 0 si fracaso, entonces X ∼ B(1; p).

También, si tomamos n variables Xi independientes, todas y cada una de ellas siguiendo la mismadistribución B(1; p), entonces la variable

X = X1 + X2 + · · ·+ Xn

sigue una distribución B(n; p). En particular, la esperanza y la varianza de X ∼ B(n; p) son:

E[X] = n · p , V [X] = n · p · (1− p) ;

puesto que p = E[Xi] y p · (1 − p) = V [Xi] para cada una de las variables independientes quesumamos.

4.1.3 Otros modelos basados en pruebas de Bernoulli

Definición 4.1.4. Realizamos pruebas de Bernoulli independientes con la misma distribución dadapor P (E) = p. La distribución geométrica de parámetro p es la de la variable aleatoria:

X = “número de pruebas hasta el primer éxito”.

Su función de masa es:

P (X = j) = (1− p)j−1 · p , j = 1, 2, 3, . . . .

Se puede probar que:

E[X] =1

p; V [X] =

1− p

p2.

Ejercicio 1 Demostrar que si X sigue una distribución geométrica de parámetro p, entonces

E[X] =1

p.

4.1. MODELOS DISCRETOS 65

Solución: Por definición se tiene:

E[X] = 1 · p + 2 · (1− p) · p + 3 · (1− p)2 · p + 4 · (1− p)3 + 5(1− p)4 + · · ·= p · (1 + 2(1− p) + 3(1− p)2 + 4 · (1− p)3 + 5(1− p)4 + · · · )

= p · (1 + (1− p) + (1− p)2 + (1− p)3 + (1− p)4 + · · ·+ (1− p) + (1− p)2 + (1− p)3 + (1− p)4 + · · ·

+ (1− p)2 + (1− p)3 + (1− p)4 + · · ·+ (1− p)3 + (1− p)4 + · · ·

+ (1− p)4 + · · · )

= p(1

p+

1− p

p+

(1− p)2

p+

(1− p)3

p+

(1− p)4

p+ · · ·

)

= 1 + (1− p) + (1− p)2 + (1− p)3 + (1− p)4 + · · · = 1

p.

Definición 4.1.5. Consideramos pruebas de Bernoulli independientes con la misma distribucióndada por p = P (E). Para cada número fijo r, se define la variable

X = “número de pruebas hasta el r–ésimo éxito” .

Decimos que la variable X sigue una distribución binomial negativa de parámetros r y p,X ∼ BN(r; p), y su función de masa viene dada por:

P (X = r + j) =

(r + j − 1

j

)pr(1− p)j , j = 0, 1, 2, . . . .

La distribución BN(r; p) para r = 1 es una geométrica. De hecho, si realizamos pruebas deBernoulli con p = P (E), hasta conseguir r éxitos y se definen las variables:

Xi = número de pruebas entre el (i− 1)–ésimo éxito y el i–ésimo, i = 1, 2, . . . , r

cada Xi es una geométrica de parámetro p. Entonces

X = X1 + X2 · · ·+ Xr

sigue una distribución BN(r; p). Así vemos que si X ∼ BN(r; p) entonces:

E[X] =r

p; V [X] =

r(1− p)

p2.

4.1.4 Distribución de Poisson

Supongamos que estamos interesados en estudiar el número de éxitos obtenidos en un número grandede pruebas independientes de Bernoulli, teniendo una probabilidad pequeña de éxito en cada prueba.Es razonable pensar que la distribución venga dada como límite de una distribución B(n; p) conn → ∞, p → 0. De hecho si se tiene cierto control sobre el producto np, digamos np → λ < ∞

66 CAPÍTULO 4. MODELOS DE PROBABILIDAD

cuando n →∞ y p → 0, podemos calcular el límite. Surge así la distribución de Poisson de parámetroλ > 0 definida por la función de masa:

P (X = j) =λj · e−λ

j!, j = 0, 1, 2, . . . .

Si X ∼ Poisson(λ), informalmente, se obtiene: E[X] = lım n · p = λ y V [X] = lım np(1− p) = λ.Usaremos la distribución de Poisson cuando estemos estudiando un modelo binomial, B(n ; p),

con un número grande de pruebas, cada una con probabilidad de éxito pequeña. A título orientativo,sustituiremos la B(n ; p) por una Poisson(λ), con λ = np, cuando n ≥ 30 y p ≤ 0.1.

Es fácil comprobar que la función dada arriba es una función de masa puesto que:

∞∑j=0

P (X = j) =∞∑

j=0

λj · e−λ

j!= e−λ

∞∑j=0

λj

j!= e−λ · eλ = 1 .

Ejercicio 2 Demostrar que el límite cuando n →∞, p → 0, con np → λ, de la función de masa deuna B(n; p) es la función de masa de una distribución de Poisson con parámetro λ, en otras palabrassi np → λ cuando n →∞ y p → 0:

lım

(n

j

)pj(1− p)n−j =

λj · e−λ

j!, cuando n →∞, p → 0 .

Solución: :

lım

(n

j

)pj(1− p)n−j = lım

n(n− 1)(n− 2) · · · · · (n− j + 1)

j!· pj · (1− p)n

(1− p)j

=1

j!lım nj ·

(1− 1

n

)(1− 2

n

)· · · · ·

(1− j − 1

n

)· pj · (1− p)n

(1− p)j

=1

j!lım

(1− 1

n

)(1− 2

n

)· · · · ·

(1− j − 1

n

)· (n · p)j · (1− p)n

(1− p)j

=1

j!1 · λj e

−λ

1=

λj · e−λ

j!.

4.2 Modelos continuos

4.2.1 Distribución uniforme

Definición 4.2.1. Decimos que una variable aleatoria X sigue una distribución uniforme enun intervalo (a, b) de la recta real, X ∼ U(a, b), si su función de densidad es:

f(x) =1

b− asi x ∈ (a, b) , f(x) = 0 en otro caso.

Si X ∼ U(a, b) entonces µ = E[X] =a + b

2y σ2 = V [X] =

1

12(b− a)2.

4.2. MODELOS CONTINUOS 67

4.2.2 Distribución exponencial

Definición 4.2.2. Una variable aleatoria X se dice que sigue una distribución exponencial deparámetro λ > 0, X ∼ Exp(λ), si su función de densidad es

f(x) = λe−λx si x > 0 , f(x) = 0 si x ≤ 0 .

Si X ∼ Exp(λ) entonces:

µ = E[X] =1

λ, σ2 = V [X] =

1

λ2.

4.2.3 Distribución Normal

Definición 4.2.3. De una variable aleatoria X diremos que sigue una distribución normal demedia µ y desviación típica σ, X ∼ N(µ; σ), si su función de densidad es:

f(x) =1

σ√

2πe−

(x−µ)2

2σ2 , para todo x ∈ R .

Si X ∼ N(µ; σ) entonces:E[X] = µ , V [X] = σ2 .

La función de densidad de una distribución N(µ; σ) tiene propiedades muy interesantes:

1. Su gráfica es simétrica respecto a la media µ:

µµ− σ µ + σ

de manera que: P (X < µ− a) = P (X > µ + a), para todo a > 0.

2. Si X ∼ N(µ; σ) y Z =X − µ

σentonces Z ∼ N(0; 1). En esta situación, nos referiremos al cambio

de variable Z =X − µ

σ, como tipificación de la variable X ∼ N(µ; σ), y a la correspondiente

Z ∼ N(0; 1) como la distribución normal tipificada.

La tipificación de cualquier normal, X ∼ N(µ; σ), nos permitirá calcular la probabilidad de unsuceso correspondiente a ella a partir de la tabla de la distribución normal tipificada N(0; 1).Así, por ejemplo, si X ∼ N(µ; σ) entonces:

P (a < X < b) = P(a− µ

σ< Z <

b− µ

σ

)= FZ

(b− µ

σ

)− FZ

(a− µ

σ

),

donde Z ∼ N(0; 1) y FZ(z) = P (Z ≤ z) es su función de distribución, cuyos valores vienendados por una tabla.

68 CAPÍTULO 4. MODELOS DE PROBABILIDAD

3. La distribución B(n; p) tiende a una distribución normal cuando n → ∞ y p es fijo. Así siestamos con una distribución binomial con n grande, la podremos aproximar por una normalN(µ; σ) con parámetros:

µ = n · p , σ =√

n p (1− p) .

A título orientativo es aconsejable realizar esta sustitución cuando n ≥ 30 y 0.1 < p < 0.9.

4. Si X1 ∼ N(µ1; σ1), X2 ∼ N(µ2; σ2), . . . , Xn ∼ N(µn; σn) son variables independientes enton-ces:

X = X1 + X2 + · · ·+ Xn ∼ N(µ = µ1 + µ2 + · · ·+ µn ; σ =√

σ21 + σ2

2 + · · ·+ σ2n)

Y = X1 −X2 ∼ N(µ = µ1 − µ2 ; σ =√

σ21 + σ2

2) .

Problemas

1. En una cadena de producción dos robots funcionan conectados, respectivamente, a cinco y seisordenadores independientes entre sí, de manera que en un tiempo dado t de funcionamientofalla un ordenador del primer robot (resp. segundo) con probabilidad 0.1 (resp. 0.2). Calcúlenselas probabilidades de que en un tiempo t de funcionamiento fallen:

(a) un ordenador del primer robot;

(b) al menos un ordenador del primer robot;

(c) cinco ordenadores del segundo robot;

(d) no más de cinco ordenadores del segundo robot;

(e) exactamente dos ordenadores del primer robot y tres del segundo;

(f) tres ordenadores más del primero que del segundo robot.

2. Un lote de piezas contiene una proporción p de defectuosas. Para realizar un control de calidadse seleccionan n piezas y se denomina X el número de piezas defectuosas encontradas.

(a) Calcúlese P (X = 0).

(b) Si p = 0.1, ¿cuál debe ser el número de piezas, n, examinadas para tener P (X = 0) < 0.05?

(c) Si n = 40, ¿para qué valores de p es P (X = 0) < 0.01?

(d) Si se examinan n = 80 piezas y se encuentran dos defectuosas, ¿cuál es la proporción másverosímil de piezas defectuosas en el lote total: el 1%, el 4% ó el 7%?

3. En una población se sabe que, en promedio, uno de cada 20 habitantes tiene teléfono móvil.¿Cuál es la probabilidad de que al realizar una encuesta, el cuarto encuestado sea el primerocon teléfono móvil?

4. Se extraen una a una con reemplazamiento cartas de una baraja española. Calcúlese la proba-bilidad de obtener 5 cartas que no sean oros antes de obtener el tercer oro.

4.2. MODELOS CONTINUOS 69

5. El dueño de una ferretería, extrae al azar 50 tornillos de cada lote que recibe. Si en la muestra noencuentra más de 3 defectuosos, se queda el lote, en caso contrario lo rechaza. Un representantele envía un lote que contiene un 10% de tornillos defectuosos, ¿cuál es la probabilidad de queacepte el lote?

6. En cierto tramo de una carretera la probabilidad de que un coche supere la velocidad máximapermitida es 0.0001. Si recorren ese tramo 20000 coches, calcúlese la probabilidad de que(a) ninguno supere la velocidad máxima permitida;

(b) a lo sumo 5 superen la velocidad máxima permitida.

7. Se ha observado el número de fallos cometidos en un folio por un mecanógrafo en un tiempofijado. Estos fallos se han anotado en la siguiente tabla:

número de fallos 0 1 2 3 4 5frecuencia 42 30 16 12 4 1

Ajústese una distribución de Poisson y calcúlese la probabilidad de que en un folio seleccionadoal azar, de entre los escritos por este mecanógrafo, aparezcan más de tres fallos.

8. Se sabe que la demanda de un producto de consumo sigue una distribución normal de media95 y desviación típica 7. Calcúlese:(a) la probabilidad de que la demanda sea menor que 97;

(b) la probabilidad de que la demanda sea mayor que 99;

(c) la probabilidad de que la demanda esté entre 92 y 96;

(d) la mínima cantidad disponible necesaria para poder atender la demanda con una proba-bilidad no menor que 0.95 .

9. En cierto país, el 20% de la población se muestra preocupada por el incremento de las emisionesde dióxido de carbono. Se hace una encuesta a 15 personas.(a) ¿Cuál es la probabilidad de que ninguna de ellas esté preocupada por el incremento de las

emisiones de dióxido de carbono?

(b) Halla la probabilidad de que no haya más de tres personas preocupadas.

(c) Calcula la probabilidad de que al menos tres personas entre las 15 estén preocupadas.

(d) ¿Cuál es la esperanza y la desviación típica del número de personas preocupadas entre las15? Si en lugar de al 20%, sólo al 2% de los habitantes del país les preocupa el problema,¿cómo cambian la esperanza y la desviación típica?

10. Consideramos un experimento aleatorio consistente en tirar 400 veces una moneda.(a) Halla la probabilidad aproximada de que el número de caras obtenido esté comprendido

entre 160 y 190.

(b) Halla el intervalo (a, b) centrado en 200, tal que la probabilidad aproximada de que elnúmero de caras obtenido esté en dicho intervalo sea 0.95.

70 CAPÍTULO 4. MODELOS DE PROBABILIDAD

11. Un zoólogo estudia cierta especie de ratones de campo. Para ello, captura ejemplares de ratonesen un bosque en el que la proporción de ratones de campo de la especie que le interesa es p.

(a) Si p = 0.3, calcula la probabilidad de que entre 6 ejemplares capturados haya al menos 2de la especie que le interesa.

(b) Si p = 0.05, calcula la probabilidad de que entre 200 ejemplares capturados, haya exacta-mente 3 de la especie que le interesa.

(c) Si p = 0.4, calcula la probabilidad de que entre 200 ejemplares capturados, haya entre 75y 110 de la especie que le interesa.

(d) ¿Cuál es el número medio de ejemplares que tendrá que capturar hasta encontrar uno dela especie que le interesa, si p = 0.2 ?

12. Se supone que el número de bacterias por cm3 de agua en un estanque es una variable aleatoriaX con distribución de Poisson de parámetro λ = 0.5.

(a) ¿Cuál es la probabilidad de que en un cm3 de agua del estanque no haya ninguna bacteria?

(b) En 40 tubos de ensayo se toman muestras de agua del estanque (1 cm3 de agua en cadatubo). ¿Qué distribución sigue la variable Y que representa el número de tubos de ensayo,entre los 40, que no contienen bacterias? Calcula P (Y ≥ 20).

(c) Si sabemos que en un tubo hay bacterias, ¿cuál es la probabilidad de que haya menos detres?

13. En el sur de California se produce, en promedio, un terremoto al año de magnitud 6.1 o mayoren la escala de Richter1. Se supone que el número de terremotos al año en esta zona sigue unproceso de Poisson.

(a) ¿Cuál es la probabilidad de que se produzcan más de dos terremotos en cinco años?

(b) ¿Cuál es la probabilidad de que haya un periodo de 15 meses sin que haya terremotos?

(c) ¿Cuál es la probabilidad de que haya que esperar más de tres años y medio para que seproduzcan dos terremotos?

14. La probabilidad de que una pieza tenga un fallo durante el primer año de funcionamiento es0.001. Halla la probabilidad de que, entre 2000 piezas, presenten un fallo (a) exactamente tres,(b) más de 2.

1

Escala RitcherMagnitud Efectos del terremotomenos de 3.5 Generalmente no se siente, pero es registrado

3.5–5.4 A menudo se siente, pero sólo causa daños menores5.5–6.0 Ocasiona daños ligeros a edificios6.1–6.9 Puede ocasionar daños severos en áreas muy pobladas7.0–7.9 Terremoto mayor. Causa graves daños

8 ó mayor Gran terremoto. Destrucción total a comunidades cercanas

Fuente: http://www.angelfire.com/ri/chterymercalli

4.2. MODELOS CONTINUOS 71

15. La variable X expresa el tiempo en segundos que tarda una depuradora en filtrar 10 mm3 deagua y sigue una distribución exponencial con media 10. Calcula la probabilidad de que tardeentre tres y doce segundos en depurar 10 mm3.

16. Para estudiar la viabilidad económica de una mina de carbón, consideramos la variable aleatoriaX=“Kilogramos de carbón obtenidos por tonelada de mineral”. Supongamos que, en cierta mina,X sigue una N(µ = 150; σ = 25).(a) Calcula la probabilidad de que, en una tonelada de mineral, el contenido de carbón sea

superior a 130 kg.(b) Calcula la probabilidad de que, en 2 toneladas de mineral extraídas independientemente,

la diferencia en el contenido de carbón sea inferior a 30 kg.(c) Extraemos independientemente 100 toneladas de mineral. Calcula la probabilidad de que

en más de 80 de ellas el contenido de carbón sea superior a 130 kg.

17. En una fábrica, se están produciendo cuerdas con cierta fibra sintética. La resistencia a latensión de estas cuerdas sigue una distribución N(µ = 30; σ = 2).

(a) ¿Cuál es el porcentaje de cuerdas cuya resistencia a la tensión está entre 28 y 32?(b) En un pedido de 200 cuerdas, ¿cuál es la probabilidad de que más de 140 presenten una

resistencia a la tensión entre 28 y 32?(c) En un pedido de 250 cuerdas, ¿cuál es la probabilidad de que alguna presente una resis-

tencia inferior a 25?

18. Un fabricante produce varillas y recipientes para insertar las varillas. Ambos tienen seccionescirculares. Los diámetros de las varillas siguen una distribución N(µ = 1; σ = 0.2); los diámetrosde los recipientes siguen una distribución N(µ = 1.05; σ = 0.15). Un ingeniero selecciona alazar una varilla y un recipiente. ¿Cuál es la probabilidad de que la varilla pueda insertarse enel recipiente?

19. Para analizar si las aguas próximas a la costa están contaminadas cuando se produce una mareanegra por el hundimiento de un petrolero, se analizan varias muestras con un test que se divideen tres pruebas independientes. Los resultados varían aleatoriamente de unas muestras a otrasy se sabe que siguen distribuciones normales dadas por:

X = resultados de la primera prueba del test, X ∼ N(7; 1)Y = resultados de la segunda prueba del test, Y ∼ N(5; σ = 2)Z = resultados de la tercera prueba del test, Z ∼ N(6; 1)

Se elige una muestra al azar. Contesta a las siguientes preguntas:(a) Si el resultado final del test es el promedio de los valores que se obtienen en las tres

pruebas, ¿cuál es la probabilidad de que el resultado del test sea superior a 5?(b) ¿Cuál es la probabilidad de que el resultado de las tres pruebas sea superior a 5?

20. Una compañía de petróleo tiene un contrato para vender grasa en envases de 500 gramos. Lacantidad de grasa que la máquina de llenado pone en los envases sigue una Normal con la mediaque el encargado elija y σ = 25. ¿Qué valor medio deberá elegir el encargado si la compañía nodesea que le rechacen más del 2% de los envases por tener un peso por debajo de lo especificado?

72 CAPÍTULO 4. MODELOS DE PROBABILIDAD

21. Una máquina de envasado llena sacos de fertilizante de aproximadamente 30 kg. La “cantidadde fertilizante por saco” sigue una distribución N(µ = 30; σ = 1).(a) Se desea que la cantidad de fertilizante por saco esté entre 29 y 31 kg. Calcula la proba-

bilidad de que la cantidad esté dentro de esos límites.

(b) Una empresa realiza un pedido de 80 de estos sacos de fertilizante. Calcular la probabilidadde que más de 50 estén dentro de los límites indicados.

22. La permeabilidad intrínseca del hormigón producido en una fábrica química sigue una distri-bución N(µ = 40; σ = 5). Se reciben 60 remesas de hormigón.(a) ¿Cuál es la probabilidad de que alguna remesa tenga una permeabilidad intrínseca inferior

a 30?

(b) El 30% de las remesas de hormigón enviadas a un almacén tiene una permeabilidad quesigue una N(µ = 40; σ = 5). El 70% de las remesas restantes tiene una permeabilidadque sigue una N(µ = 45; σ = 10). ¿Cuál es el porcentaje total de remesas que tienen unapermeabilidad inferior a 35?