3 variables aleatorias.pdf

Upload: oescocia

Post on 14-Jan-2016

6 views

Category:

Documents


0 download

TRANSCRIPT

  • Variables aleatoriasCarles Rovira Escofet

    P08/75057/02305

  • FUOC P08/75057/02305 Variables aleatorias

    ndice

    Sesin 1

    Introduccin a las variables aleatorias

    Variables aleatorias discretas ........................................................... 5

    1. Introduccin a las variables aleatorias ................................................. 5

    2. Variables aleatorias discretas ................................................................ 6

    2.1. Funcin de masa de probabilidad y funcin de distribucin ...... 7

    2.2. Independencia .............................................................................. 9

    3. Resumen ............................................................................................... 10

    Ejercicios ................................................................................................... 11

    Sesin 2

    Esperanza y varianza .......................................................................... 15

    1. Definiciones ......................................................................................... 15

    2. Algunas propiedades de la esperanza .................................................. 19

    3. Algunas propiedades de la varianza ..................................................... 20

    4. La desigualdad de Tchebichev ............................................................. 21

    5. Resumen ............................................................................................... 22

    Ejercicios ................................................................................................... 23

    Sesin 3

    Algunas distribuciones discretas ..................................................... 27

    1. Distribucin de Bernoulli .................................................................... 27

    2. Distribucin binomial .......................................................................... 28

    3. Distribucin geomtrica ...................................................................... 30

    4. Distribucin de Poisson ....................................................................... 33

    5. Resumen ............................................................................................... 35

    Ejercicios ................................................................................................... 36

    Sesin 4

    Variables aleatorias continuas .......................................................... 39

    1. Funcin de densidad ............................................................................ 39

    2. Relacin entre las funciones de distribucin y de densidad.

    Clculo de probabilidades .................................................................... 42

    3. Independencia ..................................................................................... 44

    4. Esperanza y varianza ............................................................................ 45

    5. Resumen ............................................................................................... 46

    Ejercicios ................................................................................................... 47

    Sesin 5

    Algunas leyes continuas. La ley normal ......................................... 50

    1. Distribucin uniforme ......................................................................... 50

  • FUOC P08/75057/02305 Variables aleatorias

    2. Distribucin exponencial .................................................................... 52

    3. Distribucin normal ............................................................................ 54

    3.1. El papel de los parmetros ............................................................ 55

    3.2. Estandarizar .................................................................................. 57

    3.3. Clculo de probabilidades utilizando la ley normal estndar ...... 60

    4. Resumen ............................................................................................... 62

    Ejercicios ................................................................................................... 63

    Sesin 6

    Procesos estocsticos............................................................................. 65

    1. Definiciones .......................................................................................... 65

    2. Procesos aleatorios a tiempo discreto: el paseo aleatorio ..................... 67

    3. Procesos a tiempo continuo.................................................................. 69

    3.1. El proceso de Poisson..................................................................... 69

    3.2. El proceso de Wiener o movimiento browniano .......................... 71

    4. Resumen................................................................................................ 72

  • FUOC P08/75057/02305 5 Variables aleatorias

    Introduccin a las variables aleatorias. Variables aleatorias discretas

    En el mdulo anterior hemos visto el concepto de probabilidad y cmo poda-

    mos utilizarlo para modelar el resultado de un experimento.

    Consideremos, por ejemplo, el espacio muestral que obtenemos si lanzamos

    una moneda tres veces. En este caso el espacio muestral tiene ocho elementos y

    es el siguiente:

    = {(C,C,C),(C,C,),(,C,C),(C,,C), (C,,),(,C,),(,,C), (,,)}

    donde C indica que ha salido una cara y indica que ha salido una cruz. Te-nemos tambin una probabilidad sobre este espacio muestral, en concreto sa-

    bemos que la probabilidad de cada elemento del espacio muestral es de 1/8.

    1. Introduccin a las variables aleatorias

    Sin embargo, podra interesarnos estudiar el nmero de caras que han salido.

    Obtenemos as una funcin, que llamaremos X, que a cada elemento del espa-

    cio muestral le hace corresponder un valor numrico, el correspondiente al n-

    mero de caras, por ejemplo, X((C,C,)) 2.

    Una vez que tenemos definida esta funcin X, podemos plantearnos pregun-

    tas como cul es la probabilidad de que salgan dos caras? que podemos for-

    malizar como el clculo de la probabilidad del suceso {X = 2}. Fijaos en que:

    {X = 2} = {(C,C,), (C,,C), (,C,C)}

    As,

    P(X = 2) =

    esta funcin X ser lo que llamaremos una variable aleatoria.

    Otros ejemplos de variables aleatorias

    Si consideramos como espacio muestral a los estudiantes de esta asignatura, la funcinque asocia a cada individuo con su peso es una variable aleatoria.

    Si consideramos como espacio muestral el resultado del lanzamiento de cinco dados, po-demos considerar diversas variables aleatorias como: el mximo de los cinco dados, el m-nimo de los cinco dados o la suma de los cinco dados.

    Una variable aleatoria es una funcin que asocia un valor numrico a

    cada elemento del espacio muestral.

    Espacio muestral

    Es el espacio con todos los posi-bles resultados de nuestro expe-rimento.

    38---

    Alea jacta est

    La palabra aleatorio proviene del hecho de que utilizamoslas variables aleatorias para formalizar fenmenos en los que interviene el azar. Recor-dad que en las pelculas deromanos dicen alea jacta est, que en espaol sera la suerte est echada.

  • FUOC P08/75057/02305 6 Variables aleatorias

    Estudiaremos bsicamente dos tipos de variables aleatorias, las variables alea-

    torias discretas y las variables aleatorias continuas (existen otros tipos que no

    estudiaremos). Como idea bsica, podemos diferenciarlas de la manera si-

    guiente: cuando una variable aleatoria toma valores slo sobre un conjunto fi-

    nito, es una variable aleatoria discreta, y cuando toma valores sobre todo un

    intervalo de los nmeros reales, es una variable aleatoria continua. Esta defi-

    nicin no es rigurosa, pero nos sirve para hacer una primera aproximacin.

    2. Variables aleatorias discretas

    Fijaos en los ejemplos que hemos dado de variables aleatorias. Algunas son va-

    riables aleatorias discretas y otras no lo son. El ejemplo de los dados es un caso

    claramente discreto, en el que la variable aleatoria que nos da el mximo de los

    cinco resultados slo puede alcanzar uno de los seis valores siguientes: 1, 2, 3,

    4, 5 y 6. Adems, somos capaces de calcular la probabilidad de que la variable

    tome cada uno de estos valores.

    Ejemplo de las tres monedas

    Si lanzamos tres veces una moneda, el conjunto de resultados posibles es:

    = {(c,c,c),(c,c,),(,c,c),(c,,c), (c,,),(,c,),(,,c), (,,)}donde c indica una cara y indica una cruz. En este espacio muestral podemos definirmuchas variables aleatorias diferentes. Llamaremos X al nmero de caras que han salido.Esta variable puede tomar los valores siguientes:

    Podemos ver cul es la probabilidad asociada a cada uno de los posibles valores

    de la variable X. De la tabla anterior y sabiendo que los resultados son equi-

    probables, resulta muy claro que obtenemos las probabilidades siguientes:

    Una variable aleatoria discreta es una variable aleatoria que puede to-

    mar un nmero finito o numerable de valores, en los que cada uno de

    estos valores tiene una probabilidad mayor que cero de ser observado.

    Valores posibles X Resultados del lanzamiento del dado

    0 (,,)1 (c,,),(,c,),(,,c)2 (c,c,),(,c,c),(c,,c)3 (c,c,c)

    Valores posiblesX = x

    P(X = x)

    0 1/8

    1 3/8

    2 3/8

    3 1/8

    Nuestro entorno...

    ... est lleno de variables aleatorias. Slo un ejemplo: el nmero de letras de cada pgi-na de estas notas.

    Conjunto numerable de valores

    Es aquel que podemos nume-rar utilizando los nmeros na-turales.

  • FUOC P08/75057/02305 7 Variables aleatorias

    Utilizando esta tabla, es fcil calcular la probabilidad de cualquier acontecimiento que sepueda escribir en trminos de la variable X. Por ejemplo, podemos contestar a la preguntacul es la probabilidad de que salga ms de una cara?.

    Fijaos en que podemos tener sucesos con probabilidad cero. Por ejemplo, cul es la pro-babilidad de que salgan cuatro caras?. Claro que la probabilidad es cero!

    2.1. Funcin de masa de probabilidad y funcin de distribucin

    Una variable aleatoria discreta quedar determinada si conocemos cul es

    la probabilidad de que tome cada uno de los posibles valores. La funcin

    que nos da la probabilidad de cada valor se conoce como la funcin de masa

    de probabilidad.

    Recordad que la probabilidad del conjunto total era 1. Fijaos, por tanto, en que

    en la propiedad anterior slo recordamos este resultado, ya que cuando suma-

    mos las probabilidades de todos los valores posibles, obtenemos la probabili-

    dad del conjunto total.

    En definitiva, la funcin de masa de probabilidad nos explica cmo se distri-

    buye una probabilidad total igual a la unidad en los resultados que toma la va-

    riable X.

    Otra herramienta fundamental para el estudio de las variables aleatorias es la

    llamada funcin de distribucin.

    La funcin de masa de probabilidad de una variable aleatoria es la

    funcin que nos da, para cada valor x, la probabilidad de que la variable

    tenga este valor, P(X x).

    Una propiedad fundamental de esta funcin es que la suma de la

    funcin de masa de probabilidad en todos los posibles valores vale

    siempre 1, es decir:

    La funcin de distribucin de una variable aleatoria es la funcin que

    nos da, para cada valor x, la probabilidad de que la variable tenga un

    valor inferior o igual a x, es decir:

    F(x) P(X x)

    P X 1 P X 2= X 3= P X 2= P X 3= + 48---= = =

    Sumatorios

    El smbolo indica hacer

    un sumatorio de los valores de f(x) para todos los posibles va-lores de la x.

    f x x

    P X x= x 1=

    CDF

    En ingls la funcin de distribu-cin se denomina cumulative distribution function. Esto hace que en el software estadstico se denomine usualmente CDF.

  • FUOC P08/75057/02305 8 Variables aleatorias

    Para las variables discretas tenemos:

    F(x) (X y)

    Esta funcin a veces resulta muy til. Conociendo la funcin de masa de pro-

    babilidad, podemos calcular la funcin de distribucin, lo cual resulta fcil de

    comprobar. Cuando conozcamos una de estas dos funciones, diremos que co-

    nocemos la ley o la distribucin de la variable aleatoria discreta.

    As, diremos que tanto la funcin de masa de probabilidad como la funcin de

    distribucin determinan la ley de la variable aleatoria. Observad que dos va-

    riables diferentes pueden tener la misma ley. Por ejemplo, si tiramos dos dados

    y consideramos las dos variables que nos dan el resultado de cada dado, estas

    dos variables aleatorias tienen la misma ley, pero no son la misma (correspon-

    den a dos tiradas diferentes; en la primera ha podido salir un 1 y en la segunda

    ha podido salir un 2).

    Ejemplo de las tres monedas

    Retomemos el ejemplo anterior de las tres monedas. A partir de la funcin de masa deprobabilidad podemos calcular fcilmente la funcin de distribucin. Por ejemplo:

    Podemos recoger la funcin de distribucin en la tabla siguiente:

    Fijaos en que podemos calcular la funcin de distribucin para cualquier valor de la x.Por ejemplo:

    Podemos dibujar tambin los grficos de la funcin de masa de probabilidad y de la fun-cin de distribucin.

    Conocer la ley o la distribucin de una variable aleatoria X significa ser

    capaces de calcular cualquier probabilidad que haga referencia al com-

    portamiento de la variable aleatoria X.

    Valores x P(X x)0 1/8

    1 4/8

    2 7/8

    3 1

    Py x

    P X 1 P X 0= P X 1= + 48---= =

    F 2,7 P X 2,7 P X 2 78---= = =

  • FUOC P08/75057/02305 9 Variables aleatorias

    2.2. Independencia

    Para finalizar esta sesin, introducimos el concepto de independencia.

    En el ejemplo de las tres monedas, la variable X nos daba el nmero de caras

    que han salido. Consideremos tambin la variable Y, que valdr 1 si al tirar la

    moneda la primera vez sale cara y valdr 0 si sale cruz. Finalmente definimos

    la Z, que valdr 1 si al lanzar la moneda la segunda vez sale cara y valdr 0 si

    sale cruz.

    Est claro que si conocemos el valor de la variable Y, ya tenemos cierta infor-

    maci sobre los valores que puede tomar la variable X. Por ejemplo, si Y 1,ya sabemos que X no puede ser cero. Esto nos indica que X e Y no son inde-

    pendientes.

    En cambio, aunque conozcamos el valor que toma Y, no tenemos ninguna in-

    formacin sobre qu puede pasar con la variable Z. En este caso diremos que

    Y y Z son independientes.

    La definicin rigurosa de independencia entre variables aleatorias, que nos

    permitir tratar fcilmente con parejas de variables aleatorias, es muy parecida

    al concepto de sucesos independientes que vimos en el mdulo de Clculo

    de probabilidades.

    La funcin de distribucin presenta algunas propiedades importantes

    que debemos conocer:

    Arranca siempre desde cero y llega hasta uno.

    Es siempre una funcin creciente.

    Histograma de frecuencias

    Si repetimos un experimento muchas veces, el histograma de las frecuencias relativas para cada valor se parece al grfico de la funcin de masa de pro-babilidad.

  • FUOC P08/75057/02305 10 Variables aleatorias

    Ejemplo de las tres monedas

    Recordad que hemos definido las variables X, Y y Z (inicio del apartado 1.2.2). Observadque:

    P(X = 0,Y = 1) = 0 y P(X = 0) = , P(Y = 1) =

    Por tanto, est claro que X e Y no son independientes, ya que:

    P(X = 0,Y = 1) P(X = 0) P(Y = 1)Por otro lado, si z e y son o 0 1:

    P(Y = y, Z = z) = , y P(Z = z) = P(Y = y) =

    Por tanto, est claro que Z e Y son independientes, ya que siempre se cumple:

    P(Z = z,Y = y) = P(Z = z)P(Y = y)

    3. Resumen

    En esta seccin hemos aprendido el concepto de variable aleatoria y hemos es-

    tudiado un tipo particular: las variables aleatorias discretas. Hemos presentado

    los conceptos de funcin de masa de probabilidad y funcin de distribucin.

    Finalmente, hemos extendido el concepto de independencia de sucesos a va-

    riables aleatorias.

    Las variables aleatorias discretas X e Y son independientes si:

    P(X = x,Y = y) = P(X = x)P(Y = y)

    para todo posible par de valores x e y.

    La definicin de independencia implica que para todo y con P(Y = y) > 0,

    P(X = x |Y = y) = P(X = x)

    para todo x.

    Notacin

    Observad que utilizamos la no-tacin:P({X x} {Y y}) == P(X = x, Y = y).Y recordad que: P(X = x |Y = y) indica la probabilidad de que X x si sabemos que Y y.

    18--- 1

    2---

    14--- 1

    2---

  • FUOC P08/75057/02305 11 Variables aleatorias

    Ejercicios

    1. Lanzamos dos veces un dado y consideramos las variables aleatorias si-

    guientes: Y es el resultado del primer dado, Z es el resultado del segundo y X

    es la suma de ambos.

    a) Determinad el espacio muestral asociado al experimento.

    b) Determinad las funciones de masa de probabilidad y de distribucin de X.

    Dibujadlas.

    c) Calculad P(X = 2,Y = 3), P(X = 8), P(X = 7,5), P(X > 7), P(X 7,5).d) Son independientes las variables X e Y? Son independientes las variables

    Z e Y?

    2. Un estudiante debe contestar un cuestionario con cuatro preguntas. Todas

    las preguntas tienen dos posibles respuestas. El estudiante, que no se ha prepa-

    rado para el cuestionario, contesta las preguntas al azar. Sea X el nmero total

    de respuestas correctas del estudiante e Y el nmero de respuestas incorrectas a

    las tres primeras preguntas.

    a) Calculad la funcin de masa de probabilidad de X.

    b) Calculad la probabilidad de que el estudiante conteste al menos una pre-

    gunta bien.

    c) Calculad P(X 2,Y 3). d) Son independientes las variables X e Y ?

    Solucionario

    1.

    a) Si lanzamos dos veces un dado, los resultados posibles son todos los pares

    de nmeros del 1 al 6. Fijaos en que el conjunto de estos pares forma el espacio

    muestral y tiene 36 elementos (tenemos en cuenta el orden):

    {(1,1), (1,2), (1,3), ..., (6,5), (6,6)}

    b) Para la variable X tenemos:

    Valores posibles X Resultados lanzamiento del dado

    2 (1,1)

    3 (1,2), (2,1)

    4 (1,3), (2,2), (3,1)

    5 (1,4), (2,3), (3,2), (4,1)

    6 (1,5), (2,4), (3,3), (4,2), (5,1)

    7 (1,6), (2,5), (3,4), (4,3), (5,2), (6,1)

    8 (2,6), (3,5), (4,4), (5,3), (6,2)

    9 (3,6), (4,5), (5,4), (6,3)

    10 (4,6), (5,5), (6,4)

    11 (5,6), (6,5)

    12 (6,6)

  • FUOC P08/75057/02305 12 Variables aleatorias

    La funcin de masa de probabilidad es, por tanto:

    Y la funcin de distribucin:

    Valores posibles X = x

    P(X = x)

    2 1/36

    3 2/36

    4 3/36

    5 4/36

    6 5/36

    7 6/36

    8 5/36

    9 4/36

    10 3/36

    11 2/36

    12 1/36

    x P(X x)2 1/36

    3 3/36

    4 6/36

    5 10/36

    6 15/36

    7 21/36

    8 26/36

    9 30/36

    10 33/36

    11 35/36

    12 36/36

  • FUOC P08/75057/02305 13 Variables aleatorias

    c) Utilizando estas tablas resulta fcil calcular la probabilidad de los aconteci-

    mientos que se pueden escribir en trminos de la variable X. As:

    P(X 8) P(X 7,5) 0P(X 7) 1 P(X 7) 1 F(7) 1 P(X 7,5) P(X 7)

    Tambin est claro que el suceso {X 2, Y 3} es el suceso vaco, as que:

    P(X 2, Y 3) 0

    d) Observad:

    P(X 8, Y 1) 0

    y en cambio:

    P(X 8) y P(Y 1)

    En este caso est claro que X e Y no son independientes.

    Por otro lado, si z e y son dos valores entre 1 y 6:

    P(Y y, Z z) , y P(Z z) P(Y y)

    Por tanto, Z e Y son independientes.

    2.

    a) Si decimos que la respuesta a cada pregunta es independiente de las otras,

    podemos calcular fcilmente:

    P(X 0)

    P(X 1) 4

    P(X 2) 6

    P(X 3) 4

    P(X 4)

    536------

    2136------ 15

    36------

    2136------

    536------ 1

    6---

    136------ 1

    6---

    12--- 4

    12--- 4

    12--- 4

    12--- 4

    12--- 4

  • FUOC P08/75057/02305 14 Variables aleatorias

    Los coeficientes 4, 6 y 4 salen del nmero de combinaciones en las que pode-

    mos hacer 1, 2 3 respuestas correctas respectivamente. Este clculo est

    relacionado con la llamada distribucin binomial, que se explica en la sesin

    Algunas distribuciones discretas.

    b) El acontecimiento contestar al menos alguna pregunta bien es el aconte-

    cimiento contestar una pregunta o ms bien. As, tenemos que calcular:

    P(X 1) 1 P(X 1) 1 P(X 0) 1

    c) Est claro que el acontecimiento {X 2, Y 3} no se puede dar nunca.Por tanto:

    P(X 2, Y 3) 0

    d) Ya hemos visto que la P(X 2) 6/16. Con un razonamiento anlogo esfcil comprobar que:

    P(Y 3)

    Por tanto,

    P(X = 2, Y = 3) P(X = 2)P(Y = 3)

    y las variables no son independientes.

    116------

    12--- 3 1

    8---

  • FUOC P08/75057/02305 15 Variables aleatorias

    Esperanza y varianza

    En esta sesin estudiaremos un par de caractersticas importantes de las leyes

    de las variables aleatorias discretas: la esperanza y la varianza. Se trata de una

    medida numrica por el centro y una por la dispersin, respectivamente, de la

    distribucin de la variable aleatoria. Dos variables aleatorias con la misma ley

    tendrn, por tanto, la misma esperanza y la misma varianza.

    No sern conceptos radicalmente nuevos, ya que estn relacionados con los

    conceptos de media muestral y de varianza muestral que estudiamos anterior-

    mente. Las medidas de centralidad y de dispersin de un conjunto de datos

    tienen su equivalente en las distribuciones de probabilidad.

    1. Definiciones

    Suponed que lanzamos un dado veinte veces y que obtenemos los valores si-

    guientes:

    2, 2, 6, 1, 1, 6, 2, 5, 3, 2, 4, 6, 4, 4, 5, 2, 6, 6, 5, 4

    La media de estos datos, utilizando las frecuencias relativas, tal como hemos

    visto en el mdulo Estadstica descriptiva, se puede calcular como:

    donde cada fi indica la frecuencia relativa de i. De la misma manera podramos

    calcular la varianza muestral de los datos como:

    Por otra parte, podemos pensar que si tenemos un dado (no trucado) y lo lan-

    zamos muchas veces, las frecuencias esperadas de cada uno de los 6 posibles

    valores se ir acercando cada vez ms a 1/6 (que es la probabilidad de cada va-

    lor). As, la media de los datos cuando hiciramos muchas tiradas sera:

    Representabilidad de la esperanza y la varianza

    La esperanza y la varianza nos permiten conocer un poco c-mo es una variable aleatoria.

    Recordad cmo...

    ... calculbamos la media y la varianza muestral.

    x ifii 1=

    6

    1 220------ 2 520------ 3 120------ 4 420------ 5 320------ 6 520------ + + + + + 3,8= = =

    s2 i x 2fi 3,06i 1=

    6

    =

    i16---

    i 1=

    6

    216------ 3,5= =

  • FUOC P08/75057/02305 16 Variables aleatorias

    y la varianza muestral:

    Estos dos valores, equivalentes a la media y a la varianza muestral, sern la es-

    peranza y la varianza de la variable aleatoria que nos da el resultado del lanza-

    miento de un dado. Hemos sustituido las frecuencias relativas de cada valor

    por la probabilidad de que se d este valor.

    La esperanza de una variable aleatoria X se puede mirar tambin como la me-

    dia ponderada de los valores que toma la variable aleatoria.

    Ejemplo de la ruleta

    Un ejemplo muy fcil es el de la ruleta. Podemos plantearnos la pregunta siguiente. Sivamos al casino a jugar a la ruleta a rojo o negro, qu ganancias esperamos tener?

    Para aquellos que no tengis este vicio, recordemos cmo funciona una ruleta. La ruletatiene 18 casillas rojas, 18 negras y 2 blancas. Si jugamos 1.000 u.m. a rojo y la bola caeen una casilla roja, ganamos 1.000 u.m., y si cae en una negra o en una blanca, perdemoslas 1.000 u.m. que hemos jugado. Si llamamos X a las ganancias que esperamos obtener,tenemos la tabla siguiente:

    Y podemos calcular la esperanza:

    E(X) 1.000 1.000 52,63

    Es decir, en cada jugada esperamos perder 52,63 u.m. A largo plazo, un mal negociopara el jugador y un buen negocio para el casino.

    Ejemplo de la bolsa

    Veamos ahora un ejemplo en los mercados financieros. Compramos una accin en bolsade la compaa A por 1.000 u.m. y creemos que con probabilidad 1/3 la semana siguientevaldr 1.200 u.m., con probabilidad 1/2 el precio no variar y con probabilidad 1/6 val-dr slo 900 u.m. Os parece que hemos hecho una buena inversin?

    Para decidirlo, deberamos calcular el valor que esperamos que tendr la semana queviene. Podemos considerar que tenemos una variable aleatoria X, que es el precio de laaccin la prxima semana y que sabemos que tiene funcin de masa de probabilidad:

    La esperanza de una variable aleatoria discreta X, que denotaremos por

    E(X), se define como:

    Valores posibles X x P(X x)1.000 18/38

    1.000 20/38

    Valores posibles X x P(X x)1.200 1/3

    1.000 1/2

    900 1/6

    i 3,5 216--- 2,916

    i 1=

    6

    Qu esperamos?

    Como su propio nombre indi-ca, la esperanza de una varia-ble aleatoria es el valor que esperamos que salga. Pero qu significa que espera-mos que salga? Pensad en el ejemplo del dado.

    Notacin

    En algunos libros la esperanza se denomina valor esperado.

    E X xP X x= x=

    1838------ 20

    38------

  • FUOC P08/75057/02305 17 Variables aleatorias

    Y podemos calcular la esperanza:

    E(X) 1.200 1.000 900 1.050

    Por tanto, esperamos obtener unos beneficios de 50 u.m.

    Consideremos tambin la compaa B. Podemos comprar sus acciones tambin por 1.000u.m., y sabemos que con probabilidad 1/3 la semana siguiente valdrn 1.500 u.m., con pro-babilidad 1/2 el precio no variar y con probabilidad 1/6 valdr slo 300 u.m. (qu desas-tre!).

    Podemos calcular la esperanza de la variable Y, que nos dar el precio de la accin la se-mana siguiente:

    E(X) 1.500 1.000 300 1.050

    que es la misma que tenamos si comprbamos una accin de la compaa A.

    Por tanto, parece que es indiferente comprar acciones de la compaa A o de la compaaB. Pero ya veremos que esto no es cierto.

    Una vez calculada la esperanza, podemos calcular la dispersin para cada valor

    x que puede tomar la variable aleatoria X, como la distancia entre el valor x y

    la esperanza E(X), es decir, x E(X). La varianza, medida de la dispersin, es en

    realidad el valor esperado de las desviaciones al cuadrado. El hecho de que las

    elevemos al cuadrado es para evitar que si tenemos desviaciones de diferentes

    signos, stas se pudieran cancelar.

    Si se utiliza la definicin de esperanza que hemos dado, es fcil comprobar que

    para una variable aleatoria discreta podemos calcular la varianza como:

    Var(X) P(X x)

    Tenemos tambin una expresin alternativa de la varianza:

    Var(X) = E[X2] (E[X])2

    Como en el estudio poblacional (estadstica descriptiva), podemos definir tam-

    bin la desviacin tpica.

    La varianza de una variable aleatoria X, que denotaremos por Var(X),

    se define como:

    Var(X) E[(X E(X))2]

    La desviacin tpica de una variable aleatoria X, que denotaremos por

    s(X), se define como:

    s(X) =

    13--- 1

    2--- 1

    6---

    13--- 1

    2--- 1

    6---

    x E X 2x

    Medida de la dispersin de una variable aleatoria

    Como en el caso poblacional, la desviacin tpica es muy til, ya que se da con las mismas unidades que la esperanza, de manera que nos puede dar una idea ms clara de la medida de la dispersin de una variable aleatoria.Var x

  • FUOC P08/75057/02305 18 Variables aleatorias

    Como ya hemos comentado, la varianza es una medida de dispersin. As,

    mientras que la esperanza nos da el centro de la distribucin (hace el papel de

    la media muestral en Estadstica descriptiva), la varianza nos indica lo dis-

    persa que es esta distribucin.

    Veamos el ejemplo siguiente:

    Ejemplo de la bolsa

    En el ejemplo de los mercados financieros, para la compaa A tenemos las dispersionessiguientes:

    Y, por tanto, la varianza ser sta:

    Var(X) 1502 (50)2 (50)2 12.500

    y la desviacin tpica es de 111,80. En cambio, si calculamos la varianza para la variable Y(compaa B):

    Var(Y) (1.500 1.050)2 (1.000 1.050)2 (300 1.050)2 162.500

    mientras que la desviacin tpica es de 403,11. Como podemos ver, la varianza de la va-riable Y es bastante mayor que la de la variable X. As, X e Y tienen la misma esperanza(el centro de las dos variables est en el mismo punto), pero las varianzas son bastantediferentes. Podemos verlo en los grficos de las correspondientes funciones de masa deprobabilidad.

    Cmo podemos interpretarlo? La ganancia que esperamos al comprar una accin de lacompaa A o una de la compaa B es la misma, pero en la compaa B la varianza esmayor, de manera que tanto podemos ganar ms dinero, como podemos perder ms. Elcaso extremo sera una compaa en la que comprramos una accin por 1.000 u.m. ysupiramos que a la semana siguiente podremos venderla por 1.050. La esperanza ser lamisma pero, en cambio, la varianza sera cero.

    Tenemos todava una ltima compaa llamada C. En este caso, el precio es tambin de1.000 u.m. y sabemos que con probabilidad 1/3 la semana siguiente valdr 1.300 u.m.,con probabilidad 1/2 el precio ser de 800 y con probabilidad 1/6 valdr slo 100 u.m.

    Valores posibles X = x

    Dispersin x E(x) P(X x)

    1.200 150 1/3

    1.000 50 1/2900 150 1/6

    13--- 1

    2--- 1

    6---

    13--- 1

    2--- 1

    6---

  • FUOC P08/75057/02305 19 Variables aleatorias

    Podemos calcular la esperanza de la variable Z, indicada por una lnea discontinua, quenos da el precio de la accin para la semana siguiente:

    E(Z) 1.300 800 100 850

    que es menor que la de las otras compaas. La varianza, en cambio, vale:

    Var(Z) (1.300 850)2 (800 850)2 (100 850)2 162.500

    que es la misma que para la compaa B. As, Z e Y tienen la misma varianza y esperanzasdiferentes. Podemos verlo tambin comparando los grficos de las funciones de masa deprobabilidad.

    2. Algunas propiedades de la esperanza

    La mayora de las propiedades de la esperanza podemos obtenerlas de una ma-

    nera bastante intuitiva. Si en el ejemplo de la ruleta sabamos que cuando

    jugbamos una vez esperbamos perder 52,63 u.m., si jugamos dos veces es-

    peraremos perder el doble. En trminos de esperanzas, estamos diciendo que la

    esperanza de la suma de dos variables aleatorias es la suma de las esperanzas.

    Tambin nos encontramos con las propiedades siguientes:

    1) La esperanza de una constante es la misma constante. Una constante es

    una variable aleatoria que toma un nico valor k con probabilidad 1. As:

    E(X) = kP(X = k) = k 1 = k2) La esperanza de kX, donde X es una variable aleatoria y k es una constante,

    es igual a la esperanza de X multiplicada por k:

    E(kX) = kE(X)

    La demostracin de esta propiedad se obtiene directamente de la definicin de

    esperanza:

    E(kX) =

    13--- 1

    2--- 1

    6---

    13--- 1

    2--- 1

    6---

    kxP X x= k xP X x= kE X =x=

    x

  • FUOC P08/75057/02305 20 Variables aleatorias

    Observad que si tomamos k = 1, encontramos que E(X) = E(X).

    3) Si tenemos dos variables aleatorias X e Y, la esperanza de la suma de las dos

    es la suma de las dos esperanzas. Es decir:

    E(X + Y) = E(X) + E (Y)

    No demostraremos esta propiedad. Veremos slo un caso particular: si sumamos

    una constante a la variable X, la esperanza aumenta tambin en la misma cons-

    tante, es decir:

    E(X + k) = E(X) + k

    Para demostrarlo, slo hay que utilizar la definicin de esperanza y pensar que

    la nueva variable X k toma los valores x k, donde las x son los valores quetoma la variable X con probabilidad P(X x). Vemoslo:

    E(X + k) = P(X = x) = + =

    = E(X) + = E(X) + k

    3. Algunas propiedades de la varianza

    Teniendo en cuenta que la varianza es una medida de dispersin de la variable,

    es fcil justificar algunas de sus propiedades, aunque no otras. Vemoslas:

    1) La varianza de una constante es cero. Una constante es una variable alea-

    toria que toma un nico valor k con probabilidad 1. As:

    Var(X) = E((k E(k))2) = E(0) = 0

    Este resultado es el esperado, ya que la varianza es una medida de la dispersin

    de la variable, de manera que, si la variable es constante, esta medida debe ser

    cero.

    2) La varianza de kX, donde X es una variable aleatoria y k es una constante,

    es igual a la varianza de X multiplicada por k2:

    Var(kX) = k2Var(X)

    Por tanto, s(kX) = k s(X):

    La demostracin de esta propiedad se obtiene de la definicin y de las propie-

    dades de la esperanza:

    Var(kX) = E((kX E(kX))2) = E(k2(X E(X))2) = k2Var(X)

    Extensin de n variables

    Esta propiedad se extiende f-cilmente a n variables, de ma-nera que la esperanza de la suma de n variables aleatorias es la suma de sus esperanzas.

    Recordad que...

    ... P X x= x 1=

    x k+ x xP X x=

    x kP X x=

    x

    k P X x= x

  • FUOC P08/75057/02305 21 Variables aleatorias

    Observad que, si tomamos k 1, obtenemos Var(X) Var(X).

    3) Si sumamos una constante a la variable X, la varianza no vara:

    Var(k + X) = Var(X)

    Este resultado es tambin intuitivo si pensamos que la varianza es una medida

    de dispersin y que, al sumar una constante, la dispersin de la variable no se

    modifica. La demostracin es parecida a la de la propiedad anterior:

    Var(k + X) = E((k X E(k X))2) = E((k X k E(X))2) =

    = E((X E(X))2) = Var(X)

    4) Si tenemos dos variables aleatorias X e Y independientes, la varianza de la

    suma de las dos es la suma de las varianzas. Es decir:

    Var(X Y) Var(X) Var(Y)

    No demostraremos esta propiedad. La independencia entre las dos variables

    resulta fundamental para obtener esta propiedad. Por ejemplo, si tomamos

    (Y X), sabemos que la Var(X Y) Var (0) 0, mientras que si la propiedadfuese cierta, tendramos Var(X Y) Var(X) + Var(X) 2Var(X) 0.

    4. La desigualdad de Tchebichev

    La desigualdad de Tchebichev nos permite interpretar la informacin conjun-

    ta que nos dan la esperanza y la varianza de una variable aleatoria indicando

    la masa de probabilidad mnima en intervalos de longitud centra-

    dos en E(X).

    Demostracin de la desigualdad de Tchebichev

    Por la definicin de la varianza tenemos:

    Var(X ) =

    en la que en el ltimo paso hemos partido el sumatorio en dos fragmentos. En el primerosumamos las x, donde i; en el segundo sumamos las que .Puesto que el segundo sumando es positivo, obtenemos:

    Sea X una variable aleatoria, entonces la desigualdad de Tchebichev nos

    indica que para todo k > 0:

    Obsevad que...

    ... si tenemos dos variables aleatorias X e Y que no sonindependientes, entonces en general:Var(X + Y) Var(X) + Var(Y).Aunque dos variables aleato-rias X e Y sean independientes, en general:

    s(X + Y) s(X) + s(Y).

    Extensin a n variables

    Esta propiedad se extiende f-cilmente a n variables, de ma-nera que la varianza de la suma de n variables aleatorias inde-pendientes es la suma de las varianzas.

    2n Var X

    P X E X k 1k2-----Var X

    x E X 2P X x= x

    x E X 2P X x= x E X 2P X x= x, x E X k

    +x, x E X k

    x E X k x E X k

  • FUOC P08/75057/02305 22 Variables aleatorias

    Var(X )

    que nos prueba la desigualdad de Tchebichev.

    Esta desigualdad es importante, ya que nos indica que si cogemos

    , es decir, n veces la desviacin tpica, tendremos:

    Es decir, que tendremos como mnimo una masa de probabilidad de 1 enel intervalo:

    Ejemplo

    Consideremos una variable aleatoria X con esperanza 2 y varianza 4, en cuyo caso:

    es decir:

    P(4 < X < 8) 1 =

    5. Resumen

    En esta sesin hemos aprendido los conceptos de esperanza y de varianza de

    una variable aleatoria. Hemos estudiado sus propiedades bsicas y hemos visto

    cmo calcularlas para variables aleatorias discretas. Para acabar, hemos vis-

    to cmo utilizar la desigualdad de Tchebichev para relacionar los dos conceptos.

    x E X 2P X x= x, x E X k

    k2P X x= x, x E X k

    k2P X E X k

    k n Var X =

    P X E X n Var x 1n2-----

    Probabilidad para n 2Para cualquier variable X en el intervalo:

    (E(X) 2s, E(X) + 2s) se concentra como mnimo una probabilidad de 0,75. Recordad que:

    s Var X =

    1n2-----

    E X n Var x , E X n Var x +

    P X 2 6 19---

    Observacin

    Fijaos en que 6 = 3 419--- 8

    9---

  • FUOC P08/75057/02305 23 Variables aleatorias

    Ejercicios

    1. Lanzamos dos veces un dado y consideramos la variable aleatoria que nos

    da el mximo de los dos valores obtenidos.

    a) Calculad la funcin de masa de probabilidad de esta variable aleatoria.

    b) Calculad su esperanza y su varianza.

    2. En la compaa ACBXX tienen cuatro tipos de trabajadores: directivos, con

    un sueldo de 15.000.000 u.m.; especialistas, con un sueldo de 5.000.000; obreros,

    con un sueldo de 2.000.000, y aprendices, con un sueldo de 1.000.000. Sabemos

    que la compaa tiene cuatro directivos, cuarenta especialistas, doscientos obre-

    ros y cien aprendices. Cogemos a un trabajador al azar y llamamos X a la variable

    aleatoria que nos da el sueldo de este trabajador.

    a) Calculad la esperanza y la varianza de esta variable.

    b) Si en la compaa se hace un aumento lineal de 200.000 a todos los traba-

    jadores, cmo vara la esperanza y la varianza de la variable X?

    c) Y si hacemos un aumento proporcional del 10%?

    3. Tenemos una variable aleatoria X con esperanza 10 y varianza 1.

    a) Calculad E(3X), Var(2X X).b) Utilizando la desigualdad de Tchebichev, encontrad una cota inferior para P(8

    < X < 12).

    Solucionario

    1.

    a) Para calcular la funcin de masa de probabilidad, observad el cuadro si-

    guiente con todos los posibles resultados (fijaos en que hemos tenido en

    cuenta el orden):

    Hemos marcado la tabla con dos colores para distinguir mejor qu casos nos

    da cada valor. Por ejemplo, el mximo igual a 1 slo lo obtendremos con el

    resultado (1,1). En cambio, obtenemos que el mximo es igual a 2 en tres si-

    tuaciones (1,2),(2,2) y (2,1). Si utilizamos esta tabla y los resultados son equi-

    probables, podemos construir fcilmente la funcin de masa de probabilidad.

    (1,1) (2,1) (3,1) (4,1) (5,1) (6,1)

    (1,2) (2,2) (3,2) (4,2) (5,2) (6,2)

    (1,3) (2,3) (3,3) (4,3) (5,3) (6,3)

    (1,4) (2,4) (3,4) (4,4) (5,4) (6,4)

    (1,5) (2,5) (3,5) (4,5) (5,5) (6,5)

    (1,6) (2,6) (3,6) (4,6) (5,6) (6,6)

  • FUOC P08/75057/02305 24 Variables aleatorias

    b) Podemos calcular fcilmente la esperanza:

    Para calcular la varianza, haremos una tabla con las desviaciones:

    Y si utilizamos la frmula:

    Var(X) = P(X x)

    obtenemos fcilmente

    2.

    a) Tenemos una variable X que tiene funcin de masa de probabilidad:

    Valores posibles X x P(X x)

    1 1/36

    2 3/36

    3 5/36

    4 7/36

    5 9/36

    6 11/36

    Valores posibles X x P(X x)

    Dispersinx E(X) x E(X)

    2

    1 1/36 125/36 15.625/(36)2

    2 3/36 89/36 7.921/(36)2

    3 5/36 53/36 2.809/(36)2

    4 7/36 17/36 289/(36)2

    5 9/36 19/36 361/(36)2

    6 11/36 55/36 3.025/(36)2

    Valores posibles X x P(X x)

    15.000.000 4/344

    5.000.000 40/344

    2.000.000 200/344

    1.000.000 100/344

    E X 1 136------ 2

    336------ 3

    536------ 4

    736------ 5

    936------ 6

    1136------ + + + + +

    16136

    ---------- 4,47= =

    x E X 2x

    Var X 91.980363

    ------------------- 1,971=

  • FUOC P08/75057/02305 25 Variables aleatorias

    Podemos calcular la esperanza:

    +

    Y tambin la varianza:

    Var(X) = (15.000.000 E(X))2 + (5.000.000 E(X))2 +

    + (2.000.000 E(X))2 + (1.000.000 E(X)) 3.258.518.117.902

    Comos podis ver, la varianza no nos da una idea clara del nivel de dispersin

    y, en cambio, si miramos la desviacin tpica, 1.805.137 u.m., lo vemos ms

    claro.

    b) No haremos clculos. Fijaos en que si llamamos Y a la variable que nos da

    el sueldo despus del aumento lineal, tenemos que Y X 200.000. Por laspropiedades de la esperanza, tendremos E(Y) E(X) 200.000, mientras quela varianza no variar.

    c) Tampoco haremos clculos. Si ahora llamamos Z a la variable que nos da

    el sueldo despus del aumento proporcional, tenemos que Z (1,1)X. Por laspropiedades de la esperanza y de la varianza, tendremos E(Z) 1,1E(X), mien-tras que la varianza cumple Var(Z) = (1,1)2Var(X) = (1,21)Var(X), de manera

    que representa un incremento del 21%.

    Como podis ver en este caso, la varianza de los sueldos aumenta, de manera

    que parece ms justo hacer un aumento lineal que hacer uno proporcional.

    3.

    a) Si utilizamos las propiedades que hemos estudiado, obtenemos:

    E(3X) = 3E(X) = 30

    Var(2X + X) = Var(3X) = 9Var(X) = 9

    b) Tenemos:

    P(8 X 12) = P(2 < X 10 < 2) = P(|X 10| < 2) 1 P(|X 10| 2)

    Utilizando la desigualdad de Tchebichev, tenemos:

    E X 15.000.000 4344---------- 5.000.000

    40344---------- 2.000.000

    200344---------- + +=

    1.000.000 100344---------- 2.209.302,33+

    4344----------

    40344----------

    200344----------

    100344----------

    P X 10 2 122----- Var V 1

    4---= 1 1

    4---=

  • FUOC P08/75057/02305 26 Variables aleatorias

    Por tanto, la desigualdad pedida quedar:

    P 8 X 12 1 P X 10 2 1 14--- 3

    4---==

  • FUOC P08/75057/02305 27 Variables aleatorias

    Algunas distribuciones discretas

    Ahora estudiaremos algunas de las distribuciones discretas ms usuales. Imagi-

    nemos la situacin siguiente. Sabemos que cada vez que intentemos conec-

    tarnos a Internet utilizando la lnea telefnica, cabe la posibilidad de que la

    conexin falle y no podamos conectarnos. Adems, sabemos que la probabili-

    dad de que esto suceda, es decir, de que falle la conexin, es de 0,1. Finalmente,

    supondremos tambin que el resultado de cada llamada que intentemos es in-

    dependiente de las otras llamadas que hayamos hecho. Indicaremos finalmen-

    te con una C el acontecimiento llamada que obtiene la conexin y con , el

    acontecimiento complementario, llamada que no obtiene la conexin.

    1. Distribucin de Bernoulli

    Consideremos ahora una variable aleatoria X que, cuando intentemos conec-

    tarnos una vez a Internet, vale 1 si podemos hacerlo y 0 si la conexin falla y

    no podemos. Esta variable tiene la funcin de masa de probabilidad siguiente:

    P(X 0) 0,1P(X 1) 0,9

    La ley de esta variable se conoce como una distribucin de Bernoulli de par-

    metro 0,9.

    Podemos calcular fcilmente la esperanza y la varianza de una variable X con

    una distribucin B(p):

    E(X) = 0P(x = 0) + 1P (x = 1) = p

    Var(X) = (0 p)2P(X = 0) + (1 p)2P(X = 1) = p(1 p)

    Una variable aleatoria X sigue a una distribucin de Bernoulli de par-

    metro p, p (0,1). Escribiremos B(p) si slo toma los valores 0 y 1 conprobabilidades:

    P(X 1) p, P(X 0) 1 p

    Si X es una variable aleatoria con ley B(p), entonces E(X) p y Var(X) p(1 p).

    C

    Bernoulli

    El nombre de Bernoulli provie-ne de un importante matem-tico del siglo XVII.

    Como podis ver...

    ... la distribucin de Bernoulli es la distribucin discreta ms sencilla, ya que slo puede to-mar dos valores: cero y uno.

  • FUOC P08/75057/02305 28 Variables aleatorias

    En general, este tipo de distribucin se puede utilizar para modelar cualquier

    experimento en el que tengamos una probabilidad p de tener xito y una

    probabilidad 1 p de tener un fracaso. Se trata slo de codificar el xito comoun 1 y el fracaso, como un 0.

    Por ejemplo, cuando compramos un billete de lotera, existe cierta probabili-

    dad p de que nos toque el premio (y eso sera un xito) y una probabilidad

    1 p de que no nos toque nada (sera el fracaso). Ya sabris por experienciaque, en este caso, la probabilidad p de xito es bastante reducida!

    2. Distribucin binomial

    Volvamos a nuestro ejemplo de la conexin a Internet. En general no inten-

    tamos conectarnos slo una vez. As, imaginemos que, durante todo un da,

    nos intentamos conectar n veces y llamamos Y a la variable aleatoria que cuen-

    ta el nmero de veces que nos hemos podido conectar. Los valores que puede

    tomar esta nueva variable aleatoria son los nmeros naturales entre cero (si to-

    das las veces que hemos intentado conectarnos la conexin ha fallado) y n (si

    nos hemos podido conectar todas las veces que lo hemos intentado).

    Veamos cmo podemos calcular la funcin de masa de probabilidad asociada

    a la variable Y:

    La probabilidad, P(Y 0), que no nos hayamos podido conectar ningunavez, se calcula fcilmente. El acontecimiento {Y = 0} es en realidad:

    Si decimos que cada llamada es independiente de las otras, tenemos que cal-

    cular el producto de las probabilidades de que cada llamada haya fallado:

    P(Y 0) (0,1) ... (0,1) (0,1)n

    La probabilidad P(Y 1) de que la conexin haya funcionado bien exacta-mente una vez vendr dada por la frmula siguiente:

    P(Y 1) n(0,9)(0,1)n1

    Vemoslo: si suponemos que la llamada en la que nos hemos podido co-

    nectar ha sido la primera, el acontecimiento de que haya exactamente una

    nica conexin y que sta se haya producido en la primera llamada es el

    suceso:

    Concepto de xito

    El concepto de xito es relativo. Por ejemplo, en un proceso de control de calidad, podemos considerar un xi-to la produccin de una pieza defectuosa.

    Condiciones del experimento

    Durante buena parte de esta sesin supondremos que estamos repitiendo un experi-mento bajo las condicionessiguientes: el resultado de cada prueba puede ser xito o fraca-so, la probabilidad de xito (bien, de lo que entendemos por xito) siempre es p y cada repeticin de la prueba es independiente del resto.

    CC...C

    CCC...C

  • FUOC P08/75057/02305 29 Variables aleatorias

    Siguiendo un razonamiento anlogo al utilizado para calcular P(Y 0), laprobabilidad de este suceso es igual a:

    (0,9)(0,1) ... (0,1) (0,9) * (0,1)n1

    Pero es posible que la conexin buena se haya producido en el segundo in-

    tento, en el tercero o en el nsimo. Esto hace que para calcular P(Y 1), ten-gamos que multiplicar por n la cantidad anterior.

    Ya podemos calcular la expresin general de P(Y k), donde la k ser unnmero natural entre cero y n. El razonamiento que utilizaremos ser pa-

    recido al que hemos utilizado para calcular la P(Y 1), aunque deberemosutilizar tambin algunas de las nociones de combinatoria que vimos en el

    mdulo dedicado al clculo de probabilidades.

    Si suponemos que hemos logrado las k conexiones en los primeros k inten-

    tos, la probabilidad de este resultado particular es:

    (0,9)k(0,1)nk

    Sin embargo, las k conexiones se han podido obtener de muchas formas di-

    ferentes entre los n intentos que hemos hecho. Tal como vimos en el mdulo

    correspondiente, el nmero de maneras que podemos elegir k elementos di-

    ferentes dentro de un grupo de n es:

    As, tenemos que:

    P(Y = k) = (0,9)k (0,1)nk

    donde k 0,..., n.

    La ley de la variable Y se conoce como la distribucin binomial de parmetros

    n y 0,9.

    Una variable aleatoria Y sigue una distribucin binomial de parmetros

    n y p, n natural y p (0,1) escribiremos B(n, p), si toma valores sobrelos naturales entre 0 y n con funcin de masa de probabilidad:

    P(Y = k) = pk(1 p)nk

    donde k 0,..., n.

    Observacin

    Evidentemente, si k < 0 o k > n, entonces P(Y = k) = 0.

    n

    k n!

    k! n k !------------------------=

    n

    k

    En el ejemplo hemos utilizado p = 0,9.

    nk

  • FUOC P08/75057/02305 30 Variables aleatorias

    Recordad que la distribucin B(p) se puede interpretar como la realizacin de

    un experimento con probabilidad p de tener xito y una probabilidad 1 p deno tenerlo. Ahora lo que hacemos es repetir el experimento n veces, de manera

    independiente, y contar el nmero de xitos. Es decir, obtenemos la distribu-

    cin B(n, p) como suma de n Bernouillis independientes de parmetro p.

    El clculo de la esperanza y la varianza de la binomial se obtiene de la esperan-

    za y la varianza de una distribucin de Bernoulli:

    E(X1 + ... + Xn) =E(X1) + ... + E(Xn) npVar(X1 + ... + Xn) =Var(X1) + ... + Var(Xn) np(1 p)

    Como se ve por su esperanza y su varianza, la forma de una distribucin bino-

    mial depende mucho de los valores de los parmetros. Podis verlo tambin

    en los grficos de las funciones de masa de probabilidad de una B(10, 0,1) y de

    una B(20, 0,5).

    3. Distribucin geomtrica

    Volvamos a la situacin en la que estbamos: continuemos intentando conec-

    tarnos a Internet. Lo ms comn es que lo intentemos hasta que consigamos

    conectarnos, de manera que podemos contar el nmero de veces que hay que

    Si X1, ..., Xn son variables aleatorias independientes con distribucin

    B(p), entonces X1 + ... + Xn sigue una distribucin B(n, p).

    Si Y es una variable aleatoria con ley B(n, p), entonces E(Y) np yVar(Y) np(1 p).

    Obsevacin

    En particular la distribucin de Bernoulli B(p) es una binomial B(1, p).

    Simetra

    Observad que la funcin de masa de probabilidad es sim-trica cuando p = 0,5.

    Valor de p

    Observad que si p es pequea, la probabilidad de lograr pocos xitos es grande.

  • FUOC P08/75057/02305 31 Variables aleatorias

    intentar la conexin hasta conseguirla. Es decir, ahora miramos el problema

    desde otra ptica. En la situacin anterior intentbamos n conexiones, en las

    que n era un valor fijado desde el principio, y queramos determinar en cuntos

    de estos intentos la conexin se haba podido establecer. Ahora lo hacemos al

    revs, intentaremos conectarnos hasta que consigamos la primera conexin y

    contaremos cuntas veces hemos tenido que intentarlo para conseguirla.

    Denominamos Z a la variable aleatoria que cuenta el nmero de veces que hay

    que intentar la conexin hasta que consigamos conectarnos por primera vez.

    Podemos calcular ahora la funcin de masa de probabilidad asociada a la va-

    riable Z:

    La probabilidad P(Z 1) de que nos podamos conectar al primer intento esclaramente la probabilidad de C, que es:

    P(Z 1) 0,9

    La probabilidad P(Z 2) de que nos podamos conectar por primera vez alsegundo intento es la probabilidad de que en la primera llamada la co-

    nexin haya fallado y que en la segunda la hayamos podido establecer, es

    decir, la probabilidad de . Por tanto:

    P(Z 2) (0,1)(0,9)

    Y la expresin general para P(Z k), donde k ser un nmero natural mayorque 1, vendr dada por:

    P(Z k) (0,1)k 1(0,9)

    Esta expresin sale fcilmente del hecho de que el acontecimiento {Z = k} sig-

    nifica que en los k 1 primeros intentos la conexin ha fallado y que en k-simohemos conseguido conectarnos.

    La ley de la variable Z se conoce como la distribucin geomtrica de parmetro

    0,9.

    Si volvemos a la interpretacin de la variable a partir de la realizacin de un

    experimento con probabilidad p de tener xito y una probabilidad 1 p de te-

    Una variable aleatoria Z sigue una distribucin geomtrica de parme-

    tro p, p [0,1] escribiremos geom(p) si toma valores sobre todos los na-turales estrictamente positivos con funcin de masa de probabilidad:

    P(Z k) (1 p)k 1p

    donde k 1 natural.

    Observacin

    Los valores que puede tomar esta nueva variable aleatoria son los nmeros naturales des-de 1 (si nos conectamos al pri-mer intento) en adelante (sin lmite superior).

    CC

  • FUOC P08/75057/02305 32 Variables aleatorias

    ner un fracaso, ahora se trata de contar cuntas veces hemos repetido el expe-

    rimento hasta el primer xito.

    Para esta distribucin el clculo de la esperanza y la varianza es un poco ms

    complicado, as que slo daremos el resultado.

    Volviendo a la situacin de la conexin a Internet, podemos preguntarnos la

    probabilidad de que consigamos la conexin con cinco intentos como mxi-

    mo. Tenemos que calcular:

    P(Z 5) =

    que, utilizando la frmula para sumar series geomtricas, es:

    1 (0,1)5 = 0,99999

    Se trata de una probabilidad bastante elevada. Pero lo que nos interesa desta-

    car es que la respuesta a esta pregunta se obtiene fcilmente si conocemos la

    funcin de distribucin de la variable Z. Y es fcil calcularla! Si k es un nmero

    natural, partiendo de que sabemos sumar una serie geomtrica, tenemos:

    F(k) P(Z k) 1 (0,1)k

    Ejemplo del control de calidad

    Una de las situaciones ms habituales en las que podemos utilizar estas leyes es un pro-ceso de control de calidad. Imaginemos que tenemos una mquina que fabrica al da 100unidades de una determinada pieza A y sabemos que la probabilidad de que una piezasea defectuosa es de 0,05. Supongamos, adems, que lo que pasa en una pieza es inde-pendiente de las otras piezas.

    Si llamamos X al nmero de piezas defectuosas fabricadas durante un da, est claro quesigue una ley binomial de parmetros 100 y 0,05. Y podemos responder a preguntas deltipo siguiente:

    a) Probabilidad de que fabriquemos exactamente diez piezas defectuosas:

    P(X = 10) = (0,05)10(0,95)90

    Si Z es una variable aleatoria con ley geom(p), entonces y

    .

    Si Z es una variable aleatoria con ley geom(p), entonces su funcin de

    distribucin es F(k) = 1 (1 p)k, para los k > 1 naturales.

    Disparidad de experimentos

    Recordad que el concepto de experimento es muy amplio: puede incluir lanzar una mone-da al aire y mirar si sale cara, poner en marcha un coche y mirar si se pone en funciona-miento, etc.

    E Z 1p---=

    Var Z 1 pp2

    ------------=

    P Z i= i 1=

    5

    0,1 i 1 0,9i 1=

    5

    =

    P Z i= i 1=

    k

    0,1 i 1 0,9i 1=

    k

    =

    10010

  • FUOC P08/75057/02305 33 Variables aleatorias

    b) Probabilidad de que fabriquemos ms de una pieza defectuosa:

    P(X 1) 1 P(x 1) = 1 [P(x = 0) + P(X 1)] == 1 (0,05)0(0,95)100 (0,05)1(0,95)99

    = 1 (0,95)100 100(0,05)(0,95)99 0,9629c) Nmero esperado de piezas defectuosas fabricadas durante un da, que correspondera la esperanza:

    E(X) 100(0,05) 5Si llamamos Z a la variable que nos da el nmero de la primera pieza defectuosa, est cla-ro que seguir una distribucin geomtrica de parmetro 0,05. Tambin podemos res-ponder preguntas del tipo:

    a) Probabilidad de que antes de diez piezas salga alguna defectuosa:

    P(Z 10) P(Z 9) F(9) 1 (0,95)9 0,3698b) Cundo esperamos que salga la primera pieza defectuosa. En este caso corresponde ala esperanza, que ser:

    E(Z ) 20

    4. Distribucin de Poisson

    La ltima distribucin discreta que estudiaremos es la llamada distribucin de

    Poisson. Este tipo de distribucin se utiliza para modelar varias clases de situa-

    ciones, como el nmero de coches que pasan por un peaje durante una hora,

    el nmero de clientes que recibe una peluquera durante un da, el nmero de

    llamadas que pasan por una centralita durante una hora o el nmero de terre-

    motos que hay en un ao, etc.

    La distribucin de Poisson tiene la propiedad de que tanto la esperanza, como

    la varianza coinciden con el valor del parmetro.

    Ejemplo del peaje

    Sabemos que el nmero de coches que pasan durante un minuto por un determinadopeaje de la autopista sigue una distribucin de Poisson de parmetro 5. Llamamos X a la

    Una variable aleatoria X sigue una distribucin de Poisson de parmetro

    , > 0 escribiremos pois() si toma valores sobre todos los naturalescon funcin de masa de probabilidad:

    donde k 0.

    Si X es una variable aleatoria con ley pois(), entonces E(X) yVar(X)

    1000

    1001

    10,05------------

    Primeras utilizaciones de la Poisson

    Uno de los primeros ejemplos de la utilizacin de la distribu-cin de Poisson que recoge la literatura (siglo XIX) trataba del nmero de soldados prusia-nos muertos por una coz de ca-ballo.

    Observacin

    Fijaos en que para valores de k granos el valor de la probabili-dad P(X k) ser pequeo.

    P X k= kk!----- exp=

    Recordad exp () = e

  • FUOC P08/75057/02305 34 Variables aleatorias

    variable aleatoria que cuenta el nmero de vehculos que pasan por el peaje. Podemosresponder preguntas del tipo siguiente:

    a) Probabilidad de que pasen exactamente tres coches por el peaje durante un minuto:

    b) Probabilidad de que pase algn coche:

    P(X > 0) = 1 P(X = 0) = 1 exp(5) = 0,9933

    c) Nmero esperado de coches que pasan por el peaje durante un minuto:

    E(X) = 5

    La distribucin de Poisson se utiliza en ciertas condiciones como una aproxi-

    macin de la distribucin binomial. Se considera que si tenemos una variable

    aleatoria X con distribucin B(n, p) con n grande y p pequea, podemos

    aproximarla por una variable Y con distribucin de Poisson de parmetro np.

    Por ejemplo, fijado k > 0, en las condiciones anteriores, podemos aproximar

    la probabilidad de que una binomial de parmetros n y p tome el valor k:

    por la probabilidad correspondiente a la ley de Poisson de parmetro np, es decir:

    que es ms fcil de calcular.

    Observad que estamos aproximando una distribucin binomial, que slo pue-

    de tomar un nmero finito de valores, por una distribucin de Poisson, que

    toma valores sobre todos los naturales. Esto es posible porque las probabilida-

    des de la distribucin de Poisson para valores grandes son prcticamente nulas.

    Veamos algunos ejemplos de la funcin de masa de probabilidades:

    P X 3= 533!----- 5 exp 0,1404= =

    Condiciones para hacerla aproximacin

    Para poder hacer la aproxima-cin, en algunos libros dan la condicin p < 0,1 y np 5.

    n

    k

    pk 1 p n k

    np kk!

    ------------- np exp

  • FUOC P08/75057/02305 35 Variables aleatorias

    Ejemplo de los dos dados

    Lanzamos dos dados sesenta veces y llamamos X a la variable aleatoria que cuenta el n-mero de veces que han salido dos seises. Tal como hemos visto, X sigue una distribucin:

    B

    As, podemos calcular la probabilidad de que salgan exactamente dos seises quince veces,que ser:

    Este clculo no es fcil de hacer. En cambio, si utilizamos la aproximacin por la distri-bucin de Poisson, podemos aproximar la probabilidad anterior:

    que es ms fcil de calcular.

    5. Resumen

    Hemos presentado las distribuciones discretas ms habituales: la de Bernoulli,

    la binomial, la geomtrica y la de Poisson. Hemos aprendido a calcular proba-

    bilidades expresadas a partir de estas leyes y hemos visto cules son sus espe-

    ranzas y sus varianzas.

    60, 162-----

    P X 15= 6015 1

    62-----

    15

    1 162-----

    45

    =

    106

    ------ 15

    15!----------------- 10

    6------ exp

  • FUOC P08/75057/02305 36 Variables aleatorias

    Ejercicios

    1. En la carretera C969 hay una nica gasolinera. Los automviles que pasanpor delante deciden repostar con una probabilidad de 0,1. Sabemos que entre

    las 3 y las 4 de la tarde han pasado diez coches por la carretera.

    a) Cul es la probabilidad de que como mnimo hayan decidido poner gasolina

    ocho coches?

    b) Cuntos coches esperamos que se hayan detenido a repostar?

    Supongamos ahora que el nmero de coches que pasan entre las 4 y las 5 de

    la tarde por la carretera C-969 sigue una ley de Poisson de parmetro 10.

    c) Cul es la probabilidad de que no pase ningn coche?

    d) Cul es la probabilidad de que al menos pasen tres?

    e) Cuntos automviles esperamos que pasen?

    2. Por problemas de nuestro servidor de correo, sabemos que cada vez que re-

    cibimos un correo electrnico hay una probabilidad de 0,05 de que no poda-

    mos leerlo correctamente.

    a) Cul es la probabilidad de que no podamos leer correctamente el tercer men-

    saje?

    b) Cul es la probabilidad de que el tercer mensaje sea el primero que no po-

    damos leer correctamente?

    c) Cul es la probabilidad de que podamos leer correctamente ms de tres

    mensajes antes de que llegue alguno que no se lea bien?

    d) Qu mensaje esperamos que sea el primero que no podamos leer correc-

    tamente?

    Solucionario

    1. Llamamos X a la variable aleatoria que nos da el nmero de coches que se

    han detenido en la gasolinera entre las 3 y las 4. Segn el enunciado, est claro

    que la variable X sigue una distribucin B(10, 0,1).

    a) Entonces, dado que el acontecimiento {al menos ocho coches se detengan

    a repostar} es el suceso {X 8}, debemos calcular:

    =

    = (0,1)8(0,9)2 + (0,1)9(0,9)1 + (0,1)10(0,9)0 =

    = 45(0,1)8(0,9)2 + 10(0,1)9(0,9)1 + (0,1)10(0,9)0 0,0000003736

    Como veis, es muy pequea.

    P X 8 P X 8= P X 9= P X 10= + +=

    108

    109

    1010

  • FUOC P08/75057/02305 37 Variables aleatorias

    b) El nmero de coches que esperamos que se detengan a repostar es la esperanza

    de X. Puesto que conocemos la esperanza de una binomial, tenemos:

    E(X) 10(0,1) 1

    es decir, un coche.

    Ahora llamamos Y a la variable aleatoria que nos da el nmero de coches que

    se detienen en la gasolinera entre las 4 y las 5. Est claro que la variable Y sigue

    una distribucin pois(10).

    c) El suceso {no pase ningn coche} es el suceso {Y = 0}, de modo que debemos

    calcular:

    d) De forma anloga, calcularemos:

    =

    = =

    = 1 ([1 10 50]exp(10)) 0,9973

    e) El nmero de coches que esperamos que pasen vendr dado por la esperanza

    de Y. Puesto que conocemos la esperanza de una ley de Poisson, tenemos que:

    E(Y) 10

    es decir, diez coches.

    2.

    a) El tercer mensaje es como todos los otros y, por tanto, existe una probabi-

    lidad de 0,05 de que no podamos leerlo correctamente.

    Consideraremos ahora la variable aleatoria X que nos dar el nmero del pri-

    mer mensaje que no podemos leer correctamente. La variable X seguir una

    distribucin geom(0,05).

    b) El suceso {el tercer mensaje es el primero que no podemos leer correcta-

    mente} es el acontecimiento {X = 3}. Utilizando la funcin de masa de proba-

    bilidad de una ley geomtrica, tenemos:

    P(X 3) = (0,95)2 (0,05) 0,0451

    P Y 0= 1000!

    --------- 10 exp 10 0,000045exp= =

    P X 3 1 P Y 3 1 P Y 0= P Y 1= P Y 2= + + = =

    1 100

    0!--------- 10 101

    1!--------- 10 102

    2!--------- 10 exp+exp+exp

  • FUOC P08/75057/02305 38 Variables aleatorias

    c) Ahora debemos calcular:

    P(X 4) = 1 P(X 4) 1 P(X 3)

    Y utilizando la funcin de distribucin para una ley geomtrica, tendremos:

    P(X 4) = 1 [1(0,95)3] = (0,95)3 0,8574

    d) El nmero del primer mensaje que esperamos no poder leer correctamente

    corresponde a la esperanza de X, que ser:

    es decir, el vigsimo.

    E X 10,05------------ 20= =

  • FUOC P08/75057/02305 39 Variables aleatorias

    Variables aleatorias continuas

    A continuacin estudiaremos las distribuciones continuas. Hasta ahora hemos

    visto las distribuciones discretas que, recordmoslo, slo podan tomar un n-

    mero finito o numerable de valores.

    Hablando sin demasiado rigor, podemos decir que las variables aleatorias con-

    tinuas sern aquellas que pueden tomar cualquier valor en un intervalo de los

    reales. Podemos dar muchos ejemplos de ello:

    a) El peso de una persona adulta: podemos pensar que puede tomar cualquier

    peso entre 30 kg y 300 kg. Adems, si tenemos las herramientas de medida ne-

    cesarias, podemos dar el peso con tanta precisin como haga falta.

    b) La velocidad a la que va un coche determinado: en este caso podr coger

    cualquier velocidad entre 0 y 400 km/h.

    1. Funcin de densidad

    La herramienta bsica para el estudio de este tipo de distribuciones es la llama-

    da funcin de densidad. Para entenderla bien, primero la relacionaremos con los

    histogramas de densidades.

    Supongamos que queremos estudiar el tiempo de vida de un componente de-

    terminado de los PC. Observemos primero los tiempos de vida de una muestra

    de cien discos duros, despus de quinientos y finalmente, de diez mil. Represen-

    tamos los datos en los histogramas de densidades siguientes.

    Terminologa

    Nosotros hablamos de varia-bles aleatorias continuas, pero en muchos libros se deno-minan variables aleatoriasabsolutamente continuas.

    Tiempo de vida

    Cuando hablamos del tiempo de vida de un disco duro, nos referimos al tiempo que durar hasta que se estropee.

  • FUOC P08/75057/02305 40 Variables aleatorias

    Puesto que cada vez tomamos muestras de mayores dimensiones, podemos au-

    mentar el nmero de clases y coger intervalos de menor longitud, de manera

    que obtendremos los histogramas de densidad de probabilidad siguientes:

    Si cogemos cada vez muestras ms grandes y hacemos un histograma de den-

    sidades con un nmero ms elevado de clases, el perfil del histograma de den-

    sidades se acerca cada vez ms a la siguiente curva, que llamaremos curva de

    densidad de probabilidad:

  • FUOC P08/75057/02305 41 Variables aleatorias

    A partir de las propiedades del histograma es fcil comprobar que esta curva

    tambin satisface las condiciones siguientes:

    1) El rea total bajo la curva de densidad es 1.

    2) La probabilidad de que el tiempo de vida de un componente est entre dos

    valores a y b es el rea bajo la curva de densidad entre estos puntos.

    3) La funcin de densidad es siempre positiva.

    Podemos definir as la funcin de densidad.

    De la definicin es fcil deducir que, dada f una funcin de densidad, f verifica

    la propiedad siguiente:

    Ejemplos de funciones de densidad

    Aqu tenis algunos ejemplos de funciones de densidad. Es fcil comprobar que cumplenlas condiciones:

    En todos los casos es fcil comprobar que se trata de funciones positivas y que su integralvale 1.

    Ahora, si nos preguntan cul es la probabilidad de que nuestro disco duro haya

    tenido un tiempo de vida de exactamente tres aos (ni un segundo ms, ni un

    segundo menos), la respuesta deber ser cero. Puede parecer una paradoja. Lo

    que nos est diciendo es que, dado que la medida terica del tiempo puede ser

    tan precisa como queramos, la posibilidad de que un componente dure exac-

    tamente tres aos es prcticamente despreciable. Podramos pensar la proba-

    bilidad de que el tiempo de vida estuviese entre tres aos menos un segundo

    y tres aos ms un segundo. La probabilidad sera muy pequea. Y podemos

    La funcin de densidad de una variable aleatoria X continua es una

    funcin f(X) positiva tal que para todo :

    Signo de la funcin de densidad

    Observad que la funcin de densidad siempre debe serpositiva.

    a b

    P a X b f X xda

    b

    =

    Recordad que...

    ... el rea bajo una curva se poda calcular utilizando integrales.

    f X xd

    +

    1=

    f1 X 0, x 0exp x , x 0

    =

    f2 X x92--- , 5 x 6

    0, de otro modo

    =

    f3 X 2,32--- x 1

    0, de otro modo

    =

  • FUOC P08/75057/02305 42 Variables aleatorias

    hacerla todava ms pequea. Pensad en una centsima de segundo o una mi-

    llonsima, etc.

    A partir de la funcin de densidad podemos recuperar, para las variables con-

    tinuas, algunos conceptos que ya habamos visto para las variables discretas.

    2. Relacin entre las funciones de distribucin y de densidad.

    Clculo de probabilidades

    La definicin de funcin de distribucin es la misma que la que utilizamos

    para las variables discretas. Sin embargo, fijaos en que utilizando la funcin de

    densidad podemos calcular fcilmente sus valores.

    Las propiedades de la funcin de distribucin son las mismas que ya habamos

    comentado cuando estudiamos las variables discretas.

    Ya hemos visto cmo podemos obtener la funcin de distribucin a partir de

    la funcin de densidad. Tambin podemos hacer el proceso inverso, ya que si

    calculamos la funcin de distribucin integrando la funcin de densidad, po-

    demos obtener la funcin de densidad derivando la funcin de distribucin.

    Evidentemente, tanto la funcin de distribucin como la funcin de densidad

    caracterizan la ley de una variable aleatoria continua, ya que permiten calcular

    cualquier probabilidad que se pueda describir con la variable aleatoria X.

    Acabamos este apartado viendo cmo podemos calcular varias probabilidades a

    partir de la funcin de densidad. Tambin veremos cmo hacerlo con la funcin

    de distribucin utilizando la relacin que conocemos entre las dos funciones.

    En una variable aleatoria continua X, la probabilidad de que X x essiempre cero, para cualquier x. Por este motivo, en este tipo de variables

    slo tiene sentido hablar de la probabilidad de que la X pertenezca a

    cierto intervalo.

    Dado x real, podemos calcular la funcin de distribucin en este punto

    como:

    Si F es la funcin de distribucin de una variable aleatoria y F es una fun-

    cin derivable, entonces F es la funcin de distribucin de una variable

    continua con densidad F.

    Si X es una variable aleatoria continua, entonces:

    P(X x) 0, para todo x.

    Recordatorio

    La funcin de distribucin se define como:

    y arranca siempre desde ceroy llega hasta uno. Adems, es siempre una funcin creciente.

    F X P X x =F x f y yd

    x

    =

    Por las variables discretas...

    ... no se puede derivar la fun-cin de distribucin. Este tipo de variables no tiene asociada una funcin de densidad.

  • FUOC P08/75057/02305 43 Variables aleatorias

    1) Clculo P(X a).

    Observad que la probabilidad corresponde al rea ms oscura. En trminos de

    la funcin de densidad o de la funcin de distribucin, tendremos:

    Adems, puesto que la probabilidad de que la variable tome un valor concreto

    es cero, tenemos:

    P(X a) = P(X < a)

    2) Clculo P(b X).

    Ahora, en trminos de la funcin de densidad:

    Adems:

    Y como antes:

    P(b < X) = P(b X)

    3) Clculo de P(a < X b).

    Fijaos en que, utilizando:

    tenemos:

    Adems, tenemos:

    P(a < X b) = P(a < X < b) = P(a X b) = P(a X < b)

    P X a F a f x xd

    a

    = =

    A veces no es fcil o no es posible calcular una integral.

    P b X f x xdb

    =

    P b X 1 P X b 1 f x xd

    b

    1 F b = = =

    a X b X a X b =

    P a X b P X b P X a F b F a f x xda

    b

    = = =

  • FUOC P08/75057/02305 44 Variables aleatorias

    Ejemplo del tiempo de procesamiento

    El tiempo que tarda (en minutos) nuestro ordenador en procesar una determinada can-tidad de datos sigue una variable aleatoria con funcin de densidad:

    Llamamos X a esta variable aleatoria. Entonces, utilizando la funcin de densidad, pode-mos calcular la probabilidad de toda una serie de acontecimientos:

    a) Probabilidad de que tarde como mucho cinco minutos.b) Probabilidad de que tarde ms de ocho minutos y menos de diez.c) Probabilidad de que tarde como mnimo ocho minutos.d) Probabilidad de que tarde ms de cuatro minutos y menos de diez si sabemos que comomnimo tarda ocho.

    a)

    b)

    c)

    d)

    Fijaos en que hay algunos acontecimientos que tienen claramente probabilidad cero, co-mo: probabilidad de que tarde como mucho menos cuatro minutos (fijaos en que no tie-ne sentido) o la probabilidad de que tarde exactamente diez minutos.Tambin podemos hacer los clculos anteriores utilizando la funcin de distribucin.Calculmosla:

    si y F(x) 0 si .Observad que si derivamos la funcin de distribucin, recuperamos la funcin de densidad.

    Ahora damos las respuestas utilizando la funcin de distribucin:

    a)b)c)d)

    3. Independencia

    El concepto de independencia se extiende tambin a las variables continuas.

    Aunque la idea es la misma que para las variables discretas, debemos dar otra

    f x exp x 2 , x 20 x 2

    =

    P X 5 exp x 2 xd2

    5

    exp 2 exp x xd2

    5

    = = =exp 2 exp x 25 exp 2 exp 5 exp 2 + 1 exp 3 = = =

    P 8 X 10 exp x 2 xd8

    10

    exp 2 exp x xd8

    10

    = = =exp 2 exp x 810 exp 2 exp 10 exp 8 + exp 6 exp 8 = = =

    P X 8 exp x 2 xd8

    exp 2 exp x xd8

    = = =exp 2 exp x 8 exp 2 exp 8 exp 6 = = =

    P 4 X 10 X 8 P 8 X 10 P X 8 ------------------------------------

    exp 6 exp 8 exp 6 --------------------------------------------------= = =

    1 exp 2 =

    ( ( 2)) 2 2 2

    22 2 2 2

    2 2 2 2 2 2 2 2 2

    2

    ( 2)

    ( ) ( ) exp( ( 2))

    1

    1

    x x x x xxy y y y

    xy x x x x

    x

    F x f y dy y dy e dy e e dy e e dy e e

    e e e e e e e e e e e e e

    e

    x 2 x 2

    P X 4 F 4 0= =P X 5 F 5 1 exp 3 = =P 8 X 10 P X 10 P X 8 F 10 F 8 exp 6 exp 8 = = =P X 8 1 P X 8 1 P X 8 exp 6 = = =

  • FUOC P08/75057/02305 45 Variables aleatorias

    caracterizacin, ya que ahora la condicin P(X x,Y y) P(X x)P(Y y) notiene sentido.

    Esta caracterizacin es equivalente a la que vimos para las variables aleatorias

    discretas. En todo caso, el estudio detallado de la independencia para este tipo

    de variable supera los objetivos de este curso.

    4. Esperanza y varianza

    La esperanza y la varianza se pueden calcular tambin utilizando la funcin de

    densidad.

    Recordemos que para calcular la funcin de distribucin para una variable

    aleatoria discreta X, tenamos que calcular el sumatorio:

    mientras que en el caso continuo debemos calcular una integral de la funcin

    de densidad del tipo:

    As, siempre que pasemos a trabajar con variables aleatorias absolutamente

    continuas, lo que tenemos que hacer es convertir los sumatorios en integrales.

    Para las variables discretas, podamos calcular la esperanza y la varianza:

    Las definiciones para el caso continuo son las siguientes:

    Las variables aleatorias continuas X e Y son independientes si:

    P(X x,Y y) = P(X x)P(Y y)

    para todo posible par de valores x e y.

    La esperanza de una variable aleatoria continua X, que denotaremos

    por E(X), se define como:

    F x P X y= y x=

    F x f y yd

    x

    =Para pasar de variables discretas a continuas...

    ... deberemos convertir los su-matorios en integrales.

    E X xP X x= x=

    Var X x E X 2P X x= x=

    E X xf x xd

    =

  • FUOC P08/75057/02305 46 Variables aleatorias

    Las propiedades de la esperanza y la varianza y la desigualdad de Tchebichev

    que vimos para variables discretas en la sesin Esperanza y varianza (aparta-

    dos 2, 3 y 4) continan siendo ciertas.

    Ejemplo del tiempo de procesamiento

    Volvamos al ejemplo del tiempo de procesamiento. Queremos calcular ahora el tiempoque esperamos que tarde el proceso. Por tanto, tendremos que calcular la esperanza de lavariable X. Si utilizamos la frmula y hacemos integracin por partes, tendremos:

    Por tanto, esperamos que tarde tres minutos.

    Consideremos ahora una variable con funcin de densidad:

    Queremos calcular la esperanza y la varianza de esta variable que llamaremos X:

    y puesto que:

    tenemos:

    5. Resumen

    En esta sesin hemos aprendido el concepto de variable aleatoria continua.

    Hemos estudiado la funcin de densidad y hemos extendido a esta clase de va-

    riables los conceptos de funcin de distribucin, independencia, esperanza y

    varianza que habamos estudiado para las variables discretas.

    La varianza de una variable aleatoria continua X, que denotaremos por

    Var(X), se define como:

    Var X x E X 2f x xd

    =

    Recordatorio

    La varianza se poda calcular como:

    E(X2) (E(X))2

    E X x exp x 2 xd2

    exp 2 x exp x xd2

    = = =

    exp 2 x exp x 2 exp x xd2

    +

    = =

    exp 2 2exp 2 exp 2 + 3= =

    xx2--- , 0 x 2 0 de otro modo

    =

    E X xx2--- xd

    0

    2

    12--- x33----- 02 4

    3---= = =

    E X2 x2 x2--- xd

    0

    2

    12--- x44----- 02

    2= = =

    Var X E X2 E X 2 2 169

    ------ 29---= = =

  • FUOC P08/75057/02305 47 Variables aleatorias

    Ejercicios

    1.

    Sea X una variable aleatoria continua con funcin de densidad , si

    .

    a) Comprobad que es una funcin de densidad.

    b) Calculad la funcin de distribucin.

    c) Calculad: P(X > 2) y P(X 5).d) Calculad la esperanza y la varianza de X.

    2.

    Sea X una variable aleatoria continua con funcin de distribucin:

    a) Calculad la funcin de densidad.

    b) Calculad: P(X < 2), P(2 < X 3), P(X < 5) y P(X > 5).c) Calculad la esperanza y la varianza de X.

    Solucionario

    1.

    a) Claramente se trata de una funcin de densidad, ya que es una funcin po-

    sitiva, y

    b) Para calcular su funcin de distribucin, para debemos hacer la in-

    tegral:

    Por tanto, la funcin de distribucin es:

    c) La probabilidad P(X 5) es cero.

    f x 19---x2=

    0 x 3

    F x 0, x 1x 1 2

    9-------------------, 1 x 41 4 x

    =

    f x xd

    +

    19---x2 xd0

    3

    x327------ 03

    1= = =

    x 0 3( , )

    19---y

    2yd

    0

    x

    y327------ 0x x3

    27------= =

    F x 0, x 0x3

    27------, 0 x 31 3 x

    =

  • FUOC P08/75057/02305 48 Variables aleatorias

    La otra se puede calcular utilizando la funcin de densidad:

    o la funcin de distribucin:

    d) Primero calculamos la esperanza:

    Y puesto que:

    tenemos:

    2.

    a) Para obtener la funcin de densidad, debemos derivar la funcin de distri-

    bucin. Fijaos en que la derivada de la funcin:

    es:

    Por tanto, la funcin de densidad es:

    Como antes, es fcil comprobar que se trata de una funcin de densidad.

    P X 2 f x xd2

    +

    19---x2 xd2

    3

    x327------ 23

    1 827------ 19

    27------= = = = =

    P X 2 1 P X 2 1 F 2 1 827------ 19

    27------= = = =

    E X xx2

    9----- xd

    0

    3

    19--- x4

    4-----

    0

    3 94---= = =

    E X2 x2x2

    9----- xd

    0

    3

    19--- x5

    5-----

    0

    3 275

    ------= = =

    Var X E X2 E X 2 275

    ------ 8116------ 432 405

    80-------------------------- 27

    80------= = = =

    x 1 29

    -------------------

    2 x 1 9

    ---------------------

    x2 x 1

    9---------------------, 1 x 40 de otro modo

    =

  • FUOC P08/75057/02305 49 Variables aleatorias

    b) La probabilidad es claramente cero.

    La probabilidad es claramente uno.

    La probabilidad se puede calcular utilizando la funcin de densidad:

    o la funcin de distribucin:

    La probabilidad tambin se puede calcular utilizando la funcin

    de densidad:

    o la funcin de distribucin:

    c) Una vez conocida la funcin de densidad de probabilidad, calculamos la

    esperanza y la varianza de X siguiendo el mismo procedimiento que en el ejer-

    cicio 1:

    Y puesto que:

    P X 5 P X 5 P X 2

    P X 2 f x xd

    2

    2 x 1 9--------------------- xd1

    2

    x 1 29------------------- 12 1

    9--- 0 1

    9---= = = = =

    P X 2 P X 2 F 2 19---= = =

    P 2 X 3

    P 2 X 3 f x xd2

    3

    2 x 1 9--------------------- xd2

    3

    x 1 29------------------- 23 4

    9--- 1

    9--- 1

    3---= = = = =

    P 2 X 3 P X 3 P X 2 F 3 F 2 49--- 1

    9--- 1

    3---= = = =

    E X x 2 x 1 9

    ---------------------- xd 227------x3 1

    9---x2

    1

    4

    3==1

    4=

    E X2 x2 2 x 1 9

    --------------------- xd 118------x4 2

    27------x3

    1

    4

    192

    ------==1

    4

    =

    Var X E X2 E X 2 192

    ------ 9 12---===

  • FUOC P08/75057/02305 50 Variables aleatorias

    Algunas leyes continuas. La ley normal

    Ahora estudiaremos algunas distribuciones continuas. La ley continua ms

    importante y que aparece constantemente en diferentes contextos es la llama-

    da ley normal. En esta sesin la presentaremos y la estudiaremos a fondo. Sin

    embargo, comencemos por el estudio de otras distribuciones importantes, como

    la distribucin uniforme y la distribucin exponencial.

    1. Distribucin uniforme

    Comencemos con un ejemplo sencillo. Imaginad que tenemos una especie

    de ruleta y la hacemos girar alrededor de su eje. Despus medimos el ngulo

    que hemos recorrido.

    Suponemos que al hacer girar nuestra ruleta, sta puede detenerse en cual-

    quier punto de la circunferencia y que no hay puntos en los que tenga ms

    tendencia a parar. Si llamamos X a la variable que nos da el ngulo, tendremos

    que tomar valores entre 0 y 2. Segn nuestras hiptesis, si nos preguntancul es la probabilidad de que el ngulo est entre cero y , tenemos:

    ya que el ngulo que hemos pedido corresponde a una cuarta parte de los n-

    gulos posibles y hemos supuesto que la probabilidad est distribuida de una

    manera uniforme.

    Tenemos as un primer ejemplo de una distribucin uniforme, en este caso en

    el intervalo (0,2).

    Sin embargo, es habitual tomar una variable uniforme con valores entre 0 y 1.

    Puesto que la probabilidad de cualquier nmero debe ser la misma, la funcin

    de densidad deber ser constante. Imponiendo que la integral de la funcin de

    densidad valga 1, obtenemos que la funcin de densidad ha de ser constante a 1.

    2---

    Como ya sabis,...

    ... el ngulo puede tomar un valor entre 0 y 2.

    P 0 X 2---

    14---=

  • FUOC P08/75057/02305 51 Variables aleatorias

    En general, podemos definir una distribucin uniforme en un intervalo (a,b). Si-

    guiendo el mismo razonamiento anterior, podemos obtener ahora su funcin

    de densidad.

    La funcin de densidad presenta la forma siguiente.

    Como ya hemos visto en la sesin anterior, a partir de la funcin de densidad

    podemos calcular las probabilidades que queramos, la funcin de distribucin,

    la esperanza y la varianza. Veamos estos clculos para la distribucin uniforme.

    Consideremos X una variable aleatoria con distribucin uniforme (0,1).

    Calculemos primero la probabilidad de que X tome valores entre 0,4 y 0,6 uti-

    lizando la funcin de densidad:

    Fijaos en que la probabilidad depende slo del ancho del intervalo. As, esta pro-

    babilidad ser la misma que la probabilidad de obtener un valor entre 0,1 y 0,3.

    La funcin de distribucin es:

    La funcin de densidad de la distribucin uniforme (0,1) es:

    La funcin de densidad de la distribucin uniforme (a,b) es:

    f x 1, 0 x 1 0 de otro modo

    =

    f x 1

    b a------------, a x b 0 de otro modo

    =

    P 0,4 X 0,6 1 xd0,4

    0,6

    0,6 0,4 0,2= = =

    F x 1 yd0

    x

    x= =

  • FUOC P08/75057/02305 52 Variables aleatorias

    As, podemos calcular la probabilidad anterior utilizando la funcin de distri-

    bucin:

    Finalmente, mediante integrales, obtenemos la media y la varianza de la dis-

    tribucin:

    Con clculos similares podemos obtener la funcin de distribucin, la espe-

    ranza y la varianza de una uniforme (a,b). Por ejemplo, la funcin de distribu-

    cin ser:

    si a x b. Podemos calcular tambin la esperanza:

    mientras que el clculo de la varianza se hace de manera parecida.

    2. Distribucin exponencial

    Una distribucin continua muy importante es la llamada distribucin exponencial.

    En muchas ocasiones est relacionada con la distribucin de Poisson que vi-

    mos hace dos sesiones. Recordemos que la distribucin de Poisson se utiliza

    para modelar el nmero de sucesos que se dan en una unidad de tiempo. Por

    Si X es una variable aleatoria con distribucin uniforme, entonces su

    funcin de distribucin es:

    Adems, y

    P 0,4 X 0,6 F 0,6 F 0,4 0,6 0,4 0,2= = =

    E X x xd0

    1

    12---x2 01 1

    2---= = =

    Var X E X 0,5 2 x 0,5 2 xd0

    1

    13--- x 0,5 3 01 112------= = = =

    F x 1b a------------ yd

    a

    x

    x ab a------------= =

    E x x 1b a------------ xd

    a

    b

    12 b a ---------------------x2 ab b2 a2

    2 b a ---------------------12--- b a+ = = = =

    F x 0, x ax ab a------------, a x b1, b x

    =

    E X 12--- b a+ = Var X 1

    12------- b a 2=

  • FUOC P08/75057/02305 53 Variables aleatorias

    ejemplo, considerbamos que podamos modelar con una Poisson el nmero

    de peticiones que recibe un servidor de Internet durante una hora o el nmero

    de clientes que entran en una oficina de una caja de ahorros durante un da.

    En estas circunstancias, la distribucin exponencial sirve para determinar la

    distribucin de probabilidad del tiempo entre dos sucesos consecutivos. Por

    ejemplo, en el caso del servidor de Internet comentado antes, utilizaremos la

    distribucin exponencial para modelar el tiempo entre dos peticiones. Como

    en el caso de la Poisson, la distribucin exponencial depender tambin de un

    parmetro que llamaremos .

    Existe otra situacin en la que aparece a menudo la distribucin exponencial.

    En la sesin anterior hemos estudiado los tiempos de vida del disco duro de

    los PC. A fuerza de ir recogiendo cada vez ms datos, llegbamos a ver que el

    perfil del histograma de frecuencias tena la forma siguiente:

    Para modelizar los tiempos de vida, tambin se utiliza la distribucin expo-

    nencial. Fijaos en que, en una distribucin exponencial, cuanto ms tiempo

    pasa, menos probable es que se d el suceso.

    Calculemos ahora la funcin de distribucin, la esperanza y la varianza. La

    funcin de distribucin ser sta:

    si . Calculemos tambin la esperanza, en la que tendremos que hacer una

    integral por partes:

    La funcin de densidad de la distribucin exponencial de parmetro es:

    Consideremos el peaje de una autopista

    Hemos visto que el nmero de coches que pasan por el peaje durante un minuto se puede representar con una variable aleatoria Poisson. En cambio, utilizamos una exponencial para modelar el tiempo que pasa entre el primer y el segundo coche (y entre el se-gundo y el tercero, y entreel tercero y el cuarto y etc.).

    f x 0, x 0e x , 0 x

    =

    F x e y yd0

    x

    e y 0x 1 e x= = =0 x

    Valores de la variable

    Esta distribucin permite que la variable tome cualquier valor positivo. En realidad, en la prctica habr un valor de ma-nera que la probabilidad de que la variable sea mayor ser despreciable.E X xe x xd

    0

    xe x 0 e x xd0

    + 1---e x 0 1---= = = =

  • FUOC P08/750