distribucion de probabilidades

45
Variable Alectroria Introducción Normalmente, los resultados posibles (espacio muestral E ) de un experimento aleatorio no son valores numéricos. Por ejemplo, si el experimento consiste en lanzar de modo ordenado tres monedas al aire, para observar el número de caras ( ) y cruces ( ) que se obtienen, el espacio muestral asociado a dicho experimento aleatorio sería: En estadística resulta más fácil utilizar valores numéricos en lugar de trabajar directamente con los elementos de un espacio muestral como el anterior. Así preferimos identificar los sucesos con el valor numérico 1 que representa el número de caras obtenidas al realizar el experimento. De este modo aparece el concepto de variable aleatoria unidimensional como el de toda función que atribuye un único número real x e , a cada suceso elemental e, del espacio muestral E 5.1 . Por ejemplo, en el ejemplo anterior, se define la variable aleatoria 5.2 del siguiente modo:

Upload: angel-cordero

Post on 18-Feb-2016

213 views

Category:

Documents


0 download

DESCRIPTION

Distribucion de Probabilidades, Poisson

TRANSCRIPT

Page 1: Distribucion de Probabilidades

Variable Alectroria

Introducción

Normalmente, los resultados posibles (espacio muestral E) de un experimento aleatorio no son valores numéricos. Por ejemplo, si el experimento consiste en lanzar de modo ordenado tres monedas al aire, para observar el número de caras ( ) y cruces ( ) que se obtienen, el espacio muestral asociado a dicho experimento aleatorio sería:

En estadística resulta más fácil utilizar valores numéricos en lugar de trabajar directamente con los elementos de un espacio muestral como el anterior. Así preferimos identificar los

sucesos   con el valor numérico 1 que representa el número de caras obtenidas al realizar el experimento. De este modo aparece el concepto de variable aleatoria unidimensional como el de toda función

que atribuye un único número real xe, a cada suceso elemental e, del espacio muestral E5.1.

Por ejemplo, en el ejemplo anterior, se define la variable aleatoria5.2

del siguiente modo: 

Observación

Page 2: Distribucion de Probabilidades

La variable X no recibe el calificativo de aleatoria por el hecho de que atribuya de

modo imprevisible un valor cualquiera a un elemento   ya que este valor está definido de forma precisa (determinística). Lo que es aleatorio en realidad, es que al hacer el experimento, no sabemos qué elemento de E puede ocurrir.

=1.00mm 

 

La composición de una función real5.3 con una variable es también variable aleatoria, pues está definida sobre Ey a cada elemento suyo le asocia un valor real.

En función de los valores que tome la variable, esta puede ser clasificada en discreta o continua del siguiente modo:

v.a. discreta:Es aquella que sólo puede tomar un número finito o infinito numerable de valores. Por ejemplo,

v.a. continua:Es la que puede tomar un número infinito no numerable de valores.

Observación

Si sobre los elementos de E existe una distribución de probabilidad, esta se transmite a los valores que toma la variable X. Es decir, toda v.a. conserva la estructura probabilística del experimento aleatorio que describe, en el sentido de que si   es la función de probabilidad definida sobre el espacio muestral E, ésta induce otra función   definida sobre  , de forma que conserva los valores de las probabilidades (figura 5.1):

Figura: Una v.a. transmite la estructura probabilística 

Page 3: Distribucion de Probabilidades

del espacio muestral a  .

De ahora en adelante omitiremos el asterisco y no diferenciaremos entre las probabilidades calculadas sobre el espacio muestral del experimento aleatorio original, E, y las calculadas sobre  .

Vamos a estudiar los conceptos más importantes relacionados con la distribución de probabilidad de una v.a., diferenciando entre los casos de v.a. discreta y v.a. continua.

Variables aleatorias discretas

Dada una v.a. discreta  , su función de probabilidad f, se define de modo que f(xi) es la probabilidad de que X tome ese valor:

Si xi no es uno de los valores que puede tomar X, entonces f(xi)=0. La representación gráfica de la función de probabilidad se realiza mediante un diagrama de barras análogo al de distribución de frecuencias relativas para variables discretas (figura 5.3). Por ejemplo, si retomamos el caso del lanzamiento de 3 monedas de forma que cada una de ellas tenga probabilidad 1/2 de dar como resultado cara o cruz, se tiene que (véase la figura 5.2):

Page 4: Distribucion de Probabilidades

 

Figura: Equivalencia entre las probabilidades calculadas directamente sobre el espacio 

muestral E de resultados del experimento aleatorio, y las calculadas sobre el 

subconjunto   mediante la v.a. X.

Observación

Obsérvese que X está definido sobre el espacio muestral de sucesos E, mientras que f lo está sobre el espacio de números reales  .

Las propiedades de la función de probabilidad de v.a. se deducen de forma inmediata de los axiomas de probabilidad: 

   

Page 5: Distribucion de Probabilidades

Es evidente que si tenemos tres constantes a<b<c, los sucesos   

y   son mutuamente exclusivos, es decir,  ,

luego  . Por ello, si se define , se tiene que

Otro concepto importante es el de función de distribución de una variable aleatoria

discreta, F, que se define de modo que si  , F(xi) es igual a la probabilidad de que X tome un valor inferior o igual a xi:

Esta función se representa gráficamente del mismo modo que la distribución de frecuencias relativas acumuladas (figura 5.3). Volviendo al ejemplo de las tres monedas, se tiene que

Hay que observar que a valores no admisibles por la variable les pueden corresponder valores de F no nulos. Por ejemplo,

Figura: Función de probabilidad a la izquierda, y función de distribución a la derecha de una v.a. discreta

Page 6: Distribucion de Probabilidades

Es sencillo comprobar que las siguientes propiedades de la función de distribución son ciertas:

Proposición (Distribuciones discretas)

La función de distribución F, es una función no decreciente, es decir,

Además, es continua a la derecha

y

Variables aleatorias continuas

Si una variable discreta toma los valores x1, ..., xk, la proposición de la página   afirma que las probabilidad de que al hacer un experimento, X tome uno de esos valores es 1, de modo que cada posible valor xi contribuye con una cantidad f(xi) al total:

Page 7: Distribucion de Probabilidades

Aun cuando la variable tomase un número infinito de valores, x1, x2, ..., no hay ningún problema en comprobar que cada xi contribuye con una cantidad f(xi) al total de modo que

Cuando la variable es continua, no tiene sentido hacer una suma de las probabilidades de cada uno de los términos en el sentido anterior, ya que el conjunto de valores que puede tomar la variable es no numerable. En este caso, lo que generaliza de modo natural el

concepto de suma ( ) es el de integral ( ). Por otro lado, para variables continuas no

tiene interés hablar de la probabilidad de que  , ya que esta debe de valer siempre 0, para que la suma infinita no numerable de las probabilidades de todos los valores de la variable no sea infinita.

De este modo es necesario introducir un nuevo concepto que sustituya en v.a. continuas, al de función de probabilidad de una v.a. discreta. Este concepto es el de función de

densidad de una v.a. continua, que se define como una función   integrable, que verifica las dos propiedades siguientes:

 y que además verifica que dado a<b, se tiene que

 Figura: Función de densidad f. La probabilidad de un intervalo, es el área que existe entre 

la función y el eje de abscisas.

Page 8: Distribucion de Probabilidades

Observación

Por ser f una función integrable, la probabilidad de un punto es nula:

y por ello al calcular la probabilidad de un intervalo no afectara nada el que este sea abierto o cerrado por cualquiera de sus extremos, pues estos son puntos y por tanto de probabilidad nula:

La función de distribución de la v.a. continua, F, se define de modo que dado  , F(x) es la probabilidad de que X sea menor o igual que x, es decir

   

Page 9: Distribucion de Probabilidades

Figura: Función de distribución F, calculada a partir de la función de densidad f.

Observación

Dado un intervalo de la forma (a,b], tenemos que

 Es decir, la cantidad F(b) - F(a) representa la masa de probabilidad extendida a lo largo de dicho intervalo. Si dividimos esta cantidad por la longitud del intervalo,

tenemos la masa media de probabilidad por unidad de longitud en (a,b], es decir, su densidad media de probabilidad. Si hacemos tender a hacia b,  , la cantidad

es la densidad de probabilidad del punto b (que como hemos mencionado no se ha de confundir con la probabilidad de b).

Proposición

Distribuciones continuas La función de distribución F, es no decreciente

Page 10: Distribucion de Probabilidades

Además, es una función absolutamente continua que verifica:

Demostración

Los sucesos

Y

son mutuamente exclusivos, siendo su unión el suceso  . Por tanto

El resto es evidente pues por la relación (5.1)

y por otro lado

Medidas de tendencia central y dispersión de v.a.

De forma análoga a lo que se se hizo en el capítulo 2 sobre estadística descriptiva podemos definir para variables aleatorias medidas de centralización, dispersión, simetría y forma. Por su interés nos vamos a centrar en dos medidas sobre v.a. que son la esperanza matemática que desempeña un papel equivalente al de la media y el momento central de segundo orden, también denominado varianza.

Page 11: Distribucion de Probabilidades

Observación

Recordamos que si

y por tanto tiene sentido calcular su esperanza matemática:

Por las analogías existente entre la definición de media aritmética y esperanza matemática, las propiedades de linealidad de la primera se trasladan a la segunda, como es inmediato comprobar:

   

Varianza

La varianza la denotamos mediante   o bien  :

Obsérvese que del mismo modo en que se demuestra la relación 2.11 se comprueba

que   y que usando la demostración de la proposición de la página   se tiene que

   

Ejemplo

Consideramos una variable aleatoria discreta con función de probabilidad: 

Page 12: Distribucion de Probabilidades

Obtener:

1. El valor de la constante c para que sea una función de probabilidad.

2. Los valores de las funciones de probabilidad y distribución para 

3. Calcular    y  .

Solución:

1.

ya que tenemos la suma de una progresión geométrica de razón menor que la unidad:

Luego c=3. Así la función de probabilidad es:

2. Calculemos sucesivos valores de f(x) y F(x):

xi f(x) F(x)

2 3/4=0,75 0,75

3 3/16=0,19 0,94

4 3/64=0,047 0,987

5 3/256=0,012 0,999

Page 13: Distribucion de Probabilidades

Se observa que cuando  ,   y 

3.

Ejemplo

Consideremos una variable aleatoria continua con función de densidad 

Se pide:

1.El valor de la constante c para que sea una función de densidad.

2. La función de distribución.

3. La media o valor esperado.

4. Probabilidad de que la variable este comprendida entre 0,2 y 0,7

Solución:

1.      

Por ser f una densidad se ha de verificar:

2.  

Page 14: Distribucion de Probabilidades

Luego, la función de distinción es

3. Media :

4.    

Ejemplo

La variable aleatoria continua X tiene como función de densidad:

Determinar:

1. Media

2. Varianza

Page 15: Distribucion de Probabilidades

3.

Solución:

1.

2. . El momento central de primer orden con respecto al origen   ya

ha sido calculado antes. El momento central de segundo orden con respecto al origen,   es:

Luego

3.Hay que calcular la probabilidad del intervalo de la Figura 5.6:

Figura: La probabilidad del intervalo 0,2--0,8 es el área de la zona sombreada

Page 16: Distribucion de Probabilidades

a esperanza matemática y la varianza pueden ser calculadas a partir de otras medidas, que son los momentos.

5.8.6 Momentos de una v.a.

Se denomina momento de orden r (  ),  , a:

Asimismo se denomina momento central de orden r, mr, a:

De este modo, es claro que la esperanza matemática es el momento de primer orden

y que la varianza es el momento central de segundo orden

Page 17: Distribucion de Probabilidades

Desigualdad de Tchebycheff y v.a. tipificadas

Si X es una variable aleatoria con esperanza  , y varianza  , se puede demostrar que en general, una gran parte de la masa se encuentra en un intervalo

centrado en   y que tiene por amplitud varias veces  . Más precisamente, la desigualdad

de Thebycheff afirma que si consideramos un intervalo de centro   y radio k veces  , la probabilidad de realizar una observación de la variable y que esta no esté en dicho intervalo es inferior o igual a 1/k2. Matemáticamente esto se formula como:

   Teorema (Thebycheff)

Si X es v.a. con   y  , entonces

 

Este importante resultado, por si sólo, justifica el que   sea una medida de centralización y   (o bien  ) de dispersión de X y motiva la introducción del concepto de tipificación de variables aleatorias. Dada una v.a.X, definimos su v.a. tipificada, Z, como:

que es una v.a. tal que

El teorema de Thebycheff afirma sobre U que

Función característica

Para una v.a. X se define su función característica como:

Page 18: Distribucion de Probabilidades

donde recordamos que  . Esta función también es conocida como transformada de Fourier de f. Su denominación proviene del hecho de que una vez conocida la función característica podemos determinar la función de distribución de la v.a. y recíprocamente.

 Teorema (Fourier)

Si X es una v.a. cuya función característica es  , su función de probabilidad (o densidad

de probabilidad) es   

Esta propiedad de   es fundamental, ya que en una gran cantidad de casos es mucho más fácil trabajar con la función característica que con la propia función de probabilidad (o densidad). La razón de ello estriba en una serie de propiedades de la función característica que la hacen muy manejable desde el punto de vista matemático. Algunas de estas propiedades son enunciadas a continuación.

Proposición

Para   se verifican las relaciones

Demostración

Vamos a suponer que X es continua, pues la demostración para el caso discreto es totalmente análoga. Gracias a la relación (5.1), se tiene que

Page 19: Distribucion de Probabilidades

Por otro lado, es claro que  . De la teoría de la integración

es conocido que  . Por todo ello se tiene que si 

Por último 

En lo referente a cambios de origen y escala, el comportamiento de la función característica es el siguiente:

 Proposición

Demostración

Una propiedad de   que es muy usada es que la suma de v.a. independientes tiene por función característica el producto de las respectivas funciones características. Es decir:

   Teorema

Sean X e Y v.a. independientes. Entonces

Este resultado es también cierto para el caso de n v.a. independientes.

Page 20: Distribucion de Probabilidades

La última propiedad de   que enunciamos es que al igual que la función generatriz de momentos, esta nos permite calcular los momentos de la variable (y por tanto su esperanza y su varianza).

Proposición

Demostración

Variable bidimensional

En lo estudiado anteriormente hemos podido aprender cómo a partir de la gran cantidad de datos que describen una muestra mediante una variable, X, se representan gráficamente los mismos de modo que resulta más intuitivo hacerse una idea de como se distribuyen las observaciones.

Otros conceptos que según hemos visto, también nos ayudan en el análisis, son los estadísticos de tendencia central, que nos indican hacia donde tienden a agruparse los datos (en el caso en que lo hagan), y los estadísticos de dispersión, que nos indican si las diferentes modalidades que presenta la variable están muy agrupadas alrededor de cierto valor central, o si por el contrario las variaciones que presentan las modalidades con respecto al valor central son grandes.

También sabemos determinar ya si los datos se distribuyen de forma simétrica a un lado y a otro de un valor central.

En este capítulo pretendemos estudiar una situación muy usual y por tanto de gran interés en la práctica:

Si Y es otra variable definida sobre la misma población que X, ¿será posible determinar si existe alguna relación entre las modalidades de X y de Y?

Un ejemplo trivial consiste en considerar una población formada por alumnos de primero de Medicina y definir sobre ella las variables

Page 21: Distribucion de Probabilidades

ya que la relación es determinista y clara: Y=X/100. Obsérvese que aunque la variable Y, como tal puede tener cierta dispersión, vista como función de X, su dispersión es nula.

Un ejemplo más parecido a lo que nos interesa realmente lo tenemos cuando sobre la misma población definimos las variables

Intuitivamente esperamos que exista cierta relación entre ambas variables, por ejemplo,

Dispersión que nos expresa que (en media) a mayor altura se espera mayor peso. La relación no es exacta y por ello será necesario introducir algún termino que exprese la dispersión de Ycon respecto a la variable X.

Es fundamental de cara a realizar un trabajo de investigación experimental, conocer muy bien las técnicas de estudio de variables bidimensionales (y n-dimensionales en general). Baste para ello pensar que normalmente las relaciones entre las variables no son tan evidentes como se mencionó arriba. Por ejemplo:

¿Se puede decir que en un grupo de personas existe alguna relación entre X = tensión arterial e Y = edad?

Aunque en un principio la notación pueda resultar a veces algo desagradable, el lector podrá comprobar, al final del capítulo, que es bastante accesible. Por ello le pedimos que no se asuste. Al final verá que no son para tanto.

Tablas de doble entrada

Consideramos una población de n individuos, donde cada uno de ellos presenta dos caracteres que representamos mediante las variables X e Y. Representamos mediante 

las k modalidades que presenta la variable X, y mediante 

las p modalidades de Y.

Page 22: Distribucion de Probabilidades

Con la intención de reunir en una sóla estructura toda la información disponible, creamos

una tabla formada por   casillas, organizadas de forma que se tengan k filas

y p columnas. La casilla denotada de forma general mediante el   hará referencia a los elementos de la muestra que presentan simultáneamente las modalidades xi e yj.

Y y1 y2 ... yj ... yp

X

x1 n11 n12 ... n1j ... n1p

x2 n21 n22 ... n2j ... n2p

... ... ... ... ... ... ... ...

xi ni1 ni2 ... nij ... nip

... ... ... ... ... ... ... ...

xk nk1 nk2 ... nkj ... nkp

... ...

De este modo, para  ,  , se tiene que nij es el número de individuos o frecuencia absoluta, que presentan a la vez las modalidades xi e yj.

El número de individuos que presentan la modalidad xi, es lo que llamamos frecuencia

absoluta marginal de xi y se representa como  . Es evidente la igualdad

Obsérvese que hemos escrito un símbolo ``  '' en la ``parte de las jotas'' que simboliza que estamos considerando los elemento que presentan la modalidad xi, independientemente de

Page 23: Distribucion de Probabilidades

las modalidades que presente la variable Y. De forma análoga se define la frecuencia absoluta marginal de la modalidad yj como

Estas dos distribuciones de frecuencias   para  , y  para   reciben el nombre de distribuciones marginales de X e Y respectivamente.

El número total de elementos de la población (o de la muestra), n lo obtenemos de cualquiera de las siguientes formas, que son equivalentes:

Las distribuciones de frecuencias de las variables bidimensionales también pueden ser representadas gráficamente. Al igual que en el caso unidimensional existen diferentes tipos de representaciones gráficas, aunque estas resultan a ser más complicadas (figura 3.1).

Figura: Algunos de las representaciones gráficas habituales de distribuciones de frecuencias bidimensionales.

Distribuciones marginales

A la proporción de elementos (tanto por uno) que presentan simultáneamente las modalidades xi e yj la llamamos frecuencia relativa fij

Page 24: Distribucion de Probabilidades

siendo las frecuencias relativas marginales las cantidades

Ni que decir tiene que

Observación

Es importante observar que las tablas bidimensionales aportan más información que las vistas anteriormente. De hecho, si quisiésemos estudiar la variable X y la Ypor separado, nos hubiese bastado con utilizar:

Mod. Marg. Abs. Marg. Rel.

X

x1

... ... ...

xi

... ... ...

xk

n 1

        

Page 25: Distribucion de Probabilidades

Mod. Marg. Abs. Marg. Rel.

Y

y1

... ... ...

yj

... ... ...

yp

n 1

Toda esa información se puede resumir en una sóla tabla del siguiente modo:

Y y1 y2 ... yj ... yp

X

x1 n11 f11 n12 f12 ... n1j f1j ... n1p f1p

x2 n21 f21 n22 f22 ... n2j f2j ... n2p f2p

... ... ... ... ... ... ... ... ... ... ... ... ...

xi ni1 fi1 ni2 fi2 ... nij fij ... nip fip

... ... ... ... ... ... ... ... ... ... ... ... ...

xk nk1 fk1 nk2 fk2 ... nkj fkj ... nkp fkp

... ...

Page 26: Distribucion de Probabilidades

Distribuciones condicionadas

De todos los elementos de la población, n, podemos estar interesados, en un momento dado, en un conjunto más pequeño y que está formado por aquellos elementos que han presentado

la modalidad yj, para algún . El número de elementos de este conjunto sabemos

que es  . La variable X definida sobre este conjunto se denomina variable

condicionada y se suele denotar mediante   o bien  . La distribución de frecuencias absolutas de esta nueva variable es exactamente la columna j de la tabla. Por tanto sus frecuencias relativas, que denominaremos frecuencias relativas condicionadas son

De la misma forma, es posible dividir la población inicial en ksubconjuntos, cada uno de ellos caracterizados por la propiedad de que el i-ésimo conjunto todos los elementos verifican la propiedad de presentar la modalidad xi. Sobre cada uno de

estos conjuntos tenemos la variable condicionada  , cuya distribución de frecuencias relativas condicionadas es:

De este modo la distribución de cada una de las variables condicionadas se puede representar en tablas como sigue:

Mod. Fr. Abs. Fr. Rel.

X/yj nij fij

x1 n1j f1j

... ... ...

xi nij

... ... ...

xk nkj fkj

Page 27: Distribucion de Probabilidades

1

        

Mod. Fr. Abs. Fr. Rel.

Y/xi nij fji

y1 ni1 f1i

... ... ...

yj nij

... ... ...

yp nip fpi

1

Observación

Si interpretamos la relaciones

en términos de probabilidades, vemos que no es más que la definición de probabilidad condicionada:

lo que de forma abreviada representaremos normalmente como

Page 28: Distribucion de Probabilidades

Dependencia funcional e independencia

La relación entre las variables X e Y, parte del objetivo de este capítulo y en general de un número importante de los estudios de las Ciencias Sociales, puede ser más o menos acentuada, pudiendo llegar ésta desde la dependencia total o dependencia funcional hasta la independencia.

Dependencia funcional

La dependencia funcional, que nos refleja cualquier fórmula matemática o física, es a la que estamos normalmente más habituados. Al principio del capítulo consideramos un ejemplo en el que sobre una población de alumnos definíamos las variables

Al tomar a uno de los alumnos, hasta que no se realice una medida sobre el mismo, no tendremos claro cual será su altura. Podemos tener cierta intuición sobre qué valor es más probable que tome (alrededor de la media, con cierta dispersión). Sin embargo, si la medida Xha sido realizada, no es necesario practicar la de Y, pues la relación entre ambas es exacta (dependencia funcional):

Y = X/100

Ello puede describirse como que conocido el valor X=xi, la distribución de   sólo toma un valor con frecuencia del 100%. Esto se traduce en una tabla bidimensional de X e Y, del siguiente modo: La variable Ydepende funcionalmente de la variable X si

para cada fila X=xi, existe un único   tal que  . Análogamente, tenemos dependencia funcional de X con respecto a Yhaciendo el razonamiento simétrico, pero por columnas, es decir, X depende funcionalmente de la variable Y si para cada columna Y=yj, existe un

único   tal que  .

Es claro que si la dependencia funcional es recíproca, la tabla es necesariamente cuadrada (k=p).

3.6.2.1 Ejemplo

Consideramos una población formada por 12 individuos, donde hay 3 franceses, 7 argentinos y 3 guineanos. Definimos las variables:

Page 29: Distribucion de Probabilidades

Entonces, sobre esta población, podemos construir las siguientes tablas:

Z Si No

X

Europa 0 3 3

América 7 0 7

África 2 0 2

9 3 12

        

Y Francés Guineano Argentino

X

Europa 3 0 0 3

América 0 0 7 7

África 0 2 0 2

3 2 7 12

y nos damos cuenta de que, según la definición

Z depende funcionalmente de X. X no depende funcionalmente de Z. X e Y depende funcionalmente la una de la otra de modo recíproco.

Independencia

Hemos visto que la dependencia funcional implica una estructura muy particular de la tabla bidimensional, en la que en todas las filas (o en todas las columnas) existe un único

Page 30: Distribucion de Probabilidades

elemento no nulo. Existe un concepto que de algún modo es el opuesto a la dependencia funcional, que es el de independencia. Se puede expresar de muchas maneras el concepto de independencia, y va a implicar de nuevo una estructura muy particular de la tabla bidimensional, en el que todas las filas y todas las columnas van a ser proporcionales entre sí.

Para enunciar lo que es la independencia de dos variables vamos a basarnos en el siguiente razonamiento: Si la variable Y es independiente de X, lo lógico es que la distribución de

frecuencias relativas condicionadas  sea la misma que la de  , ...,  . Esto se puede escribir diciendo que

   

Pues bien, diremos que la variable Y es independiente de Xsi la relación (3.3) es verificada. Hay otras formas equivalentes de enunciar la independencia: Cada una de las siguientes relaciones expresa por si sóla la condición de independencia:

Proposición (Independencia en tablas de doble entrada)

Cada una de las siguientes relaciones expresa por sí sóla la condición de independencia entre las variables Xe Y

   

   

Observación

Obsérvese que la relación (3.4) (o bien la (3.5)) implica que la independencia es siempre recíproca, es decir, si X es independiente de Y, entonces Y es independiente de X.

Ejemplo

Si tenemos dos variables que son

Page 31: Distribucion de Probabilidades

y están distribuidas en una tabla del modo:

Y

X

0 24 4 8 36

1 6 1 2 9

2 12 2 4 18

42 7 14 63

podemos decir que ambas variables son independientes. Obsérvese la proporcionalidad existente entre todas las filas de la tabla (incluidas la marginal) (figura 3.2). Lo mismo ocurre entre las columnas.

  Figura: Cuando las variables son independientes, las diferencias entre las filas (o columnas) pueden entenderse como cambios de escala.

Medias y varianzas marginales y condicionadas

Page 32: Distribucion de Probabilidades

Asociados a las distribuciones marginales y condicionadas definidas en las secciones anteriores, podemos definir algunos estadísticos de tendencia central o dispersión, generalizando los que vimos en los capítulos dedicados al análisis de una variable . Las medias marginales de la variable X e Y se definen del siguiente modo:

Las varianzas marginales respectivas son

Para   cada   una   de   las p variables   condicionadas   definimos   sus   respectivas media condicionada y varianza condicionada mediante:

y lo mismo hacemos para las k condicionadas 

Page 33: Distribucion de Probabilidades

Es interesante observar que podemos considerar que las   observaciones de la variable Xhan sido agrupadas en p subgrupos, cada uno de ellos caracterizados por la

propiedad de que Y=yj para algún  . Así la proposición de la página   nos permite afirmar que las medias de las marginales es la media ponderada de las condicionadas, y la proposición de la página 2.1, que la varianza de las marginales es la media ponderada de las varianzas condicionadas mas la varianza ponderada de las medias condicionadas (¡uff!). Vamos a enunciar de modo más preciso lo que acabamos de enunciar:

Proposición

Las medias y varianzas marginales de las variables X y Yse pueden escribir de modo equivalente como:

Covarianza y coeficiente de correlación

Page 34: Distribucion de Probabilidades

Cuando analizábamos las variables unidimensionales considerábamos, entre otras medidas importantes, la media y la varianza. Ahora hemos visto que estas medidas también podemos considerarlas de forma individual para cada una de las componentes de la variable bidimensional.

Si observamos con atención los términos

vemos que las cantidades   y   van al cuadrado y por tanto no pueden ser negativas.

La covarianza  , es una manera de generalizar la varianza y se define como:

Como se ve, la fórmula es muy parecida a las de las varianzas. Es sencillo comprobar que

se verifica la siguiente expresión de  , más útil en la práctica:

   Proposición

 Si las observaciones no están ordenadas en una tabla de doble entrada, entonces se tiene que

o lo que es lo mismo

Page 35: Distribucion de Probabilidades

EjemploSe han clasificado 100 familias según el número de hijos varones ( ) o hembras ( ), en la tabla siguiente:

0 1 2 3 4

0 4 6 9 4 11 5 10 7 4 22 7 8 5 3 13 5 5 3 2 14 2 3 2 1 0

1.Hallar las medias, varianzas y desviaciones típicas marginales.

2.¿Qué número medio de hijas hay en aquellas familias que tienen 2 hijos?

3.¿Qué número medio de hijos varones hay en aquellas familias que no tienen hijas?

4.¿Qué número medio de hijos varones tienen aquellas familias que a lo sumo tienen 2 hijas?

5.Hallar la covarianza

Solución: En primer lugar, definimos las variables X= número de hijos varones, e Y=número de hijas y construimos la tabla con las frecuencias marginales, y con otras cantidades que nos son útiles en el cálculo de medias y varianzas:

y1 y2 y3 y4 y5

0 1 2 3 4

4 6 9 4 1 24 0 0 0

5 10 7 4 2 28 28 28 44

7 8 5 3 1 24 48 96 62

5 5 3 2 1 16 48 144 63

2 3 2 1 0 8 32 128 40

23 32 26 14 5 100 156 396 209

Page 36: Distribucion de Probabilidades

0 32 52 42 20 146

0 32 104 126 80 342

de este modo, las medias marginales son

Calculamos después las varianzas marginales

que nos dan directamente las desviaciones típicas marginales,

El número medio de hijas en las familias con 2 hijos varones se obtiene calculando la

distribución condicionada de 

n3j n3j yj

7 0

8 8

5 10

3 9

1 4

24 31

Page 37: Distribucion de Probabilidades

           

Del mismo modo, el número medio de hijos varones de las familias sin hijas, se calcula con

la distribución condicionada 

ni1 ni1 xi

4 0

5 5

7 14

5 15

2 8

23 42

           

El número medio de hijos varones en las familias que a lo sumo tienen dos hijas, se calcula usando las marginales de la tabla obtenida a partir de las columnas y1, y2 e y3

ni1 ni2 ni3 ni1+ni2+ni3 (ni1+ni2+ni3) xi

4 6 9 19 19

5 10 7 22 22

7 8 5 20 40

5 5 3 13 39

2 3 2 7 28

81 129

 

La covarianza es:

Page 38: Distribucion de Probabilidades