distribucion de probabilidades
DESCRIPTION
Distribucion de Probabilidades, PoissonTRANSCRIPT
Variable Alectroria
Introducción
Normalmente, los resultados posibles (espacio muestral E) de un experimento aleatorio no son valores numéricos. Por ejemplo, si el experimento consiste en lanzar de modo ordenado tres monedas al aire, para observar el número de caras ( ) y cruces ( ) que se obtienen, el espacio muestral asociado a dicho experimento aleatorio sería:
En estadística resulta más fácil utilizar valores numéricos en lugar de trabajar directamente con los elementos de un espacio muestral como el anterior. Así preferimos identificar los
sucesos con el valor numérico 1 que representa el número de caras obtenidas al realizar el experimento. De este modo aparece el concepto de variable aleatoria unidimensional como el de toda función
que atribuye un único número real xe, a cada suceso elemental e, del espacio muestral E5.1.
Por ejemplo, en el ejemplo anterior, se define la variable aleatoria5.2
del siguiente modo:
Observación
La variable X no recibe el calificativo de aleatoria por el hecho de que atribuya de
modo imprevisible un valor cualquiera a un elemento ya que este valor está definido de forma precisa (determinística). Lo que es aleatorio en realidad, es que al hacer el experimento, no sabemos qué elemento de E puede ocurrir.
=1.00mm
La composición de una función real5.3 con una variable es también variable aleatoria, pues está definida sobre Ey a cada elemento suyo le asocia un valor real.
En función de los valores que tome la variable, esta puede ser clasificada en discreta o continua del siguiente modo:
v.a. discreta:Es aquella que sólo puede tomar un número finito o infinito numerable de valores. Por ejemplo,
v.a. continua:Es la que puede tomar un número infinito no numerable de valores.
Observación
Si sobre los elementos de E existe una distribución de probabilidad, esta se transmite a los valores que toma la variable X. Es decir, toda v.a. conserva la estructura probabilística del experimento aleatorio que describe, en el sentido de que si es la función de probabilidad definida sobre el espacio muestral E, ésta induce otra función definida sobre , de forma que conserva los valores de las probabilidades (figura 5.1):
Figura: Una v.a. transmite la estructura probabilística
del espacio muestral a .
De ahora en adelante omitiremos el asterisco y no diferenciaremos entre las probabilidades calculadas sobre el espacio muestral del experimento aleatorio original, E, y las calculadas sobre .
Vamos a estudiar los conceptos más importantes relacionados con la distribución de probabilidad de una v.a., diferenciando entre los casos de v.a. discreta y v.a. continua.
Variables aleatorias discretas
Dada una v.a. discreta , su función de probabilidad f, se define de modo que f(xi) es la probabilidad de que X tome ese valor:
Si xi no es uno de los valores que puede tomar X, entonces f(xi)=0. La representación gráfica de la función de probabilidad se realiza mediante un diagrama de barras análogo al de distribución de frecuencias relativas para variables discretas (figura 5.3). Por ejemplo, si retomamos el caso del lanzamiento de 3 monedas de forma que cada una de ellas tenga probabilidad 1/2 de dar como resultado cara o cruz, se tiene que (véase la figura 5.2):
Figura: Equivalencia entre las probabilidades calculadas directamente sobre el espacio
muestral E de resultados del experimento aleatorio, y las calculadas sobre el
subconjunto mediante la v.a. X.
Observación
Obsérvese que X está definido sobre el espacio muestral de sucesos E, mientras que f lo está sobre el espacio de números reales .
Las propiedades de la función de probabilidad de v.a. se deducen de forma inmediata de los axiomas de probabilidad:
Es evidente que si tenemos tres constantes a<b<c, los sucesos
y son mutuamente exclusivos, es decir, ,
luego . Por ello, si se define , se tiene que
Otro concepto importante es el de función de distribución de una variable aleatoria
discreta, F, que se define de modo que si , F(xi) es igual a la probabilidad de que X tome un valor inferior o igual a xi:
Esta función se representa gráficamente del mismo modo que la distribución de frecuencias relativas acumuladas (figura 5.3). Volviendo al ejemplo de las tres monedas, se tiene que
Hay que observar que a valores no admisibles por la variable les pueden corresponder valores de F no nulos. Por ejemplo,
Figura: Función de probabilidad a la izquierda, y función de distribución a la derecha de una v.a. discreta
Es sencillo comprobar que las siguientes propiedades de la función de distribución son ciertas:
Proposición (Distribuciones discretas)
La función de distribución F, es una función no decreciente, es decir,
Además, es continua a la derecha
y
Variables aleatorias continuas
Si una variable discreta toma los valores x1, ..., xk, la proposición de la página afirma que las probabilidad de que al hacer un experimento, X tome uno de esos valores es 1, de modo que cada posible valor xi contribuye con una cantidad f(xi) al total:
Aun cuando la variable tomase un número infinito de valores, x1, x2, ..., no hay ningún problema en comprobar que cada xi contribuye con una cantidad f(xi) al total de modo que
Cuando la variable es continua, no tiene sentido hacer una suma de las probabilidades de cada uno de los términos en el sentido anterior, ya que el conjunto de valores que puede tomar la variable es no numerable. En este caso, lo que generaliza de modo natural el
concepto de suma ( ) es el de integral ( ). Por otro lado, para variables continuas no
tiene interés hablar de la probabilidad de que , ya que esta debe de valer siempre 0, para que la suma infinita no numerable de las probabilidades de todos los valores de la variable no sea infinita.
De este modo es necesario introducir un nuevo concepto que sustituya en v.a. continuas, al de función de probabilidad de una v.a. discreta. Este concepto es el de función de
densidad de una v.a. continua, que se define como una función integrable, que verifica las dos propiedades siguientes:
y que además verifica que dado a<b, se tiene que
Figura: Función de densidad f. La probabilidad de un intervalo, es el área que existe entre
la función y el eje de abscisas.
Observación
Por ser f una función integrable, la probabilidad de un punto es nula:
y por ello al calcular la probabilidad de un intervalo no afectara nada el que este sea abierto o cerrado por cualquiera de sus extremos, pues estos son puntos y por tanto de probabilidad nula:
La función de distribución de la v.a. continua, F, se define de modo que dado , F(x) es la probabilidad de que X sea menor o igual que x, es decir
Figura: Función de distribución F, calculada a partir de la función de densidad f.
Observación
Dado un intervalo de la forma (a,b], tenemos que
Es decir, la cantidad F(b) - F(a) representa la masa de probabilidad extendida a lo largo de dicho intervalo. Si dividimos esta cantidad por la longitud del intervalo,
tenemos la masa media de probabilidad por unidad de longitud en (a,b], es decir, su densidad media de probabilidad. Si hacemos tender a hacia b, , la cantidad
es la densidad de probabilidad del punto b (que como hemos mencionado no se ha de confundir con la probabilidad de b).
Proposición
Distribuciones continuas La función de distribución F, es no decreciente
Además, es una función absolutamente continua que verifica:
Demostración
Los sucesos
Y
son mutuamente exclusivos, siendo su unión el suceso . Por tanto
El resto es evidente pues por la relación (5.1)
y por otro lado
Medidas de tendencia central y dispersión de v.a.
De forma análoga a lo que se se hizo en el capítulo 2 sobre estadística descriptiva podemos definir para variables aleatorias medidas de centralización, dispersión, simetría y forma. Por su interés nos vamos a centrar en dos medidas sobre v.a. que son la esperanza matemática que desempeña un papel equivalente al de la media y el momento central de segundo orden, también denominado varianza.
Observación
Recordamos que si
y por tanto tiene sentido calcular su esperanza matemática:
Por las analogías existente entre la definición de media aritmética y esperanza matemática, las propiedades de linealidad de la primera se trasladan a la segunda, como es inmediato comprobar:
Varianza
La varianza la denotamos mediante o bien :
Obsérvese que del mismo modo en que se demuestra la relación 2.11 se comprueba
que y que usando la demostración de la proposición de la página se tiene que
Ejemplo
Consideramos una variable aleatoria discreta con función de probabilidad:
Obtener:
1. El valor de la constante c para que sea una función de probabilidad.
2. Los valores de las funciones de probabilidad y distribución para
3. Calcular y .
Solución:
1.
ya que tenemos la suma de una progresión geométrica de razón menor que la unidad:
Luego c=3. Así la función de probabilidad es:
2. Calculemos sucesivos valores de f(x) y F(x):
xi f(x) F(x)
2 3/4=0,75 0,75
3 3/16=0,19 0,94
4 3/64=0,047 0,987
5 3/256=0,012 0,999
Se observa que cuando , y
3.
;
Ejemplo
Consideremos una variable aleatoria continua con función de densidad
Se pide:
1.El valor de la constante c para que sea una función de densidad.
2. La función de distribución.
3. La media o valor esperado.
4. Probabilidad de que la variable este comprendida entre 0,2 y 0,7
Solución:
1.
Por ser f una densidad se ha de verificar:
2.
Luego, la función de distinción es
3. Media :
4.
Ejemplo
La variable aleatoria continua X tiene como función de densidad:
Determinar:
1. Media
2. Varianza
3.
Solución:
1.
2. . El momento central de primer orden con respecto al origen ya
ha sido calculado antes. El momento central de segundo orden con respecto al origen, es:
Luego
3.Hay que calcular la probabilidad del intervalo de la Figura 5.6:
Figura: La probabilidad del intervalo 0,2--0,8 es el área de la zona sombreada
a esperanza matemática y la varianza pueden ser calculadas a partir de otras medidas, que son los momentos.
5.8.6 Momentos de una v.a.
Se denomina momento de orden r ( ), , a:
Asimismo se denomina momento central de orden r, mr, a:
De este modo, es claro que la esperanza matemática es el momento de primer orden
y que la varianza es el momento central de segundo orden
Desigualdad de Tchebycheff y v.a. tipificadas
Si X es una variable aleatoria con esperanza , y varianza , se puede demostrar que en general, una gran parte de la masa se encuentra en un intervalo
centrado en y que tiene por amplitud varias veces . Más precisamente, la desigualdad
de Thebycheff afirma que si consideramos un intervalo de centro y radio k veces , la probabilidad de realizar una observación de la variable y que esta no esté en dicho intervalo es inferior o igual a 1/k2. Matemáticamente esto se formula como:
Teorema (Thebycheff)
Si X es v.a. con y , entonces
Este importante resultado, por si sólo, justifica el que sea una medida de centralización y (o bien ) de dispersión de X y motiva la introducción del concepto de tipificación de variables aleatorias. Dada una v.a.X, definimos su v.a. tipificada, Z, como:
que es una v.a. tal que
El teorema de Thebycheff afirma sobre U que
Función característica
Para una v.a. X se define su función característica como:
donde recordamos que . Esta función también es conocida como transformada de Fourier de f. Su denominación proviene del hecho de que una vez conocida la función característica podemos determinar la función de distribución de la v.a. y recíprocamente.
Teorema (Fourier)
Si X es una v.a. cuya función característica es , su función de probabilidad (o densidad
de probabilidad) es
Esta propiedad de es fundamental, ya que en una gran cantidad de casos es mucho más fácil trabajar con la función característica que con la propia función de probabilidad (o densidad). La razón de ello estriba en una serie de propiedades de la función característica que la hacen muy manejable desde el punto de vista matemático. Algunas de estas propiedades son enunciadas a continuación.
Proposición
Para se verifican las relaciones
Demostración
Vamos a suponer que X es continua, pues la demostración para el caso discreto es totalmente análoga. Gracias a la relación (5.1), se tiene que
Por otro lado, es claro que . De la teoría de la integración
es conocido que . Por todo ello se tiene que si
Por último
En lo referente a cambios de origen y escala, el comportamiento de la función característica es el siguiente:
Proposición
Demostración
Una propiedad de que es muy usada es que la suma de v.a. independientes tiene por función característica el producto de las respectivas funciones características. Es decir:
Teorema
Sean X e Y v.a. independientes. Entonces
Este resultado es también cierto para el caso de n v.a. independientes.
La última propiedad de que enunciamos es que al igual que la función generatriz de momentos, esta nos permite calcular los momentos de la variable (y por tanto su esperanza y su varianza).
Proposición
Demostración
Variable bidimensional
En lo estudiado anteriormente hemos podido aprender cómo a partir de la gran cantidad de datos que describen una muestra mediante una variable, X, se representan gráficamente los mismos de modo que resulta más intuitivo hacerse una idea de como se distribuyen las observaciones.
Otros conceptos que según hemos visto, también nos ayudan en el análisis, son los estadísticos de tendencia central, que nos indican hacia donde tienden a agruparse los datos (en el caso en que lo hagan), y los estadísticos de dispersión, que nos indican si las diferentes modalidades que presenta la variable están muy agrupadas alrededor de cierto valor central, o si por el contrario las variaciones que presentan las modalidades con respecto al valor central son grandes.
También sabemos determinar ya si los datos se distribuyen de forma simétrica a un lado y a otro de un valor central.
En este capítulo pretendemos estudiar una situación muy usual y por tanto de gran interés en la práctica:
Si Y es otra variable definida sobre la misma población que X, ¿será posible determinar si existe alguna relación entre las modalidades de X y de Y?
Un ejemplo trivial consiste en considerar una población formada por alumnos de primero de Medicina y definir sobre ella las variables
ya que la relación es determinista y clara: Y=X/100. Obsérvese que aunque la variable Y, como tal puede tener cierta dispersión, vista como función de X, su dispersión es nula.
Un ejemplo más parecido a lo que nos interesa realmente lo tenemos cuando sobre la misma población definimos las variables
Intuitivamente esperamos que exista cierta relación entre ambas variables, por ejemplo,
Dispersión que nos expresa que (en media) a mayor altura se espera mayor peso. La relación no es exacta y por ello será necesario introducir algún termino que exprese la dispersión de Ycon respecto a la variable X.
Es fundamental de cara a realizar un trabajo de investigación experimental, conocer muy bien las técnicas de estudio de variables bidimensionales (y n-dimensionales en general). Baste para ello pensar que normalmente las relaciones entre las variables no son tan evidentes como se mencionó arriba. Por ejemplo:
¿Se puede decir que en un grupo de personas existe alguna relación entre X = tensión arterial e Y = edad?
Aunque en un principio la notación pueda resultar a veces algo desagradable, el lector podrá comprobar, al final del capítulo, que es bastante accesible. Por ello le pedimos que no se asuste. Al final verá que no son para tanto.
Tablas de doble entrada
Consideramos una población de n individuos, donde cada uno de ellos presenta dos caracteres que representamos mediante las variables X e Y. Representamos mediante
las k modalidades que presenta la variable X, y mediante
las p modalidades de Y.
Con la intención de reunir en una sóla estructura toda la información disponible, creamos
una tabla formada por casillas, organizadas de forma que se tengan k filas
y p columnas. La casilla denotada de forma general mediante el hará referencia a los elementos de la muestra que presentan simultáneamente las modalidades xi e yj.
Y y1 y2 ... yj ... yp
X
x1 n11 n12 ... n1j ... n1p
x2 n21 n22 ... n2j ... n2p
... ... ... ... ... ... ... ...
xi ni1 ni2 ... nij ... nip
... ... ... ... ... ... ... ...
xk nk1 nk2 ... nkj ... nkp
... ...
De este modo, para , , se tiene que nij es el número de individuos o frecuencia absoluta, que presentan a la vez las modalidades xi e yj.
El número de individuos que presentan la modalidad xi, es lo que llamamos frecuencia
absoluta marginal de xi y se representa como . Es evidente la igualdad
Obsérvese que hemos escrito un símbolo `` '' en la ``parte de las jotas'' que simboliza que estamos considerando los elemento que presentan la modalidad xi, independientemente de
las modalidades que presente la variable Y. De forma análoga se define la frecuencia absoluta marginal de la modalidad yj como
Estas dos distribuciones de frecuencias para , y para reciben el nombre de distribuciones marginales de X e Y respectivamente.
El número total de elementos de la población (o de la muestra), n lo obtenemos de cualquiera de las siguientes formas, que son equivalentes:
Las distribuciones de frecuencias de las variables bidimensionales también pueden ser representadas gráficamente. Al igual que en el caso unidimensional existen diferentes tipos de representaciones gráficas, aunque estas resultan a ser más complicadas (figura 3.1).
Figura: Algunos de las representaciones gráficas habituales de distribuciones de frecuencias bidimensionales.
Distribuciones marginales
A la proporción de elementos (tanto por uno) que presentan simultáneamente las modalidades xi e yj la llamamos frecuencia relativa fij
siendo las frecuencias relativas marginales las cantidades
Ni que decir tiene que
Observación
Es importante observar que las tablas bidimensionales aportan más información que las vistas anteriormente. De hecho, si quisiésemos estudiar la variable X y la Ypor separado, nos hubiese bastado con utilizar:
Mod. Marg. Abs. Marg. Rel.
X
x1
... ... ...
xi
... ... ...
xk
n 1
Mod. Marg. Abs. Marg. Rel.
Y
y1
... ... ...
yj
... ... ...
yp
n 1
Toda esa información se puede resumir en una sóla tabla del siguiente modo:
Y y1 y2 ... yj ... yp
X
x1 n11 f11 n12 f12 ... n1j f1j ... n1p f1p
x2 n21 f21 n22 f22 ... n2j f2j ... n2p f2p
... ... ... ... ... ... ... ... ... ... ... ... ...
xi ni1 fi1 ni2 fi2 ... nij fij ... nip fip
... ... ... ... ... ... ... ... ... ... ... ... ...
xk nk1 fk1 nk2 fk2 ... nkj fkj ... nkp fkp
... ...
Distribuciones condicionadas
De todos los elementos de la población, n, podemos estar interesados, en un momento dado, en un conjunto más pequeño y que está formado por aquellos elementos que han presentado
la modalidad yj, para algún . El número de elementos de este conjunto sabemos
que es . La variable X definida sobre este conjunto se denomina variable
condicionada y se suele denotar mediante o bien . La distribución de frecuencias absolutas de esta nueva variable es exactamente la columna j de la tabla. Por tanto sus frecuencias relativas, que denominaremos frecuencias relativas condicionadas son
De la misma forma, es posible dividir la población inicial en ksubconjuntos, cada uno de ellos caracterizados por la propiedad de que el i-ésimo conjunto todos los elementos verifican la propiedad de presentar la modalidad xi. Sobre cada uno de
estos conjuntos tenemos la variable condicionada , cuya distribución de frecuencias relativas condicionadas es:
De este modo la distribución de cada una de las variables condicionadas se puede representar en tablas como sigue:
Mod. Fr. Abs. Fr. Rel.
X/yj nij fij
x1 n1j f1j
... ... ...
xi nij
... ... ...
xk nkj fkj
1
Mod. Fr. Abs. Fr. Rel.
Y/xi nij fji
y1 ni1 f1i
... ... ...
yj nij
... ... ...
yp nip fpi
1
Observación
Si interpretamos la relaciones
en términos de probabilidades, vemos que no es más que la definición de probabilidad condicionada:
lo que de forma abreviada representaremos normalmente como
Dependencia funcional e independencia
La relación entre las variables X e Y, parte del objetivo de este capítulo y en general de un número importante de los estudios de las Ciencias Sociales, puede ser más o menos acentuada, pudiendo llegar ésta desde la dependencia total o dependencia funcional hasta la independencia.
Dependencia funcional
La dependencia funcional, que nos refleja cualquier fórmula matemática o física, es a la que estamos normalmente más habituados. Al principio del capítulo consideramos un ejemplo en el que sobre una población de alumnos definíamos las variables
Al tomar a uno de los alumnos, hasta que no se realice una medida sobre el mismo, no tendremos claro cual será su altura. Podemos tener cierta intuición sobre qué valor es más probable que tome (alrededor de la media, con cierta dispersión). Sin embargo, si la medida Xha sido realizada, no es necesario practicar la de Y, pues la relación entre ambas es exacta (dependencia funcional):
Y = X/100
Ello puede describirse como que conocido el valor X=xi, la distribución de sólo toma un valor con frecuencia del 100%. Esto se traduce en una tabla bidimensional de X e Y, del siguiente modo: La variable Ydepende funcionalmente de la variable X si
para cada fila X=xi, existe un único tal que . Análogamente, tenemos dependencia funcional de X con respecto a Yhaciendo el razonamiento simétrico, pero por columnas, es decir, X depende funcionalmente de la variable Y si para cada columna Y=yj, existe un
único tal que .
Es claro que si la dependencia funcional es recíproca, la tabla es necesariamente cuadrada (k=p).
3.6.2.1 Ejemplo
Consideramos una población formada por 12 individuos, donde hay 3 franceses, 7 argentinos y 3 guineanos. Definimos las variables:
Entonces, sobre esta población, podemos construir las siguientes tablas:
Z Si No
X
Europa 0 3 3
América 7 0 7
África 2 0 2
9 3 12
Y Francés Guineano Argentino
X
Europa 3 0 0 3
América 0 0 7 7
África 0 2 0 2
3 2 7 12
y nos damos cuenta de que, según la definición
Z depende funcionalmente de X. X no depende funcionalmente de Z. X e Y depende funcionalmente la una de la otra de modo recíproco.
Independencia
Hemos visto que la dependencia funcional implica una estructura muy particular de la tabla bidimensional, en la que en todas las filas (o en todas las columnas) existe un único
elemento no nulo. Existe un concepto que de algún modo es el opuesto a la dependencia funcional, que es el de independencia. Se puede expresar de muchas maneras el concepto de independencia, y va a implicar de nuevo una estructura muy particular de la tabla bidimensional, en el que todas las filas y todas las columnas van a ser proporcionales entre sí.
Para enunciar lo que es la independencia de dos variables vamos a basarnos en el siguiente razonamiento: Si la variable Y es independiente de X, lo lógico es que la distribución de
frecuencias relativas condicionadas sea la misma que la de , ..., . Esto se puede escribir diciendo que
Pues bien, diremos que la variable Y es independiente de Xsi la relación (3.3) es verificada. Hay otras formas equivalentes de enunciar la independencia: Cada una de las siguientes relaciones expresa por si sóla la condición de independencia:
Proposición (Independencia en tablas de doble entrada)
Cada una de las siguientes relaciones expresa por sí sóla la condición de independencia entre las variables Xe Y
Observación
Obsérvese que la relación (3.4) (o bien la (3.5)) implica que la independencia es siempre recíproca, es decir, si X es independiente de Y, entonces Y es independiente de X.
Ejemplo
Si tenemos dos variables que son
y están distribuidas en una tabla del modo:
Y
X
0 24 4 8 36
1 6 1 2 9
2 12 2 4 18
42 7 14 63
podemos decir que ambas variables son independientes. Obsérvese la proporcionalidad existente entre todas las filas de la tabla (incluidas la marginal) (figura 3.2). Lo mismo ocurre entre las columnas.
Figura: Cuando las variables son independientes, las diferencias entre las filas (o columnas) pueden entenderse como cambios de escala.
Medias y varianzas marginales y condicionadas
Asociados a las distribuciones marginales y condicionadas definidas en las secciones anteriores, podemos definir algunos estadísticos de tendencia central o dispersión, generalizando los que vimos en los capítulos dedicados al análisis de una variable . Las medias marginales de la variable X e Y se definen del siguiente modo:
Las varianzas marginales respectivas son
Para cada una de las p variables condicionadas definimos sus respectivas media condicionada y varianza condicionada mediante:
y lo mismo hacemos para las k condicionadas
Es interesante observar que podemos considerar que las observaciones de la variable Xhan sido agrupadas en p subgrupos, cada uno de ellos caracterizados por la
propiedad de que Y=yj para algún . Así la proposición de la página nos permite afirmar que las medias de las marginales es la media ponderada de las condicionadas, y la proposición de la página 2.1, que la varianza de las marginales es la media ponderada de las varianzas condicionadas mas la varianza ponderada de las medias condicionadas (¡uff!). Vamos a enunciar de modo más preciso lo que acabamos de enunciar:
Proposición
Las medias y varianzas marginales de las variables X y Yse pueden escribir de modo equivalente como:
Covarianza y coeficiente de correlación
Cuando analizábamos las variables unidimensionales considerábamos, entre otras medidas importantes, la media y la varianza. Ahora hemos visto que estas medidas también podemos considerarlas de forma individual para cada una de las componentes de la variable bidimensional.
Si observamos con atención los términos
vemos que las cantidades y van al cuadrado y por tanto no pueden ser negativas.
La covarianza , es una manera de generalizar la varianza y se define como:
Como se ve, la fórmula es muy parecida a las de las varianzas. Es sencillo comprobar que
se verifica la siguiente expresión de , más útil en la práctica:
Proposición
Si las observaciones no están ordenadas en una tabla de doble entrada, entonces se tiene que
o lo que es lo mismo
EjemploSe han clasificado 100 familias según el número de hijos varones ( ) o hembras ( ), en la tabla siguiente:
0 1 2 3 4
0 4 6 9 4 11 5 10 7 4 22 7 8 5 3 13 5 5 3 2 14 2 3 2 1 0
1.Hallar las medias, varianzas y desviaciones típicas marginales.
2.¿Qué número medio de hijas hay en aquellas familias que tienen 2 hijos?
3.¿Qué número medio de hijos varones hay en aquellas familias que no tienen hijas?
4.¿Qué número medio de hijos varones tienen aquellas familias que a lo sumo tienen 2 hijas?
5.Hallar la covarianza
Solución: En primer lugar, definimos las variables X= número de hijos varones, e Y=número de hijas y construimos la tabla con las frecuencias marginales, y con otras cantidades que nos son útiles en el cálculo de medias y varianzas:
y1 y2 y3 y4 y5
0 1 2 3 4
4 6 9 4 1 24 0 0 0
5 10 7 4 2 28 28 28 44
7 8 5 3 1 24 48 96 62
5 5 3 2 1 16 48 144 63
2 3 2 1 0 8 32 128 40
23 32 26 14 5 100 156 396 209
0 32 52 42 20 146
0 32 104 126 80 342
de este modo, las medias marginales son
Calculamos después las varianzas marginales
que nos dan directamente las desviaciones típicas marginales,
El número medio de hijas en las familias con 2 hijos varones se obtiene calculando la
distribución condicionada de
n3j n3j yj
7 0
8 8
5 10
3 9
1 4
24 31
Del mismo modo, el número medio de hijos varones de las familias sin hijas, se calcula con
la distribución condicionada
ni1 ni1 xi
4 0
5 5
7 14
5 15
2 8
23 42
El número medio de hijos varones en las familias que a lo sumo tienen dos hijas, se calcula usando las marginales de la tabla obtenida a partir de las columnas y1, y2 e y3
ni1 ni2 ni3 ni1+ni2+ni3 (ni1+ni2+ni3) xi
4 6 9 19 19
5 10 7 22 22
7 8 5 20 40
5 5 3 13 39
2 3 2 7 28
81 129
La covarianza es: