grupo cdpye-ugr coeficiente de correlacion lineal

Post on 02-May-2022

8 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.

Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√

V ar [X] V ar [Y ]·

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.

Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√

V ar [X] V ar [Y ]·

Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.

Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√

V ar [X] V ar [Y ]·

Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).

Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion

(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.

Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√

V ar [X] V ar [Y ]·

Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).

Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion

(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por

el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.

Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√

V ar [X] V ar [Y ]·

Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).

Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion

(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por

el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables. El valor ρX,Y = 0 indica una ausencia to-tal de relacion lineal entre las variables y, en tal caso, se dice que estas son incorreladas linealmente.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.

Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√

V ar [X] V ar [Y ]·

Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).

Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion

(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por

el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables. El valor ρX,Y = 0 indica una ausencia to-tal de relacion lineal entre las variables y, en tal caso, se dice que estas son incorreladas linealmente.

A menudo las rectas de regresion suelen escribirse en terminos del coeficiente de correlacion como sigue:

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.

Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√

V ar [X] V ar [Y ]·

Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).

Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion

(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por

el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables. El valor ρX,Y = 0 indica una ausencia to-tal de relacion lineal entre las variables y, en tal caso, se dice que estas son incorreladas linealmente.

A menudo las rectas de regresion suelen escribirse en terminos del coeficiente de correlacion como sigue:

Y/X → y = E [Y ] + ρX,Y

√V ar [Y ]

V ar [X](x− E [X]).

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.

Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√

V ar [X] V ar [Y ]·

Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).

Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion

(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por

el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables. El valor ρX,Y = 0 indica una ausencia to-tal de relacion lineal entre las variables y, en tal caso, se dice que estas son incorreladas linealmente.

A menudo las rectas de regresion suelen escribirse en terminos del coeficiente de correlacion como sigue:

Y/X → y = E [Y ] + ρX,Y

√V ar [Y ]

V ar [X](x− E [X]).

X/Y → x = E [X] + ρX,Y

√V ar [X]

V ar [Y ](y − E [Y ]).

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Coeficiente de correlacion lineal

El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.

Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√

V ar [X] V ar [Y ]·

Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).

Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion

(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por

el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables. El valor ρX,Y = 0 indica una ausencia to-tal de relacion lineal entre las variables y, en tal caso, se dice que estas son incorreladas linealmente.

A menudo las rectas de regresion suelen escribirse en terminos del coeficiente de correlacion como sigue:

Y/X → y = E [Y ] + ρX,Y

√V ar [Y ]

V ar [X](x− E [X]).

X/Y → x = E [X] + ρX,Y

√V ar [X]

V ar [Y ](y − E [Y ]).

Las propiedades que se enumeran a continuacion se obtienen directamente de las correspondientes del coeficiente dedeterminacion.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Propiedades del coeficiente de correlacion lineal

i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .

ii) −1 ≤ ρX,Y ≤ 1.

iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].

iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Propiedades del coeficiente de correlacion lineal

i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .

ii) −1 ≤ ρX,Y ≤ 1.

iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].

iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �

Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea

X = senZ, Y = cosZ

¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Propiedades del coeficiente de correlacion lineal

i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .

ii) −1 ≤ ρX,Y ≤ 1.

iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].

iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �

Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea

X = senZ, Y = cosZ

¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?

Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Propiedades del coeficiente de correlacion lineal

i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .

ii) −1 ≤ ρX,Y ≤ 1.

iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].

iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �

Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea

X = senZ, Y = cosZ

¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?

Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es

fZ(z) =1

2π, 0 < z < 2π,

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Propiedades del coeficiente de correlacion lineal

i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .

ii) −1 ≤ ρX,Y ≤ 1.

iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].

iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �

Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea

X = senZ, Y = cosZ

¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?

Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es

fZ(z) =1

2π, 0 < z < 2π,

y tenemos:

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Propiedades del coeficiente de correlacion lineal

i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .

ii) −1 ≤ ρX,Y ≤ 1.

iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].

iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �

Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea

X = senZ, Y = cosZ

¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?

Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es

fZ(z) =1

2π, 0 < z < 2π,

y tenemos:

� E[X] = E[senZ]

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Propiedades del coeficiente de correlacion lineal

i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .

ii) −1 ≤ ρX,Y ≤ 1.

iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].

iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �

Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea

X = senZ, Y = cosZ

¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?

Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es

fZ(z) =1

2π, 0 < z < 2π,

y tenemos:

� E[X] = E[senZ] =

∫ 2π

0

senz1

2πdz

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Propiedades del coeficiente de correlacion lineal

i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .

ii) −1 ≤ ρX,Y ≤ 1.

iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].

iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �

Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea

X = senZ, Y = cosZ

¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?

Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es

fZ(z) =1

2π, 0 < z < 2π,

y tenemos:

� E[X] = E[senZ] =

∫ 2π

0

senz1

2πdz = 0.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Propiedades del coeficiente de correlacion lineal

i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .

ii) −1 ≤ ρX,Y ≤ 1.

iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].

iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �

Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea

X = senZ, Y = cosZ

¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?

Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es

fZ(z) =1

2π, 0 < z < 2π,

y tenemos:

� E[X] = E[senZ] =

∫ 2π

0

senz1

2πdz = 0.

� E[Y ] = E[cosZ]

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Propiedades del coeficiente de correlacion lineal

i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .

ii) −1 ≤ ρX,Y ≤ 1.

iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].

iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �

Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea

X = senZ, Y = cosZ

¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?

Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es

fZ(z) =1

2π, 0 < z < 2π,

y tenemos:

� E[X] = E[senZ] =

∫ 2π

0

senz1

2πdz = 0.

� E[Y ] = E[cosZ] =

∫ 2π

0

cosz1

2πdz

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Propiedades del coeficiente de correlacion lineal

i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .

ii) −1 ≤ ρX,Y ≤ 1.

iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].

iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �

Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea

X = senZ, Y = cosZ

¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?

Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es

fZ(z) =1

2π, 0 < z < 2π,

y tenemos:

� E[X] = E[senZ] =

∫ 2π

0

senz1

2πdz = 0.

� E[Y ] = E[cosZ] =

∫ 2π

0

cosz1

2πdz = 0.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ]

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �

Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �

Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �

Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.

Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �

Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.

Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.

Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �

Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.

Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.

Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.

El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en

dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k;

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �

Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.

Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.

Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.

El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en

dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k; esta constante se calcula imponiendo quef(X,Y ) integre 1 en la region especificada:

DIBUJO ∫ 1

0

∫ x2

0

kdydx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �

Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.

Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.

Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.

El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en

dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k; esta constante se calcula imponiendo quef(X,Y ) integre 1 en la region especificada:

DIBUJO ∫ 1

0

∫ x2

0

kdydx = k

∫ 1

0

x2dx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �

Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.

Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.

Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.

El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en

dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k; esta constante se calcula imponiendo quef(X,Y ) integre 1 en la region especificada:

DIBUJO ∫ 1

0

∫ x2

0

kdydx = k

∫ 1

0

x2dx =k

3

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �

Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.

Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.

Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.

El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en

dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k; esta constante se calcula imponiendo quef(X,Y ) integre 1 en la region especificada:

DIBUJO ∫ 1

0

∫ x2

0

kdydx = k

∫ 1

0

x2dx =k

3= 1

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

� E[XY ] = E[senZcosZ] =

∫ 2π

0

senzcosz1

2πdz =

1

π

∫ 2π

0

sen2zdz = 0.

Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �

Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.

Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.

Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.

El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en

dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k; esta constante se calcula imponiendo quef(X,Y ) integre 1 en la region especificada:

DIBUJO ∫ 1

0

∫ x2

0

kdydx = k

∫ 1

0

x2dx =k

3= 1 ⇒ k = 3.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx =1

7,

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx =1

7,

� E [XY ] =

∫ 1

0

∫ x2

0

3xydydx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx =1

7,

� E [XY ] =

∫ 1

0

∫ x2

0

3xydydx =

∫ 1

0

3x5

2dx

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx =1

7,

� E [XY ] =

∫ 1

0

∫ x2

0

3xydydx =

∫ 1

0

3x5

2dx =

1

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx =1

7,

� E [XY ] =

∫ 1

0

∫ x2

0

3xydydx =

∫ 1

0

3x5

2dx =

1

Entonces:

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx =1

7,

� E [XY ] =

∫ 1

0

∫ x2

0

3xydydx =

∫ 1

0

3x5

2dx =

1

Entonces:

� V ar[X] = E [X2]− (E[X])2

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx =1

7,

� E [XY ] =

∫ 1

0

∫ x2

0

3xydydx =

∫ 1

0

3x5

2dx =

1

Entonces:

� V ar[X] = E [X2]− (E[X])2 =3

80,

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx =1

7,

� E [XY ] =

∫ 1

0

∫ x2

0

3xydydx =

∫ 1

0

3x5

2dx =

1

Entonces:

� V ar[X] = E [X2]− (E[X])2 =3

80,

� V ar[Y ] = E [Y 2]− (E[Y ])2

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx =1

7,

� E [XY ] =

∫ 1

0

∫ x2

0

3xydydx =

∫ 1

0

3x5

2dx =

1

Entonces:

� V ar[X] = E [X2]− (E[X])2 =3

80,

� V ar[Y ] = E [Y 2]− (E[Y ])2 =37

700,

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx =1

7,

� E [XY ] =

∫ 1

0

∫ x2

0

3xydydx =

∫ 1

0

3x5

2dx =

1

Entonces:

� V ar[X] = E [X2]− (E[X])2 =3

80,

� V ar[Y ] = E [Y 2]− (E[Y ])2 =37

700,

� Cov[X, Y ] = E [XY ]− E[X]E[Y ]

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,

y los momentos no centrados son:

� E[X] =

∫ 1

0

∫ x2

0

3xdydx =

∫ 1

0

3x3dx =3

4,

� E [X2] =

∫ 1

0

∫ x2

0

3x2dydx =

∫ 1

0

3x4dx =3

5,

� E[Y ] =

∫ 1

0

∫ x2

0

3ydydx =

∫ 1

0

3x4

2dx =

3

10,

� E [Y 2] =

∫ 1

0

∫ x2

0

3y2dydx =

∫ 1

0

x6dx =1

7,

� E [XY ] =

∫ 1

0

∫ x2

0

3xydydx =

∫ 1

0

3x5

2dx =

1

Entonces:

� V ar[X] = E [X2]− (E[X])2 =3

80,

� V ar[Y ] = E [Y 2]− (E[Y ])2 =37

700,

� Cov[X, Y ] = E [XY ]− E[X]E[Y ] =1

40,

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

y el coeficiente de correlacion es

ρX,Y =Cov [X, Y ]√

V ar [X] V ar [Y ]= 0.5615.

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

BY: Grupo CDPYE-UGR

y el coeficiente de correlacion es

ρX,Y =Cov [X, Y ]√

V ar [X] V ar [Y ]= 0.5615.

El signo positivo de ρX,Y indica que cada una de las variables, X e Y , tiende a crecer con la otra. �

top related