no independencia de los errores: autocorrelación · es pura se debe transformar el modelo,...
TRANSCRIPT
11/08/2011 1
No independencia de los errores: autocorrelación
Fortino Vela Peón Universidad Autónoma Metropolitana
Octubre, 2010
México, D. F.
11/08/2011 2
MRL
Bajo heteroscedasticidad se tiene
uXβy
0u )(E
Iuu'2)( E
YX'X)(X'β1ˆ
)(1uXβX'X)(X'
uXX)(X'β '1
ββ )ˆ(E insesgado
…(3)
…(2)
…(1)
donde
Recuerde aquí el
desarrollo
11/08/2011 3
La varianza de b estimador
Por lo tanto, bajo heteroscedasticidad se tiene
Iuu'2)( E
uE 2)'( uu
donde es
11ˆ X)X(X'uu'X'X)(X'β EVar
bajo “homo”
pero bajo “hetero” 22)( Iuu'E
11 )(ˆ X)(X'XX'X)(X'βVar
matriz de varianzas-covarianzas
11/08/2011 4
Tipos de u
2
2
2
2
1
...00
.
....
0...0
0...0
n
u
Heteroscedasticidad
1...
.
....
...1
...1
321
21
11
nn
an
n
u
Autocorrelación
11/08/2011 5
2
321
32
2
21
11
2
1
...
.
....
...
...
nnn
n
n
u
Autocorrelación y heteroscedasticidad (modelos ARCH, GARCH,..)
11/08/2011 6
Estructura AR (1) de la varianza
Para determinar la estructura de la varianza de los errores en los modelos de serie de tiempo que siguen un proceso autoregresivo de primer orden se puede considerar un modelo de regresión lineal múltiple:
Para encontrar a la matriz se debe reescribir al término de error ut del proceso AR(1) de la forma siguiente:
uXβy ttt uu
),0( 2 Nt
donde
11
i.i.d.
11/08/2011 7
Estructura de la varianza bajo un proceso AR (1)
Para determinar la estructura de la varianza de los errores en los modelos de serie de tiempo que siguen un proceso autoregresivo de primer orden se puede considerar un modelo de regresión lineal múltiple:
Para encontrar a la matriz se debe reescribir al término de error ut del proceso AR(1) de la forma siguiente:
uXβy ttt uu
),0( 2 Nt
donde
11
i.i.d.
11/08/2011 8
ttt uu 1Sea
121 ttt uu
232 ttt uu ………………………………..
… (1)
ttttttt uuu 12
2
12 )(sustituyendo en (1)
ttttu 123
2 )(
ttttu 12
2
3
3
Al hacerlo de forma repetida, ordenando se obtiene
...3
3
2
2
1 tttttu
0s
st
s
tu … (2)
11/08/2011 9
Ahora tomando E(ut) y Var(ut) de (2) se tiene
0
0)()(s
st
s
t EuE
… (3)
0
2
0
)()()(s
st
s
s
st
s
t VarVaruVar
0
22
s
s
… (4) 2
2
1)(
tuVar
0)( tuE
11/08/2011 10
Finalmente, se calcula Cov (ut,us)
1111 )(),(),( ttttttt uuEuuEuuCov
2
2
11
),(
tt uuCov … (5)
2
2
1),(
s
stt uuCov
)()( 1
2
11
2
1 tttt uVaruEuuE
t
En general, la covarianza entre los términos de error que estan separados por s peridos esta dada por
… (6)
11/08/2011 11
El coeficiente de correlación coincide con la covarianza siendo:
1...
.......
...1
...1
...1
1
321
32
2
12
2
2
nnn
n
n
n
s
stt uuCov ),( … (7)
De esta manera, se tiene
11/08/2011 12
Como se puede observar a partir de , dado que es un valor entre -1 y +1, bajo el esquema AR(1) la varianza de ut continua siendo constante (homoscedástica), no obstante los ut esta correlacionados. Un aspecto crucial radica en que si | < 1 | el proceso AR(1) se dice ser estacionario. Si | < 1 |se puede ver de (5) que el valor de Cov(ut,ut-1) disminuye conforme se retroceda en el tiempo (s)
1...
.......
...1
...1
...1
1
321
32
2
12
2
2
nnn
n
n
n
11/08/2011 13
Medidas correctivas
Si la autocorrelación de ut es impura se debe trabajar más en la especificación del modelo. Si la autocorrelación de ut es pura se debe transformar el modelo, pudiendo considerar alguna de las siguientes posibilidades, según sea el caso en estudio:
1) Emplear mínimos cuadrados generaliza-dos;
2) Utilizar los errores estándar robustos Newey-West (solo para muestras grandes); o
3) Conservar a los estimadores de MCO.
11/08/2011 14
Mínimos cuadrados generalizados (MCG)
Se parte del modelo
Se pueden considerar dos casos:
uXβy ttt uu
),0( 2 Nt
donde
11
i.i.d.
i. Cuando se conoce ; y ii. Si no se conoce
11/08/2011 15
i) conocida
Dado que la relación planteada por el modelo se cumple para el periodo t, también lo hará para el periodo t-1, razón por la que se puede considerar el modelo;
esto es
)()()1( 11211 tttttt uuxxyy bb
ttt xy bb *
2
*
1
*
En este proceso se pierde una observación, debido a que la primera observación no tiene antecedente. Para evitar la perdida la primera observación se emplea la transformación Prais-Winsten.
2
1 1 y 2
1 1 x
11/08/2011 16
ii) no conocida
Mantiene el principio de la primera diferencia generalizada, esto es:
o bien
)()()1( 11211 tttttt uuxxyy bb
ttt xy b 2
La experiencia ha mostrado que este procedimiento resulta adecuado cuando:
1si
i. || > 0.8 ; o ii. DW es muy bajo; o iii. DW < R2.
Una característica importante es que el modelo en diferencias no tiene intercepto.
11/08/2011 17
el coeficiente asociado a b1 representa a la tendencia en el modelo.
Observe que si r=1 entonces la expresiones (4) y (5) relativas a la varianza de ut bajo autocorrelación de un esquema AR(1), se vuelven infinitas, y la serie se dice no estacionaria.
Por fortuna, una serie no estacionaria se vuelve estacionaria cuando se diferencia.
Si por error se olvida estimar a la ecuación sin intercepto y se efectúa:
ttt xy bb 21
11/08/2011 18
Métodos alternativos para estimar a
Si no cumple con lo sugerido anteriormente se pueden considerar las siguientes posibilidades para estimarla:
• A partir de la relación de con DW, esto es,
21ˆ
DW
• De un modelo de regresión entre residuales, es decir;
ttt uu 1ˆˆ
• Por algún proceso iterativo; los más conocidos son el de Cochrane-Orcutt y Hildreth-Lu.
11/08/2011 19
Método iterativo de Cochrane-Orcutt
Si el modelo esta dado por y se supone un esquema AR(1) (aunque puede ser de otro orden) se tiene el procedimiento siguiente:
ttt uxy 21 bb
a. Se estima el modelo original;
b. Se calcula el coeficiente de correlación entre ut y ut-1, esto es, ;
c. Con ese valor de se construye el modelo transformado de primeras diferencias generali-zadas;
d. Se estima ahora el modelo transformado y nuevamente se procede como en (b);
e.El proceso termina cuando hay convergencia en el valor de estimado.
11/08/2011 20
Errores estandar consistentes o de Newey-West
Se trata de una generalización de los errores estándar corregidos, es decir, son errores estandar HAC (o CHA en español). El procedimiento solo es valido en muestras grandes. Corrigen tanto autocorrelación como heteroscedasti-cidad de los residuales ( a diferencias del método de White que sólo corrije heteroscedasticidad)
11/08/2011 21
Ejemplo: relación salarios-productividad en los Estados Unidos (Gujarati y Porter, 2010, p. 428)
Sea y= índices de renumeración real por hora; x=producción por hora en el sector de negocios de los EUA. Los índices son 1992=100. La muestra va de 1960 a 2005 en forma anual. El modelo esta dado por:
ttt uxy 21 bb
11/08/2011 23
regres y x
Source | SS df MS Number of obs = 46
-------------+------------------------------ F( 1, 44) = 1830.24
Model | 10406.1452 1 10406.1452 Prob > F = 0.0000
Residual | 250.169395 44 5.68566807 R-squared = 0.9765
-------------+------------------------------ Adj R-squared = 0.9760
Total | 10656.3145 45 236.80699 Root MSE = 2.3845
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .6704057 .0156705 42.78 0.000 .6388238 .7019876
_cons | 32.7419 1.394021 23.49 0.000 29.93244 35.55137
------------------------------------------------------------------------------
estat dwatson
Durbin-Watson d-statistic( 2, 46) = .1738879
Modelo lineal
11/08/2011 24
gen ly= ln(y)
gen lx= ln(x)
regress ly lx
estat dwatson
Durbin-Watson d-statistic( 2, 46) = .2175573
Modelo log- log
Source | SS df MS Number of obs = 46
-------------+------------------------------ F( 1, 44) = 2787.79
Model | 1.35891113 1 1.35891113 Prob > F = 0.0000
Residual | .021447845 44 .000487451 R-squared = 0.9845
-------------+------------------------------ Adj R-squared = 0.9841
Total | 1.38035898 45 .030674644 Root MSE = .02208
------------------------------------------------------------------------------
ly | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lx | .6522164 .0123527 52.80 0.000 .6273212 .6771117
_cons | 1.606681 .0547086 29.37 0.000 1.496423 1.716938
------------------------------------------------------------------------------
11/08/2011 25
predict residual, resid
predict rstand, rstand
twoway (line resid t) (line rstand t, yline(0)
Identifición gráfica
-2-1
01
2
1960 1970 1980 1990 2000 2010t
Residuals Standardized residuals
11/08/2011 26
gen res1=L.residual
list residual rstand res1
predict rstud, rstudent
Listado de residuales
11/08/2011 28
sc residual res1, yline(0) xline(0)
Identifición gráfica
-.0
4-.
02
0
.02
.04
Re
sid
ua
ls
-.04 -.02 0 .02 .04res1
11/08/2011 29
list residual if residual>0
list residual if residual<0
Prueba rachas
+----------+
| residual |
|----------|
9. | .0070943 |
10. | .0184093 |
11. | .0247126 |
12. | .016289 |
13. | .0253045 |
|----------|
14. | .0258291 |
15. | .0237442 |
16. | .0111307 |
17. | .0183594 |
18. | .020416 |
|----------|
19. | .0307812 |
20. | .0330232 |
21. | .0316041 |
22. | .0208015 |
23. | .0387192 |
|----------|
+----------+
| residual |
|----------|
24. | .0144167 |
25. | .0017738 |
26. | .0016202 |
27. | .0134708 |
28. | .013725 |
|----------|
29. | .0172319 |
41. | .0108866 |
42. | .0075517 |
43. | .000453 |
+----------+
residual>0
N1=24
(por lo tanto
N2=22 y N= 46)
2423.95652246
)22)(24(21
2)( 21
N
NNRE
)1(
)2(2)(
2
2121
NN
NNNNNRVar
11/08/2011 30
list residual if residual>0
list residual if residual<0
Prueba rachas
+----------+
| residual |
|----------|
9. | .0070943 |
10. | .0184093 |
11. | .0247126 |
12. | .016289 |
13. | .0253045 |
|----------|
14. | .0258291 |
15. | .0237442 |
16. | .0111307 |
17. | .0183594 |
18. | .020416 |
|----------|
19. | .0307812 |
20. | .0330232 |
21. | .0316041 |
22. | .0208015 |
23. | .0387192 |
|----------|
+----------+
| residual |
|----------|
24. | .0144167 |
25. | .0017738 |
26. | .0016202 |
27. | .0134708 |
28. | .013725 |
|----------|
29. | .0172319 |
41. | .0108866 |
42. | .0075517 |
43. | .000453 |
+----------+
residual>0
N1=24
(por lo tanto
N2=22 y N= 46)
2423.95652246
)22)(24(21
2)( 21
N
NNRE
)1(
)2(2)(
2
2121
NN
NNNNNRVar
11/08/2011 31
regress ly lx
estat bgodfrey
Prueba Breusch-Godfrey
Breusch-Godfrey LM test for autocorrelation
---------------------------------------------------------------------------
lags(p) | chi2 df Prob > chi2
-------------+-------------------------------------------------------------
1 | 34.020 1 0.0000
---------------------------------------------------------------------------
H0: no serial correlation
11/08/2011 32
Método Cochrane-Orcutt
prais y x, corc
Cochrane-Orcutt AR(1) regression -- iterated estimates
Source | SS df MS Number of obs = 45
-------------+------------------------------ F( 1, 43) = 193.55
Model | 160.769164 1 160.769164 Prob > F = 0.0000
Residual | 35.7178906 43 .83064862 R-squared = 0.8182
-------------+------------------------------ Adj R-squared = 0.8140
Total | 196.487054 44 4.46561487 Root MSE = .9114
------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .5722474 .0411331 13.91 0.000 .4892947 .6552002
_cons | 42.97793 4.315771 9.96 0.000 34.27435 51.68152
-------------+----------------------------------------------------------------
rho | .8809751
------------------------------------------------------------------------------
Durbin-Watson statistic (original) 0.173888
Durbin-Watson statistic (transformed) 1.631290
11/08/2011 33
Errores estándar HAC Newey-West
newey y x, lag(1)
Regression with Newey-West standard errors Number of obs = 46
maximum lag: 1 F( 1, 44) = 777.86
Prob > F = 0.0000
------------------------------------------------------------------------------
| Newey-West
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x | .6704057 .0240373 27.89 0.000 .6219616 .7188498
_cons | 32.7419 2.269985 14.42 0.000 28.16705 37.31676
------------------------------------------------------------------------------