Download - Ekonometria stosowana
Andrzej Torój - Lato 2013/2014
Ekonometria stosowana
Wykład 2
Autokorelacja składnika losowego
Sferyczność macierzy E(eeT)
2
n
n
T EE
...... 21
2
1
221
22
221
1212
1
...
.........
...
nnn
n
n
E
221
22
221
1212
1
...
.........
...
EEEEEEEE
EEEEEEEE
EEEEEEEE
nnn
n
n
nnn
n
n
VarCovCov
CovVarCov
CovCovVar
...
.........
...
21
2221
1211
2
2
2
...00
.........
00
0...0
.
KMNKzał
Dodatnia autokorelacja
-0.25
-0.2
-0.15
-0.1
-0.05
0
0.05
0.1
0.15
0.2
0.25
1960 1970 1980 1990 2000
resz
tyReszty regresji = (obserwacje - wyrównane l_g_pop)
Dlaczego autokorelacja jest zła?(1)
4
E
yXXX TT 1ˆ
... nie skorzystaliśmy z założenia o sferycznej macierzy kowariancji składnika losowego, więc jego złamanie nie spowoduje, że parametry będą obciążone.
(Pamiętajmy, że autokorelacja może być symptomem błędu specyfikacji, a ten może powodować obciążenie.)
XXXXE TT 1
TTTT XXXXXXXE11
TT XXXE1
yXXXE TT 1
Dlaczego autokorelacja jest zła?(2)
Var
12121 XXXXIXXXX TTTT
przy sferycznych zakłóceniach:
112121 XXXXXXXXXXXX TTTTTT
przy niesferycznych zakłóceniach:
z diagonali tej macierzy otrzymujemy błędy standardowe oszacowań
WNIOSKI:
• utrata efektywności
• błędne wnioskowanie oparte na macierzy kowariancji skł. losowego
• nieadekwatność wnioskowania ze statystyk t i F
TE ˆˆ
11XXXXXXE TTTT
11
XXXEXXX TTTT
TT XXX1ˆ
Przyczyny autokorelacji
Inercja zjawisk gospodarczychÞ Podejście autokorelacyjne
Błąd specyfikacji modelu– Funkcyjnej– Dynamicznej– Pominięcie zmiennej objaśniającej
Þ Podejście respecyfikacyjne
6
Ćwiczenie
funkcja produkcji
rynek paliw w USA– model popytu na benzynę
brytyjskie dane makroekonomiczne– krzywa Philipsa wsparta (adaptacyjnymi)
oczekiwaniami
capitalllaborlvalueaddl ___ 210
PUClPNClincomelgasplpopgl ______ 43210
unempnflid 10._
Test mnożnika Lagrange’a (LM)
8
XySzacujemy podstawowe równanie regresji:
...i drugie pomocnicze równanie, w którym składnik losowy uzależniamy dodatkowo od jego P poprzednich wartości:
PtPKtKtKtt x ...2211'
0TX jeżeli nie ma autokorelacji, poprzednie wartości epsilona nie objaśnią bieżącej
wniosek: R2 pomocniczego modelu powinno być niskie
~2nRLM )(2 P UWAGA! test
asymptotyczny
Test Durbina-Watsona
9
ograniczenia:– model z wyrazem wolnym– bez opóźnionej zmiennej objaśnianiej– normalny rozkład składnika losowego– wykrywa maksymalnie autokorelację rzędu 1– posiada obszar niekonkluzywności
r
e
eed n
ii
n
iii
12
1
2
2
21
autokorelacja ? brak ? autokorelacjadodatnia autokorelacji ujemna
0 dL dU 2 4-dU 4-dL 4
współczynnik autoregresji pierwszego rzędu
Test h-Durbina
10
Odpowiedź Durbina na zarzut, że test DW jest zbyt skłonny nie wykrywać autokorelacji, gdy regresorem jest opóźniona zmienna objaśniana.
(Nerlove, Wallis 1966 – zob. na stronie)
)1(ˆ12
1
tyVarn
nDWd
Wysokie wartości d świadczą o autokorelacji.
d~N(0,1).
Statystyka Ljunga-Boxa
Statystyka testowa, za pomocą której orzekamy, czy występuje autokorelacja do rzędu P włącznie:
Wysokie wartości (statystyczna istotność) Q świadczą o autokorelacji.
P
jn
tt
n
jtjtt
e
ee
jnnnQ
1
1
2
1' 12
Ćwiczenie
Czy w naszych modelach jest autokorelacja?
Czy możemy stosować test DW w każdym z tych trzech przypadków?
Rozważ autokorelację wyższych rzędów.Uzupełnij specyfikację krzywej Philipsa o
regresor d_infl opóźniony o 1 okres. Jaki jest wynik testu h-Durbina?
Odporne błędy oszacowań
Newey i West (1987) skonstruowali estymator macierzy wariancji-kowariancji parametrów w warunkach autokorelacji:
Ttlt
Tlttltt
L
l
n
lt
Tii
n
ii xxxxee
L
l
nxxe
nQ
1 11
2* 1
111ˆ
4/1nL
Ćwiczenie
Oszacuj jeszcze raz modele z odpornymi błędami oszacowań.
Porównaj poprzednie i nowe wartości statystyk t i ich nowe p-value. Jakie decyzje weryfikacyjne uległy (mogły ulec) zmianie?
Uogólniona MNK (UMNK, GLS)
15
Xy 2,0 ~Pomnóżmy obie strony równania lewostronnie:
2/12/12/1 XySkładnik losowy po przekształceniu danych X i y jest sferyczny:
IE
EEVarT
TT
22/122/12/12/1
2/12/12/12/12/1
Estymator UMNK to estymator MNK dla równania z przekształconymi danymi:
yXXXyXXX TTTT
GLS1112/12/1
12/12/1ˆ
UMNK – zastosowanie
Niekiedy znamy (zakładamy) macierz kowariancji parametrów.
Skąd wziąć macierz , W gdy po prostu mamy model z autokorelacją?– Zakładamy określony schemat autokorelacyjny dla składnika
losowego.
– Macierz W jest wtedy funkcją parametrów ri.
– Same parametry ri możemy oszacować na podstawie modelu KMNK.
ttt 1 tttt 2211 itd.
Metoda Cochrane’a-OrcuttaUMNK dla autokorelacji I rzędu
17
ttt 1ttt xy
111 ttt xy 1 ttt
1111 tttttt xxyy
ttttt xxyy 111
1. Model KMNK z autokorelacją, na jego podstawie przyjmujemy r (wsp. autokorelacji I rzędu reszt).
2. Transformujemy dane (y, x) jak wyżej.
3. Szacujemy model na transformowanych danych.
Metoda Praisa-Winstena
Cochrane i Orcutt przy transformacji danych pomijają pierwszą obserwację.
Prais i Winsten nie usuwają jej, a transformują w inny sposób:
1
12
21
*
...
1
nn yy
yy
y
y
1
12
21
*
...
1
nn xx
xx
x
x
Uogólniona metoda Cochrane’a- Orcutta
Ogólniejsza niż klasyczna metoda C-O, ale wciąż szczególny przypadek UMNK
Zakładamy dla składnika losowego proces AR rzędu P:
Z modelu KMNK z autokorelacją szacujemy parametry. Macierz W jest funkcją tych parametrów.
Szacujemy model UMNK za pomocą macierzy W.
t
P
pptpt
1
Ćwiczenie
Oszacuj nasze 3 modele (o ile to uzasadnione) za pomocą UMNK, zakładając autokorelację odpowiedniego rzędu.
Przyjmij autokorelację I rzędu i porównaj wyniki oszacowań metodą C-O, P-W i H-L.
Porównaj parametry modelu UMNK i MNK. Co się zmieniło? Porównaj wyniki różnych testów.
Sprawdź, czy w modelach oszacowanych za pomocą UMNK nie ma dodatkowej autokorelacji. W tym celu zapisz reszty modelu, oszacuj dla nich odpowiedni proces autoregresyjny i dokonaj analizy jego reszt.
21
Literatura do wykładu 2
Welfe 3.1, 3.2– … więcej o opisie problemów spowodowanych autokorelacją składnika
losowego i zróżnicowaniu ich przyczyn Welfe 3.3
– Jak uprościć ogólny schemat autoregresyjny do schematu I rzędu Welfe 3.5-3.7
– UMNK – niektóre warianty Dla chętnych:
– Klasyczny tekst uzasadniający nieadekwatność statystyki DW do modeli autoregresyjnych (na stronie)
– Welfe – cały rozdział 3