wprowadzenie do teorii ekonometrii - wte.dserwa.plwte.dserwa.pl/slajdy/wdte_wyk1.pdf · (regresja...
TRANSCRIPT
Wprowadzenie do teorii ekonometrii
Wykład 1
Warunkowa wartość oczekiwanai odwzorowanie liniowe
2
Zajęcia
• Wykład
• Laboratorium komputerowe
3
Zaliczenie
• EGZAMIN (50%)– Na egzaminie obowiązują wszystkie informacje przekazane
w czasie wykładów (np. slajdy).
• Aktywność na zajęciach (50%)– dodatkowe zadania
co tydzień praca domowa na kolejne zajęcia– obecności warunkiem zaliczenia:
2 nieobecności = ocena 2 (ndst)
• Kontakt: [email protected]• Konsultacje: szczegóły na stronie
Tematy wykładów
• Warunkowa wartość oczekiwana i liniowe odwzorowanie (warunkowa wartość oczekiwana, iteracyjne oczekiwania, model regresji, wariancja błędów regresji, najlepsza liniowa aproksymacja)
• Metoda najmniejszych kwadratów – ujęcie algebraiczne (estymator najmniejszych kwadratów, macierz odwzorowań, analiza wariancji, błędy predykcji, istotne obserwacje)
• Model regresji liniowej (model regresji liniowej, teoria Gaussa-Markowa, miary dopasowania, macierz kowariancji oszacowań, błędy standardowe)
• Teorie asymptotyczne w metodzie najmniejszych kwadratów (granice asymptotyczne, prawo wielkich liczb, zbieżność z prawdopodobieństwem, zbieżność prawie na pewno, zbieżność z dystrybuantą)
• Modele regresji z restrykcjami - sposoby estymacji, własności (metoda najmniejszych kwadratów z warunkami pobocznymi, restrykcje wykluczające, estymator najmniej odległości, błędy specyfikacji, asymptotyczny rozkład)
• Testowanie hipotez statystycznych (hipotezy, test statystyczny, błąd 1 rodzaju, błąd 2 rodzaju, moc testu)
• Metody Monte Carlo, bootstrap, jacknife(symulacja Monte Carlo, estymatory średniej, estymatory wariancji, przedziały ufności, rozkłady symetryczne)
• Endogeniczność, uogólniona metoda momentów, metoda zmiennych instrumentalnych (UMM, MZI, endogeniczność, test warunków identyfikujących, macierz wag)
• Modele regresji nieparametrycznej – estymator jądrowy i funkcje sklejane(regresja nieparametryczna, estymator jądrowy, lokalnie liniowy estymator, funkcje sklejane, addytywnie rozłączne modele)
• Metoda największej wiarygodności, metoda empirycznej wiarygodności(model regresji normalnej, MNW, macierz informacji Fishera, nieparametryczna wiarygodność, estymator empirycznej wiarygodności)
4
Literatura
• Literatura podstawowa: – Bruce Hansen (2017) Econometrics, University of Wisconsin
Departament of Economics, (książka dostępna na stronie: http://www.ssc.wisc.edu/~bhansen/econometrics/Econometrics.pdf)
• Literatura uzupełniająca– James D.Hamilton (1994) Time Series Analysis, Princeton University
Press; – G.Chow (1995) Ekonometria, PWN;– artykuły z czasopism naukowych wybrane przez wykładowcę
5
Literatura do wykładu 1
• Bruce Hansen (2017) Econometrics, rozdział 2
6
Plan
• Funkcja warunkowej wartości oczekiwanej (CEF)
• Iterowane oczekiwania
• Własności CEF
• Liniowa funkcja CEF
• Najlepszy liniowy predyktor
• Liniowe odwzorowanie
• Przyczynowość w modelu regresji
7
Warunkowa wartość oczekiwana
• Wartość oczekiwana zmiennej losowej
• Funkcja warunkowej wartości oczekiwanej (conditional expectation function, CEF):
8
Warunkowa wartość oczekiwana
• Przykład:
9
Warunkowa wartość oczekiwana
• Dyskretne zmienne warunkowe:
• Ciągłe zmienne warunkowe:
10
Warunkowa wartość oczekiwana
• Zapis macierzowy:
– Zmienna losowa, bo warunkowa na zmiennych losowych
– Funkcja zależna od argumentu , bo
11
Rozkład warunkowy
• Niech - łączny rozkład zmiennych
• Rozkład brzegowy zmiennej
• Dla każdego takiego, że warunkowy rozkład względem zdefiniowany jako:
12
Warunkowa wartość oczekiwana
• Funkcja CEF dla ciągłych zmiennych:
Funkcja tak zdefiniowana istnieje jeśli
13
Prawo iterowanych oczekiwań
• Proste prawo iterowanych oczekiwań
Dla zmiennych dyskretnych:
Dla zmiennych ciągłych:
14
Prawo iterowanych oczekiwań
• Prawo iterowanych oczekiwań
• Teoria „warunkowania”
15
Błąd funkcji warunkowej wartości oczekiwanej
• Błąd CEF zdefiniowany jako :
czyli
• Własności błędu CEF (CEF error):
(wykorzystano teorię „warunkowania”)
(wykorzystano prawo iterowanych oczekiwań)
To nie są restrykcje tylko własności: „mean independence”16
Własności błędów CEF
• Własności
4. własność: błąd CEF nieskorelowany z żadną funkcją regresorów
• Wariancja błędu CEF:
3. Własność implikuje:
17
Własności CEF
• CEF najlepszym predyktorem(w sensie błędu średniokwadratowego)
Dowód (wykorzystuje własność 4):
18
Wariancja warunkowa
• Jeżeli to wariancja warunkowa względem zdefiniowana jako:
• Analogicznie dla błędu regresji (CEF):
19
Własności błędu CEF
• Warunkowe odchylenie standardowe:
• Wariancja (bezwarunkowa) błędu CEF:
• Często w praktyce zakłada się, że:
20
Własności błędu CEF
• Homoskedastyczność i heteroskedastyczność:
21
Wpływ regresorów na *
• Wpływ krańcowych zmian regresora na warunkową wartość oczekiwaną :
• I uwzględniając zmienne binarne:
22
Wpływ regresorów na *
• Wektor efektów krańcowych (regression derivative):
• Wpływ krańcowej zmiany x na warunkową wartość oczekiwaną y przy założeniu, że wszystkie inne zmienne w regresji bez zmian
• Wpływ krańcowej zmiany x na y tylko gdy błąd
regresji nie reaguje na zmiany x23
Liniowa funkcja warunkowej wartości oczekiwanej
• Liniowa funkcja:
• Regresja liniowa (linear CEF model / linear regression)
24
Nieliniowa funkcjawarunkowej wartości oczekiwanej
• Przykład funkcji kwadratowej:
• Efekty krańcowe:
• Lepiej interpretować grupowy niż indywidualny wpływ zmiennych
• mierzy efekt interakcji
25
Najlepszy liniowy predyktor
• Przybliżenie nieznanej CEF za pomocą liniowego predyktora
• Liniowy predyktor to funkcja dla
• Założenia:
oznacza długość wektora
26
Najlepszy liniowy predyktor
• Błąd średnio-kwadratowy zdefiniowany jako:
• Definicja: najlepszy liniowy predyktor
27
Najlepszy liniowy predyktor
• Błąd średnio-kwadratowy można zapisać
• Warunek pierwszego rzędu na minimalizację
28
Najlepszy liniowy predyktor
• Wzór na najlepszy liniowy predyktor- liniowe odwzorowanie (linear projection):
• Błąd odwzorowania:
• Regresja (najlepszy predyktor + błąd):
29
Własności liniowego odwzorowania
30
Własności liniowego odwzorowania
• Kowariancja błędu i regresorów:
• Wariancja błędu:
• Rozpiszmy:
gdy jest stała
31
CEF liniowe odwzorowanie
• Liniowa funkcja CEF jest najlepszym liniowym odwzorowaniem, ponieważ .
• Odwrotna zależność – niekoniecznie, ponieważ trudniej spełnić .
32
Najlepsza liniowa aproksymacja
• Średnio-kwadratowy błąd aproksymacji:
• Najlepsza liniowa aproksymacja minimalizuje ten błąd:
• Stąd:
…czyli identycznie jak w liniowym odwzorowaniu 33
Przyczynowość
• Zwykle interesuje nas efekt x na y
• Niech dany będzie model:
obserwowalne zmienne, nieobserwowalne czynniki
34
Przyczynowość
• Ponieważ interesuje nas efekt zmian
przy ustalnoych wartościach to:
• Przykład: (treatment effect)
• Efekt jest losowy i jest funkcją35
Przyczynowość
• Obserwujemy tylko realizacje
Dlatego trudno mierzyć indywidualne efekty
• Można mierzyć uśredniony efekt zagregowany:
36
Przyczynowość
• Chcemy z regresji poznać efekt uśredniony, czyli z wnioskować o
• Z funkcji mamy:
• Krańcowa zmiana:
37
Przyczynowość
• Wniosek: Efekt krańcowy w regresji równy uśrednionemu efektowi przyczynowemu, gdy
, czyli gdy nie zależy od :
38
Przyczynowość
• Wniosek:
– Jeśli czynniki nieobserowalne niezależne od (pod warunkiem regresorów ), to pochodna z regresji mierzy
– Słabsze założenie niż niezależność i
39
Dziękuję
40
Najprostszy model regresji
• Niech
• Regresja tylko ze stałą:
41
Standaryzowany błąd CEF
• Standaryzowany błąd regresji:
• I jego własności:
• „Mean-variance specification”:
42
Podzbiory regresorów
• Niech
• Wtedy:
43
Podzbiory regresorów
• Wyliczmy parametry
44
Model z losowymi parametrami
• Model:
– parametry są losowe i różne dla różnych obiektów, niezależne od
– przykład: wielkość inwestycji jako i stopa zwrotuz inwestycji jako daje dochód
• Niech: i
• Wtedy:
• Czyli liniowa funkcja CEF:45
Model z losowymi parametrami
• Własności:
46
Brakujące zmienne w modelu
• Prawdziwy model:
• Obserwujemy tylko:
• Wyliczamy:
47
Brakujące zmienne w modelu
• Wniosek: chyba że: lub
• Obciążenie spowodowane nieuwzględnieniem ważnej zmiennej w modelu (omitted variable bias)
– różnica między i , czyli
48