___________________________ CORSO DI ECONOMETRIA___________________________
Prof. Paolo Mattana
Lezione n° 8
La violazione delle assunzioni classiche
Dipartimento di EconomiaUniversità degli Studi di Cagliari
Dobbiamo considerare:
- la presenza di regressori stocastici e la multicollinearità
- la violazione delle assunzioni classiche
…….più tardi non stazionarietà
VIOLAZIONI DELLE IPOTESI CLASSICHE
REGRESSORI STOCASTICI
Abbiamo finora considerato il caso di regressori deterministici
Tuttavia, abbiamo sempre sottolineato che questo caso non siattaglia ai dati econometrici
Cosa succede alle proprietà degli stimatori quando prendiamo in considerazione regressori stocastici?
Dobbiamo aggiungere l’assunzione di indipendenza fra residui e regressori
NB: studieremo bene le implicazioni della violazione di questa particolare assunzione sui residui
REGRESSORI STOCASTICI
Correttezza: lo stimatore OLS continua a essere corretto
Partendo da: ( ) YX'XX'β -1=ˆ
( ) ( ) ( ) ( ) εX'XX'XβX'XX'εXβX'XX'β -1-1-1= +=+ˆ
( ) εX'XX'ββ 1-+=ˆ
( ) ( ) ( )εEX'XX'ββE -1+=ˆ
( ) ββE =ˆ
REGRESSORI STOCASTICI
Efficienza: lo stimatore OLS presenta varianza minima
Consideriamo la seguente matrice simmetrica k x k:
( )( ) =ˆˆ 'β-ββ-βE
( ) ( )( ) ( )( )( )( ) ( ) ( )( )
( )( ) ( )( ) ( )ˆˆˆˆˆ
ˆˆˆˆˆ
ˆˆˆˆˆ
2
kk22kk11kk
kk22
2
221122
kk112211
2
11
-----
-----
-----
ββEββββEββββE
ββββEββEββββE
ββββEββββEββE
= =
REGRESSORI STOCASTICI
( ) ( ) ( )( ) ( ) ( )
( ) ( ) ( )2k2k1k
k2
2
212
k111
--
--
--
βVarββCovββCov
ββCovβVarββCov
ββCovββCovβVar 2
ˆˆˆˆˆ
ˆˆˆˆˆ
ˆˆˆˆˆ
=
Siccome :
( ) εX'XX'ββ -1= +ˆ
( )( ) ( )[ ] ( )[ ]( ) ( ) ( ) 1-1-
1-1-
=
==ˆˆ
XX'Xεε'EX'XX'
XX'Xε'εX'XX'E'
β-ββ-βE
REGRESSORI STOCASTICI
Siccome:
( ) ( )( )
( ) ( ) ( )
( ) ( ) ( ) 1-1-1-
1-1-
==
==
==
XX'σXX'XX'XX'σ
XX'XIσX'XX'
βVar
22
2
'β-ββ-βE ˆˆˆ
( ) Iσεε'E 2=
Consistenza: lo stimatore OLS preserva le proprietà di consistenza
PLIM
Efficienza asintotica: lo stimatore OLS collassa più velocemente (tra tutti gli stimatori della sua classe) sul valore della popolazione
(Non diamo le dimostrazioni)
ββ =ˆ
REGRESSORI STOCASTICI
Sembrerebbe che la generalizzazione delle ipotesi classiche pertener conto di regressori stocastici non abbia fatto troppi danni.
Tuttavia, come avremo modo di studiare nel dettaglio:
L’ipotesi di indipendenza fra errori e variabili indipendenti è spesso violata nella realtà
Dovremo studiare opportuni rimedi
MULTICOLLINARITÀ
Nel caso di regressori stocastici, un problema che diventa rilevanteè quello della multicollinarità
Abbiamo già visto la multicollinarità (perfetta) quando le Xsono linearmente legate l’una con l’altra.
Cosa succede nel caso di regressori stocastici?
NB: non è un problema di causalità, basta che le X siano correlate
In questo caso, la multicollinarità non è PERFETTA:
può essere calcolata e l’analisi può procedere
MULTICOLLINARITÀ
1XX'
Tuttavia, la multicollinarità può causare problemi
A mano a mano che il grado di multicollinarità aumental’ammontare di informazione indipendente si riduce
Il problema della multicollinarità, nel caso di regressori stocasticidiventa l’insufficiente informazione campionaria
MULTICOLLINARITÀ
Quando la correlazione tra le X è bassa, OLS ha molta informazione con cui procedere a stimare beta.
Sono abbastanza sicuro del reale impatto delle due X su Y
Y
X1
X2
MULTICOLLINARITÀ
Quando invece la correlazione fra le X è elevata, l’area di informazione indipendente si riduce.
Ciò ci rende relativamente insicuri su quale sia il reale impatto delle due X su Y
Y
X1
X2
MULTICOLLINARITÀ
Dal punto di vista matematico ciò dipende dal fatto che il Det di X’X tende a zero e quindi gli elementi della matrice diventano arbitrariamente grandi. In un contesto con 2 variabili indipendentiX, può dimostrarsi che:
dove r è il coefficiente di correlazione campionaria fra le due X
∑ )1(=)ˆ( 22
2
2
2 rx
σβVar
-
∑ )1(=)ˆ( 22
3
2
3 rx
σβVar
-
MULTICOLLINARITÀ
Pur essendo OLS è ancora BLUE
deduciamo che la multicollinarità aumenta lo SE dei beta.
NB:
Ciò implica che i t-ratio tenderanno a essere bassi e a non farcirifiutare l’ipotesi nulla di non significatività dei regressori
In conclusione, la multicollinità è un problema solo se porta al nonRifiuto dell’ipotesi nulla di non significatività statistica dei regressori
MULTICOLLINARITÀ
SEGNI RIVELATORI
La statistica F è significativa ma i singoli coefficienti no
R2 molto elevato ma i singoli t-stat sono bassi; non esiste un particolare valore/soglia per sostenere che R-squared è troppo elevato. In linea generale, se R2 è più elevato di 0.9 e i beta non sono significativi c’è da preoccuparsi
I coefficienti sono elevati ma statisticamente non significativi
Gli SE dei beta cambiano ragguardevolmente quando altre variabili sono incluse o rimosse, ma non così i coefficienti
MULTICOLLINARITÀ
DIAGNOSTICA
Metodologia di Farrar/Glauber
Regredire ciascuna X su tutte le altre e computare i coefficienti di determinazione (ausiliari);
Se esiste una (quasi) relazione lineare, allora almeno un R-squared sarà molto elevato;
MULTICOLLINARITÀ
Abbiamo già discusso il fatto che: esistono 2 motivi (principali) che possono portare a E(ee’) σ2I
Gli elementi lungo la diagonale principale possono variare;
Gli altri elementi possono non essere tutti zero.
RESIDUI “NON SFERICI”
Il problema della non-constanza della varianza dell’errore è conosciuto come HETEROSKEDASTICITY
Il problema delle covarianze non nulle degli errori è conosciuto come AUTOCORRELATION
Sono problemi differenti che nascono in contesti diversi (dati di natura diversa)
Le implicazioni per le proprietà degli stimatori OLS sono le stesse
RESIDUI “NON SFERICI”
-IMPLICAZIONI (uguali per heteroschedasticità e corr. seriale)
-DIAGNOSI (test diversi per ogni problema)
-EVENTUALI RIMEDI (trasformazioni GLS del modello)
RESIDUI “NON SFERICI”
Le cause dell’eteroschedasticità
E’ un problema che si trova in dati cross-section (specialmente dati aggregati);
L’accuratezza delle misurazioni può differire tra le unità prese in considerazione;
L’errore può essere proporzionale alla grandezza dell’unità presa in considerazione (esempio GDP).
….abbiamo già visualizzato nel modello bivariato
RESIDUI “NON SFERICI”
Le cause dell’autocorrelazione. Nasce nelle time-series
E’ possibile anche l’autocorrelazione nelle cross section. Si parla allora di correlazione “spaziale” che ha un significato preciso ed è difficile da trattare
Errori di misurazione (autocorrelati) Struttura dinamica Forma funzionale errata (non genuina)
….abbiamo già visualizzato nel caso bivariato
Proviamo a generare una serie artificiale autocorrelata
RESIDUI “NON SFERICI”
Cosa succede se abbiamo una violazione delle assunzioni sulcomportamento dei disturbi?
NB:
la matrice ee’ non si conforma alle ipotesi classiche
Lo stimatore OLS:
non è coinvolto e continua ad essere lineare - corretto - consistente
YX'X)(X'β -1ˆ
RESIDUI “NON SFERICI”
La varianza e lo S.E. del coefficiente sono invece coinvolti.
Si ricordi che avevamo dimostrato che:
per cui, se:
→ stiamo supponendo che la varianza dei disturbi non sia cost
- La formula per il calcolo dello SE di beta è ora sbagliata
1211 )()()εε()()ˆ( -XX'σXX' X'EX'XX'βVar - == -
-1-1 )()()ˆ( XX'VXX'XX'βVar =-12 X)(X'σ
RESIDUI “NON SFERICI”
VεεE =)( ' 12 )( -XX'σV ≠
a) non possiamo utilizzare le procedure inferenziali viste fin qua;
b) OLS non è più BLUE;
c) Dobbiamo ricorrere alle procedure GLS che stimano
(che è lo stimatore BLUE del vettore β vero della popolazione)
Tuttavia V non è conosciuta. La si deve stimare:
Abbiamo a che fare con Feasible Least Squares
RESIDUI “NON SFERICI”
YVX'XVX'β --- 111* )(=
NB:
Le stime GLS implicano una trasformazione del modello di regressione lineare.
Ne studieremo diverse:
Cochrane-Orcutt per il caso dell’autocorrelazione;
WLS per il caso dell’eteroschedasticità.
RESIDUI “NON SFERICI”