simare la volatilità dalle serie storiche
TRANSCRIPT
Introduzione alla Stima della Volatilità con
modelli Statistici
Dott. Luigi Piva
Quantlab Limited
Bridgewater Road
London (UK)
Introduzione
Questo è il primo di una collana di papers che pubblicherò nei prossimi mesi sulla volatilità. Ha un
carattere introduttivo, con lo scopo di avvicinare ad uno studio quantitativo gli operatori che hanno
a che fare quotinianamente con la volatilità, ma che utilizzano, nell’analisi dei mercati finanziari e in
particolare del rischio, approcci tecnici, fondamentali o addirittura discrezionali.
Lo scopo principale è quello di promuovere, tra gli operatori sui mercati finanziari e gli analisti, una
conoscenza approfondita delle dinamiche relative alla volatilità, sia per quanto riguarda il pricing di
strumenti finanziari come le opzioni, sia per quanto riguarda il risk management, argomento di
particolare interesse soprattutto dopo la crisi del 2008.
Nelle pagine seguenti ci occuperemo della la stima della volatilità con metodi statistici.
Successivamente andremo ad approfondire sia le basi teoriche stanno alla base di questa categoria,
in senso ampio, di modelli. Inoltre, vedremo le implicazoni dell’utilizzo di queste metodologie in
termini di analisi del comportamento degli asset finanziari e la componente previsionale dei modelli.
Analizzeremo anche metologie più complesse ed innovative, valutandone il valore aggiunto rispetto
ai modelli presentati nelle pagine seguenti, che agiscono da benchmark, fino all’implementazione di
diversi modelli operativi, della stessa famiglia di quelli da noi utilizzati.
Vedremo, in seguito, anche un’altra categoria di modelli di volatilità che si riferiscono ad analisi
stocastica.
In questo primo contributo, la matematica è più semplice possibile, con continui riferimenti dalle
formule al loro significato e alla loro applicazione concreta. Troppi utenti, appena vedono formule,
tendono ad allontanarsi temendo un’estrema complicazione. Al contrario, gran parte della finanza
quantitativa è relativamente semplice sotto un profilo matematico, una volta digerite le basi e presa
dimestichezza col linguaggio.
Andremo ad analizzare ed implementare in Excel e MC.NET divversi modelli univariati per la stima e
previsione della volatilità realizzata. Lo scopo è quello di fornire immediatamente strumenti analitici
ed operativi a chi si occupa di mercati finanziari (operatori, analisti, ricercatori , studenti,..). Come da
prassi, vediamo modelli che generano una previsione per il periodo immediatamente successivo.
Diversi tipi di volatilità
In finanza quantitativa, nella letteratura classica sul pricing di opzioni, si assume spesso che la
volatilità sia costante. Si pensi a quello che può essere definito il modello di riferimento per le
opzioni, Black-Scholes, dove appunto la volatilità è considerata come un parametro costante.
Chiaramente, questo non è vero, la volatilità cambia costantemente, ci sono periodi di maggiore o
minore volatilità. C’è granularità ed è evidente il fenomeno di “clustering” della volatitlità. Siccome
la volatilità è di estrema importanza in finanza, dal pricing delle opzioni alla misura del rischio degli
investimenti, si cerca continuamente di migliorarne la stima e d creare modelli con capacità
previsionale.
In letteratura, si trova la volatilità menzionata con diversi significati, non è quindi un termine
strettamente univoco. Questo può generare confusione terminologica soprattutto a chi si avvicina
all’argomento, per questo introduciamo una breve descrizione delle diverse definizioni di volatiltià
Actual volatility: misura la casualità nei rendimenti degli assets in ogni particolare istante. L’Actual
volatility è chiaramente molto difficile da stimare correttamente.
Storica o realizzata: una misura retrospettiva , misura l’ammontare di casualità in un dato periodo
del passato. Stimiamo, quindi, la volatilità dal nostro campione, dall’insieme dei
dati a nostra disposizione. Il modo in cui si ottiene tale stime è l’oggetto di
questo paper.
Impicita: è la volatilità che si inserisce nei modelli di pricing delle opzioni, in genere Black-Scholes
per ottenere Il prezzo corrente del’opzione. E’ la volatilità stimata dal mercato, la visione
del mercato Sul livello di volatilità. E’ una misura influenzata da vari fattori, soprattutto da
domanda e offerta sui mercati finanziari, per cui un operatore potrebbe comprare, per
esempio, opzioni Put a premio per coprire posizioni long su equity.
In questo pagine ci occupiamo esclusivamente della volatilità realizzata, ci occuperemo della
volatilità implicita e attuale in seguito, sia per fornire un quadro completo sull’argomento, sia per la
particolare utilità che queste misure rivestono in finanza quantitativa.
Volatilità stimata con metodi statistici: media semplice
Partiamo con la stima più semplice, tuttora utilizzata perlopiù dagli analisti tecnici. Consideriamo
quindi la semplice media mobile. Prendiamo la deviazione standard che , in generale, è una misura
ampiamente usata di volatilità:
𝜎𝑛= volatilità dei rendimenti nel giorno n
Prendiamo in considerazione i rendimenti composti:
𝑢𝑖 = log(𝑆𝑖𝑆𝑖−1
)
In genere, si parla di rendimenti giornalieri, soprattutto quando si analizza il rischio di attività
finanziarie.
La varianza campionaria viene generalmente definita come:
𝜎𝑛2 =
1
𝑚 − 1∑(𝑢𝑛−1 −��)
2
𝑚
1=1
Se, per semplificare, prendiamo l’intero campione, quindi (m-1) viene sostituito da m , anche perché
in genere analizziamo insiemi ampi di dati, consideriamo che la media dei rendimenti sia zero , cioè
�� ≈ 0 , con il rendimento medio ad un periodo che è comunque molto piccolo rispetto alla
deviazione standard, otteniamo:
𝜎𝑛2 =
1
𝑚∑𝑢𝑛−1
2
𝑚
1=1
Che è una varianza ridefinita, una media semplice degli ultimi m rendimenti al quadrato.
Non è chiaramente una stima molto efficace della volatiltà, infatti non viene generalmente usata
dagli operatori professionali e investitori istituzionali ; da lo stesso peso a tutti i dati, non viene
utilizzata anche a causa della lentezza ad adeguarsi alle condizioni attuali. Altro problema, l’effetto
spurio: se per esempio abbiamo una giornata con un ampio rendimento, questo causerà una salita
della volatilità finchè questo dato non esce dal campione.
Grafico 1: esempio dell’effetto spurio su Emini-S&P500, la volatilità misurata con una semplice
media mobile a 30 periodi sale bruscamente dopo tre giorni di discesa violenta, ampi rendimenti
negativi e aumento della volatilità, nell’agosto 2015, per poi rimanere alta fintanto che gli tali
rendimenti negativi non escono dal periodo di calcolo.
Schemi di pesatura
Se cerchiamo di ottenere una stima più realistica della volatilità, possiamo dare più peso ai dati più
recenti .
Invece che pesare ogni rendimento 1
𝑚 , usiamo un peso 𝛼𝑖che varia in modo da dare più peso ai dati
recenti. Avremo quindi:
𝜎𝑛2 = ∑𝛼𝑖𝑢𝑛−1
2
𝑚
1=1
con
∑𝛼𝑖
𝑚
𝑖=1
= 1
Sceglieremo 𝛼 un tale che 𝛼𝑖 < 𝛼𝑗 , quando i > j , cioè 𝛼20 < 𝛼19<𝛼18.... Ancora, diamo più peso ai
rendimenti recenti. Otteniamo quindi un primo schema di pesatura dei rendimenti.
Utilizziamo schemi di pesatura, quindi, per ottenere un modello più responsivo e per attenuare in
modo sostanziale l’effetto spurio.
Schemi di pesatura avanzati
Se esaminiamo i dati, possiamo vedere come la volatilità tenda a muoversi attorno la media a lungo
periodo �� . Quindi cerchiamo di fattorizzare questo nel nostro “modello”:
𝜎𝑛2 = 𝛾��2 +∑𝛼𝑖𝑢𝑛−1
2
𝑚
1=1
Dove è la media della volatilità a lungo periodo e 𝛾 è il peso assegnato ad essa
Anche in questo caso la somma dei pesi deve essere uguale ad uno:
𝛾 +∑𝛼𝑖
𝑚
𝑖=1
= 1
Questa è la forma del modello noto come ARCH(m) (Engle, 1982)
Se definiamo 𝜔 = 𝛾��2, allora:
𝜎𝑛2 = 𝜔 +∑𝛼𝑖𝑢𝑛−1
2
𝑚
1=1
Nelle pagine successive, un primo approfondimento dei modelli ARCH che proseguirà poi nei
prossimi papers.
Media mobile esponenziale
Vediamo uno schema classico e relativamente semplice, diffuso nell’industria da RiskMetrics.
Un caso particolare di media pesata è una media mobile pesata esponenzialmente (EWMA)(Riaz[5]).
In questo caso 𝛼𝑖, decresce esponenzialmente quando ci muoviamo indietro nel tempo, quindi
abbiamo che:
𝛼𝑗+1 = 𝜆𝛼𝑖 dove 0<𝜆 < 1
Quindi
𝜎𝑛2 = ∑𝛼𝑖𝑢𝑛−1
2
∞
1=1
=𝛼1𝑢𝑛−12 +𝛼2𝑢𝑛−2
2 + 𝛼3𝑢𝑛−32 ….
ma abbiamo che
𝛼2 = 𝜆𝛼1
𝛼3 = 𝜆𝛼2 =𝜆2𝛼1
𝛼4 = 𝜆𝛼3 =𝜆3𝛼1
𝛼5 = 𝜆𝛼4 =𝜆4𝛼1
sostituendo:
𝜎𝑛2 =𝛼1𝑢𝑛−1
2 + 𝜆𝛼1𝑢𝑛−22 + 𝜆2𝛼1𝑢𝑛−3
2 ….
sappiamo però che
𝜎𝑛−12 = ∑𝛼𝑖𝑢𝑛−1−𝑖
2
∞
1=1
= 𝛼1𝑢𝑛−22 + 𝜆𝛼1𝑢𝑛−3
2 + 𝜆2𝛼1𝑢𝑛−42 …
quindi
𝜆𝜎𝑛−12 = 𝜆𝛼1𝑢𝑛−2
2 +𝜆2𝛼1𝑢𝑛−32 + 𝜆3𝛼1𝑢𝑛−4
2 …
sostituendo
𝜎𝑛2 = 𝛼1𝑢𝑛−1
2 + 𝜆𝜎𝑛−12
Dove 𝛼1𝑢𝑛−12 rappresenta il rendimenti del periodo precedente e 𝜆𝜎𝑛−1
2 rappresenta la varianza del
periodo precedente.
un’ulteriore semplificazione, coi pesi che sommano a uno:
𝛼1(1 + 𝜆 +𝜆2 + 𝜆3 +⋯) = 1
Per una serie infinita possiamo dire che
(1 + 𝜆 +𝜆2 + 𝜆3 +⋯) = (1 + 𝜆)−1
Quindi
𝛼1 = 1 − 𝜆
Cioè
𝜎𝑛2 = 𝜆𝜎𝑛−1
2 + (1 − 𝜆)𝑢𝑛−12
Con il termine 𝑢𝑛−12 che rappresenta le innovazioni, i rendimenti del peiodo immediatamente
precedente , mentre 𝜆𝜎𝑛−12 che, diciamo, rappresenta tutti i rendimenti precedenti.
I lati positivi dello schema esponenziale dei pesi, rispetto alla semplice media mobile, sono:
sono necessari pochi dati salvati siccome la volatilità del periodo corrente dipende solo dal
dato del periodo precedente
tiene monitorati i cambiamenti della volatilità , cioè se il periodo precedente, diciamo la
giornata di ieri, è stata molto volatile, allora la stima corrente considererà questo evento
il parametro 𝜆 governa quanto la stima è sensibile al cambiamento della volatilità in un
singolo periodo, cioè la sua sensibilità alle innovazioni
I lati negativi sono:
non c’è nessun elemento rappresentativo della volatilità di lungo periodo
la previsione della volatilità nel periodo successivo è uguale alla volatilità del periodo
attuale, di fatto quindi non c’è un elemento previsonale
Per quanto riguarda il paramentro 𝜆 , un 𝜆 basso porta a un peso maggiore per il termine 𝑢𝑛−12 ,
quindi il modello è molto sensibile ai rendimenti del periodo precedente, quindi alle novità dai
mercati.
Al contrario, un 𝜆 alto porta ad avere una risposta lenta alle innovazioni.
Considerazioni su RiskMetrics 1994
Il database di RiskMetrics , che è stato creato da J.P.Morgan e reso disponibile nel 1994, usa un
modello EWMA con 𝜆 = 0.94 per stimare le volatilità giornaliere. J.P. Morgan ha trovato che , in un
ampio range di differenti variabili di mercato, questo valore di 𝜆 fornisce previsioni della varianza
che finivano per essere vicine alla varianza realizzata.
La metodologia di RiskMetrics è stata largamente usata soprattutto per misurare il rischio di mercato
tramite il Value at Risk. Basandosi sull’assunzione di normalità dei rendimenti, il modello ignora
completamente la presenza di fat tails e skewness nella funzione di distribuzione, caratteristiche
fondamentali dei rendimenti di assets finanziari. In generale, comunque, la buona performance di
RiskMetrics nella stima della volatilità è dovuta principalmente all’orizzonte temporale ravvicinato
nella previsione (un periodo).
Intanto bisogna dare atto a JPMorgan di essere stata la prima istituzione a sviluppare e diffondere su
larga scala una metodologia complessa per la gestione del rischio di mercato , quella basata sul VaR
appunto, strettamente legata, come vedremo, alla misurazione della volatilità. Ancor apiù
importante, probabilmente, è il fatto che la popolarità di RiskMetrics ha permesso la diffusione di un
numero di metodi base di misurazione statistica del rischio.
Vedremo nel dettaglio , nelle seguenti pubblicazioni, i tratti caratteristici della volatiltà, comunque è
risaputo che i rendimenti non sono correlati, mentre i quadrati degli stessi sono fortemente
correlati. Come conseguenza, si osservano periodi prolungati di alta volatilità persistente che sono
seguiti da periodi prolungati di periodi di persistente bassa volatilità, fenomeno definito clustering di
volatilità. Questa caratteristica è incorporata in RiskMetrics dalla scelta del particolare tipo di
processo a media mobile del modello nell’analisi del processo dei prezzi.
RiskMetrics, come dicevamo, fa l’assunzione piuttosto forte che i rendimenti siano condizionalmente
normali, intendendo condizionali alle informazioni disponibili al tempo t , che normalmente consiste
nella serie dei rendimenti passati al tempo t stesso (Note: [a] [b]).
Poichè la deviazione standard dei rendimenti è normalmente molto più ampia della media.
(tipicamente la media dei rendimenti annuali dell’S&P è attorno al 5%, mentre la deviazione
standard è il 15%) La media dei rendimenti viene trascurato nel modello e come conseguenza , la
deviazione standard rimane l’unico parametro della funzione di distribuzione di probabilità
condizionale.
Come visto sopra, RiskMetrics usa un modello amedia mobile con uno schema di pesi esponenziale
per rappresentare la memoria finita del mercato, che possiamo anche scrivere come:
𝜎𝑡+1|𝑡2 = (1 − 𝜆)∑𝜆𝜏
∞
𝜏=0
𝑟𝑡−𝜏2
Dove 𝜆 è il consueto parametro del modello (0 <𝜆 < 1 ).
La notazione 𝜎𝑡+1|𝑡2 enfatizza che la volatilità stimata in un dato periodo (t), in genere un giorno, è in
effetti utilizzata come previsore della volatilità nel periodo successivo (t+1). Per completezza, il VaR
giornaliero ad un livello di confidenza p (per esempio 95%) può essere calcolato, sotto l’assunzione
di normalità, moltiplicando 𝜎𝑡+1|𝑡2 per il quantile (1-p) della distribuzione normale standard.
Per portafogli lineari, cioè che non contengono opzioni, il metodo tipico per ottenere la volatilità è
quello di stimare la matrice di covarianza dei rendimenti degli assets, elemento per elemento,
usando modelli EWMA e successivamente calcolare la volatilità di portafoglio come:
𝜎𝑝2 =∑ 𝜔𝑖𝜔𝑗𝜎𝑖𝑗
𝑖,𝑗
dove 𝜔𝑖 è il peso degli asset i in portafoglio.
La popolarità di RiskMetrics è dovuta alla semplicità del metodo, unita ad un buon livello di efficacia
riscontrata dagli operatori. Prima di tutto, ricordiamo Nelson [3] che ha mostrato come persino
modelli mal specificati possono stimare la volatilità relativamente bene. Più nello specifico, Nelson
evidenzia come , nel caso in cui un processo di generazione dei rendimenti è bene approssimato da
un processo a diffusione, un largo spettro di processi ARCH, anche male specificati, producono
stime consistenti della volatilità condizionale. Dato che RiskMetrics può essere considerato alla
stregua di un modello IGARCH(1,1), il risultato del lavoro di Nelson fornisce una spiegazione naturale
del successo di RiskMetrics.
Nello specifico, la stima di RiskMetrics viene poi utilizzata come previsione della volatilità per il
periodo successivo, tuttavia questo sembra che non ne deteriori in modo significativo l’efficacia del
modello.
I modelli di RiskMetrics sono stati aggiornati e migliorati nel 2006. La stima della volatilità giornaliera
col modello EWMA è stata sostituita da un modello ARCH.
Implementare RiskMetrics 1994 in Excel
Per l’implementazioone in Excel, possiamo facilmente importare dalle pagine finanziarie di Yahoo i
dati giornalieri delle chiusure di S&P e indice VIX:
https://it.finance.yahoo.com/q/hp?s=%5EGSPC
https://it.finance.yahoo.com/q/hp?s=%5EVIX
Lavoriamo chiaramente solo sui dati dell’S&P, mentre il VIX ci serve solo come comodo termine di
confronto generico delle nostre misure di volatilità realizzata con la volatilità implicita (Bourgoin
[10]) .
Importando i dati dell’S&P500, per esempio, avremo:
Calcoliamo, come prima cosa , la colonna dei log-rendimenti giornalieri
Rendimento = log(𝑆𝑖
𝑆𝑖−1)
nel foglio di calcolo:
=LN(B3/B2)
Abbiamo bisogno di un valore iniziale per la varianza, approfittiamo della struttura di Excel che,
nell’occasione, torna utile. Calcoliamo, quindi la varianza dell’intero periodo:
La varianza non-condizionale è (note [a] [b]):
=VAR(C3:C864)
Tale valore viene inserito nel nostro foglio di calcolo nella casella D3, come valore iniziale del calcolo
Successivamente, dal periodo immediatamente successivo, la stima RiskMetrics è uguale a :
=Lambda*D3+(1-Lambda)*C3^2
Che viene annualizzato :
=SQRT(D4*365)
Ovvero, come radice quadrata del valore stimato moltiplicato per 365, numero dei giorni in un
anno. Un’alternativa è moltiplicare per 260, il numero di giorni lavorativi. A questo punto, nella
colonna E del foglio di calcolo, per ogni periodo abbiamo la stima RiskMetrics della volatilità
annualizzata [10] Bourgoin.
Ottimizzare 𝛌 nel modello RiskMetrics
Il gruppo di RiskMetrics suggeriva un 𝜆 pari a 0.94, avendo riscontrato che questo valore offriva
mediamente la stima migliore su un’ampia gamma di asset classes . Tuttavia, noi potremmo volere
adattare tale paramentro al periodo e al mercato di interesse.
Come vedremo in seguito, occupandoci nel dettaglio dell’analisi dei rendimenti delle attività
finanziarie, l’ipotesi standard è quella che i log-rendimenti siano distribuiti normalmente. Per
ottimizzare il parametro utlizzeremo il metodo della Massima verosimiglianza che richiede una
distribuzione di probabilità a cui appoggiarsi.
Stima di Massima Verosimilgianza
La stima di massima verosimiglianza (MLE) è un metodo statistico, in particolare in analisi dei dati,
usato per ottimizzare i dati in un modello. Ancora, oin estrema sintesi, ci chiediamo :
“dato un insieme di dati, quali parametri del modello hanno la maggiore probabilità di produrre
questi dati?”
Da notare, quando usiamo il metodo MLE dobbiamo assumere una distribuzione di probabilità, cioè
un modello parametrico, dopodichè possiamo cercare di determinare i parametri del modello.
Se abbiamo n pezzi di dati iid (indipendenti ed identicamente distribuiti) 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛 con
funzione di densità di probabilità f(𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛; 𝜃) dove 𝜃sono i parametri sconosciuti (Riaz[5]).
Quindi, la funzione di massima verosimiglianza è definita da:
ℒ(𝜃; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) = f(𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛; 𝜃)
Dove 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛 sono i dati e 𝜃 rappresenta il vettore dei parametri, la funzione di log-
verosimiglianza può essere definita come:
𝐿(𝜃; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) = logℒ(𝜃; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛)
Dove la stima di massima verismiglianza dei parametri 𝜃può essere ottenuta massimizzando la
funzione 𝐿(𝜃; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛)
Ipotesi di normalità
Noi facciamo quindi l’ipotesi, per la sola spiegazione ed implementazione del modello, che i
rendimenti siano distribuiti normalmente. A questo punto, abbiamo bisogno di trovare i parametri
𝜔, 𝛼e𝛽 In modo da amssimizzare la funzione di verosimiglianza.
Per ogni periodo calcoliamo:
log[1
𝜎𝑖√2𝜋𝑒
−(𝑢𝑖−��)
2
2𝜎𝑖2
]
quindi, il nostro obiettivo è quello di massimizzare
∑ log[1
𝜎𝑖√2𝜋𝑒−(𝑢𝑖−��)
2
2𝜎𝑖2 ]𝑛
𝑖=1
Distribuzione Normale
Consideriamo una variabile causale X distribuita normalmente tale che 𝑋 ∼ 𝑁(𝜇, 𝜎2), dove𝜇𝑒𝜎2
sono i nostri parametri. Siano (𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) i nostri dati, un campione casuale di osservazioni
iid.
Per trovare lo stimatore di massima verosimiglianza di 𝜇 e 𝜎2 abbiamo bisogno di massimizzare la
funzione di verosimiglianza:
f(𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛; 𝜇 ,𝜎) = f(𝑥1; 𝜇 ,𝜎). f(𝑥2; 𝜇 ,𝜎)…… f(𝑥𝑛; 𝜇 ,𝜎)
abbiamo assunto che I rendimenti siano indipendenti, quindi possiamo riscrivere e definire la
funzione di verosimiglianza:
ℒ (𝜇 ,𝜎; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) = f(𝑥1; 𝜇 ,𝜎). f(𝑥2; 𝜇 ,𝜎)…… f(𝑥𝑛; 𝜇 ,𝜎)
La funzione di Log-verosimiglianza:
L(𝜇 ,𝜎; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) = logℒ (𝜇 ,𝜎; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛)
= log f(𝑥1; 𝜇 ,𝜎)+ log f(𝑥2; 𝜇 ,𝜎)I+….
=∑ logf(𝑥𝑖; 𝜇, 𝜎)𝑛𝑖=1
una distribuzione normale dei log-rendimenti, abbiamo la funzione di distribuzione di probabilità
f(𝑥; 𝜇 ,𝜎) = 1
𝜎√2𝜋𝑒
−(𝑥−𝜇)2
2𝜎2
quindi, sostituendo, otteniamo la funzione di log-verosimiglianza per i rendimenti che
abbiamo ipotizzato essere distribuiti normalmente:
L(𝜇 ,𝜎; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) = ∑ log[1
𝜎√2𝜋𝑒−(𝑥−𝜇)
2
2𝜎2 ]𝑛𝑖=1
Modello fattoriale per il fattore di decadimento 𝝀
Nel precedente esempio di calcolo, non abbiamo usato nessuna ottimizzazione per 𝜆, il fattore di
decadimento temporale dello schema dei pesi. Se vogliamo trovare il fattore di decadiemnto
temporale per la serie storica in questione, ipotizzata una funzione di distribuzione di probabilità
per i rendimenti, utilizziamo la stima di massima verosimiglianza.
Quanto maggiore è il fattore di decadimento, sempre minore di 1, maggiore sarà la cosiddetta half-
life .Per esempio, con un 𝜆 pari a 0.94, quello suggerito da Riskmetrics, il 50% dei pesi è nelle ultime
11 osservazioni. Se il fattore di decadimento aumenta a 0.98 , la half-life aumenta e il 50% dei pesi è
nelle ultime 34 osservazioni. Una differenza non lineare, ma che segue, appunto, uno schema
esponenziale (Bourgoin[10]).
La verosimiglianza basata sull’assunzione di log-normalità , in Excel
calcolata nel foglio di calcolo per ogni periodo è uguale a :
=LN((1/SQRT(2*3.1415927*D3))*EXP(-0.5*C3^2/D3))
Ed è un ottimo esempio di semplice traduzione pratica di una formula dall’apparenza ,
potenzialmente, un po’ ostica.
SI tratta quindi di un classico problema di ottimizzazione vincolata, ovvero trovare il valore di 𝜆 che
massimizza la funzione di verosimiglianza, cioè la somma delle verosimiglianze, col vincolo che sia
maggiore di zero e minore di 1.
Max (ℒ)
0<𝜆<1
Quindi, in una casella avremo la somma dei valori di verosimiglianza:
Nell’esempio abbiamo 2833 valori di verosimiglianza in corrispondenza del database dei rendimenti
giornalieri dell’S&P500, utilizziamo solver di Excel per l’ottimizzazione vincolata, ottenendo il valore
di 𝜆 nel modello EWMA denominato Optimal Decay, cioè col fattore di decadimento ottimizzato
(Bourgoin [10]). Otteniamo:
Quindi, un valore di 𝜆 = 0.9221 leggermente più basso di quello proposto da RiskMetrics 1994.
Di seguito il grafico della volatilità stimata dal modello EWMA Optimal Decay negli ultimi mesi
sull’S&P500:
Modelli ARCH
Nei modelli econometrici convenzionali, la varianza condizionale 𝑦𝑡 non dipendeva da 𝑦𝑡−1 ,
assumendo una previsione della varianza fissa ad un periodo, come già detto, ipotesi non realistica
visti le evidenze empiriche, che poneva grossi limiti alle stima della stessa. Rober Engle (1982)
presenta una nuova classe di processi stocastici, definiti eteroschedastici autoregressivi condizionali
(ARCH) di cui dimostra l’efficacia, in cui la varianza dipende dal passato. Tali processi sono
caratterizzati da media nulla con varianza non condizionale costante. In questi processi, il passato
recente fornisce informazioni sulla previsione ad un periodo della varianza.
Questo modello regressivo ha una varietà di caratteristiche che lo rendono attraente per
applicazioni econometriche. Gli econometrici che implementano modelli previsonali di volatilità
hanno trovato che la loro abilità di prevedere il futuro varia da un periodo all’altro. McNees[4]
suggerisce che “l’incertezza o casualità associata con diversi periodi di previsione sembra variare
considerevolemente nel tempo”, documentando anche che “errori grandi o piccoli tendono a
raggrupparsi in periodi temporali contigui”. McNees[4] in questa analisi spiega immediatamente
l’utilità dei modelli ARCH quando la varianza prevista sottostante può variare nel tempo ed è
prevista dagli errori di previsione passati.
0,00%
5,00%
10,00%
15,00%
20,00%
25,00%
30,00%
35,00%
08
/25
/20
15
08
/31
/20
15
09
/04
/20
15
09
/11
/20
15
09
/17
/20
15
09
/23
/20
15
09
/29
/20
15
10
/05
/20
15
10
/09
/20
15
10
/15
/20
15
10
/21
/20
15
10
/27
/20
15
11
/02
/20
15
11
/06
/20
15
11
/12
/20
15
11
/18
/20
15
11
/24
/20
15
12
/01
/20
15
12
/07
/20
15
12
/11
/20
15
12
/17
/20
15
12
/23
/20
15
12
/30
/20
15
01
/06
/20
16
01
/12
/20
16
01
/19
/20
16
01
/25
/20
16
01
/29
/20
16
02
/04
/20
16
02
/10
/20
16
S&P Optimal Decay
Un’altra interpretazione è che il modello di regressione ARCH sia un’approssimazione per una
regressione più complessa che ha un disturbo non-ARCH. La specificazione ARCH potrebbe quindi
dipendere l’effetto delle variabili omesse dal modello stimato. L’esistenza di un effetto ARCH
sarebbe interpretatocome una prova di specificazione errata, o omettendo variabili o cambiamenti
strutturali. Se questo è il caso, l’ARCH potrebbe essere un’approssimazione migliore della realtà
piuttosto che fare assunzioni standard sui disturbi, ma rimane sottinteso che trovare la variabile
omesa o determinare la natura dei cambiamenti strutturali sarebbe ancora meglio.
Modelli GARCH
I processi ARCH introdotti da Engle (1982) riconoscono esplicitamente la differenza tra la varianza
incondizionale e condizionale, permettendo a quest’ultima a variare nel tempo come funzione degli
errori passati. Le proprietà statistiche di questa nuova classe di modelli parametrici è stata
approfondita successivamente, tra gli altri, da Weiss (1982) e Milhoj (1984) a cui rimandiamo , per
ora, per un approfonidmento teorico.
GARCH(1,1)
Come visto in precedenza, i principali difetti del metodo EWMA sono l’esclusione di elementi della
volatilità a lungo periodo e l’assenza di fattori previsionali effettivi. Se però prendiamo questo
metodo, lo generalizziamo leggermente e aggiungiamo un termine che rappresenta la volatilità a
lungo periodo, otteniamo lo schema del GARCH(1,1), modello che è possibile lavorare al fine, come
vedremo, di produrre previsioni(Riaz[5]).
Il modello GARCH permette che una maggiore flessibilità sia inserita nel processo di volatilità
rispetto al modello Riskmetrics, ma questa complessità ha un costo, l’ottimizzazione dei parametri è
più complessa, le funzioni di massima verosimiglianza offrono spesso difficoltà agli algoritmi di
ottimizzazione, anche per questo utilizziamo un modello GARCH parsimonioso.
Restringiamo la nostra analisi al modello che è quello standars per l’industria finanziaria, il
GARCH(1,1) con un solo ritardo temporale per i residui e per la varianza condizionale.
Questa in estrema sintesi, è l’introduzione allla famiglia dei modelli GARCH che rivedremo ancora
molte volte ed approfondiremo, sia applicato all’analisi della volatilità a sè che applicata al pricing
delle opzioni.
Lo schema GARCH(1,1) è quindi
𝜎𝑛2 = 𝛾��2 + 𝛼𝑢𝑛−1
2 + 𝛽𝜎𝑛−12
Con 𝛾��2che rappresenta la media di lungo periodo, 𝛼𝑢𝑛−12 rappresenta il rendimento del periodo
precedente e 𝛽𝜎𝑛−12 che rappresenta la volatilità del periodo precedente (Riaz[5]).
Per il modello EWMA avevamo che:
𝛼 = 1 − 𝜆 ; 𝛽=𝜆 ; 𝛾 =0
ponendo:
𝜔 = 𝛾��2
Otteniamo:
𝜎𝑛2 = 𝜔 + 𝛼𝑢𝑛−1
2 + 𝛽𝜎𝑛−12
I vincoli del modello sono :
poniamo:
𝛾 + 𝛼 + 𝛽 =1
quindi:
𝛾 =1−𝛼 − 𝛽
e 𝜔
��2=1−𝛼 − 𝛽
��2 =𝜔
1 − 𝛼 − 𝛽
finalmente
𝜔 = ��2 (1−𝛼 − 𝛽)
Inoltre dovremmo avere che:
𝛼 + 𝛽 <1
Altrimenti il peso applicato alla varianza di lungo periodo sarebbe negativo.
Una volta stabilita la forma del modello, dobbiamo trovare i valori dei parametri 𝜔 , 𝛼e𝛽.
Anche in questo caso useremo il metodo della massima verosimiglianza, già introdotto in
precedenza per la stima del parametro nei modelli EWMA Optimal Decay.
Stima dei parametri
Anche in questo caso, assumiamo, per semplicità, che i rendimenti siano distribuiti
normalmente. Sotto questa assunzione, per trovare i valori ottimali di 𝜔 , 𝛼, e 𝛽
massimizziamo la funzione di verosimiglianza.
Per ogni periodo, in genere pari ad un giorno, calcoliamo la funzione di log-verosimiglianza:
log[1
𝜎𝑖√2𝜋𝑒−(𝑢𝑖−𝑢)
2
2𝜎𝑖2
]
Quindi, massimizziamo tale funzione:
∑log[1
𝜎𝑖√2𝜋𝑒−(𝑢𝑖−𝑢)
2
2𝜎𝑖2]
𝑚
𝑖=1
Implementare GARCH in Excel
Lo schema per il modello GARCH:
𝜎𝑛2 = 𝜔 + 𝛼𝑢𝑛−1
2 + 𝛽𝜎𝑛−12
Per applicare il modello dovremo avere delle stime iniziali dei parametri , 𝛼e𝛽 , diciamo
𝛼 = 10%𝛽 = 80%
Definiamo 𝜔 in termini di varianza di lungo termine e gli altri due nostri parametri come:
𝜔 = ��2 (1−𝛼 − 𝛽)
per ridurre il numero di parametri da ottimizzare.
Utilizziamo sempre i dati giornalieri di S&P500 e VIX da Yahoo Finanza:
https://it.finance.yahoo.com/q/hp?s=%5EGSPC
https://it.finance.yahoo.com/q/hp?s=%5EVIX
Lavoriamo sempre solo sui dati dell’S&P, usando sempre il VIX a scopo di confronto generale
sull’andamento
Importando i dati dell’S&P500, per esempio, avremo ancora:
Calcoliamo sempre i log-rendimenti giornalieri
Rendimento = log(𝑆𝑖
𝑆𝑖−1)
nel foglio di calcolo:
=LN(B3/B2)
Come valore iniziale usiamo anche qui la varianza dell’intero periodo, usando tutti dati del
campione a disposizione:
La varianza non-condizionale è ([10] Bourgoin) :
=VAR(C3:C864)
Tale valore viene inserito nel nostro foglio di calcolo nella cella D3, come valore iniziale del calcolo.
E’ utile denominare le celle Excel, chiameremo longrun la cella con la Varianza non-condizionale.
Creiamo tre celle denominate : omega, alpha e beta. Nella casella omega:
=longrun*ABS(1-alpha-beta)
Usiamo il valore assoluto per aiutare, in qualche modo, l’algoritmo di ottimizzazione, nello specifico
solver, per evitare di avere valori negativi. Nelle celle alpha e beta mettiamo, rispettivamente, i
valori inizali di cui sopra, cioè 0.1 e 0.8.
Creiamo altre due celle , sotto quelle dei parametri , per la verosimiglianza, che sarà in questo caso
la log-verosimiglianza, e per i vincoli di ottimizzazione (𝛼 + 𝛽 < 1) , in modo che solver ottimizzi i
valori di alpha e beta .
Inseriamo quindi , nella colonna successiva , la formula per il nostro modello GARCH(1,1)
Ora, quello che vogliao fare , è definire la nostra log-verosimiglianza. Possiamo appoggiarci ad una
funzione di Excel: NORMDIST che calcola la funzione di densità cumulativa di probabilità normale o
la funzione di distribuzione normale per una serie di parametri forniti. La sintassi è la seguente :
NORMDIST( x, mean, standard_dev, cumulative ) . Il primo parametro, x, rappresenta i dati, nel
nostro caso sono i rendimenti giornalieri, il secondo parametro, mean, abbiamo detto che
assumiamo sia zero, la standard_dev è pari alla radice della nostra stima GARCH(1,1). L’ultimo
parametro è un valore booleano (vero/falso), con 0 indichiamo che vogliamo funzione di
distribuzione, come nel nostro caso, mentre con 1 vogliamo la funzione di densità cumulativa.
Quindi la nostra cella likelihood , da ottmizzare sarà semplicemente:
=SUM(I3:I2833)
Con la cella likelihood attiva, che sarà quindi la cella obiettivo, clicchiamo su Solver. Vogliamo
massimizzarne il valore, cambiano le celle alpha e beta, aggiungendo il vincolo che la cella costrain
( =alpha + beta) sia <= 0.999.
Per il nostro campione di 2833 dati giornalieri dell’S&P che vanno dal 3 gennaio 2005 al 17 febbraio
2016 , otteniamo valori ottimali pari a :
𝛼 = 0.1121𝛽 = 0.8764
Otteniamo quindi una stima della volatilità negli ultimi mesi:
Se voglio poi confrontare la stima del modello GARCH(1,1) col VIX o col modello RiskMetrics, devo
annualizzare la stima:
=SQRT(H3*365)*100
Infatti procediamo col confronto tra le stime della volatilità realizzata di GARCH(1,1) e RiskMetrics
Optimal Decay e della volatilità implicita col VIX.
0
5
10
15
20
25
30
35
40
45
08
/19
/20
15
08
/25
/20
15
08
/31
/20
15
09
/04
/20
15
09
/11
/20
15
09
/17
/20
15
09
/23
/20
15
09
/29
/20
15
10
/05
/20
15
10
/09
/20
15
10
/15
/20
15
10
/21
/20
15
10
/27
/20
15
11
/02
/20
15
11
/06
/20
15
11
/12
/20
15
11
/18
/20
15
11
/24
/20
15
12
/01
/20
15
12
/07
/20
15
12
/11
/20
15
12
/17
/20
15
12
/23
/20
15
12
/30
/20
15
01
/06
/20
16
01
/12
/20
16
01
/19
/20
16
01
/25
/20
16
01
/29
/20
16
02
/04
/20
16
02
/10
/20
16
02
/17
/20
16
Garch (1,1)
0,00
20,00
40,00
60,00
80,00
100,00
120,00
03
-ge
n-0
52
6-a
pr-
05
15
-ago
-05
05
-dic
-05
27
-mar
-06
19
-lu
g-0
60
7-n
ov-
06
01
-mar
-07
28
-giu
-07
17
-ott
-07
12
-feb
-08
06
-giu
-08
25
-se
t-0
81
9-g
en
-09
13
-mag
-09
01
-se
t-0
92
1-d
ic-0
91
5-a
pr-
10
04
-ago
-10
24
-no
v-1
01
5-m
ar-1
10
6-l
ug-
11
26
-ott
-11
17
-feb
-12
12
-giu
-12
02
-ott
-12
23
-ge
n-1
31
6-m
ag-1
30
4-s
et-
13
24
-dic
-13
16
-ap
r-1
40
8-a
go-1
41
2/0
1/2
01
40
3/2
6/2
01
50
7/2
0/2
01
51
1/0
9/2
01
5
Vediamo la linea blu è il GARCH(1,1), la linea arancione è il VIX mentre quella grigia è RiskMetrics
Optimal Decay.
Notiamo come il VIX tende ad avere valori più alti del GARCH(1,1) e ancor più del modello Optimal
Decay, soprattutto nei momenti in cui la volatilità è su valori medi, sembrerebbe che il VIX anticipi i
movimenti degli altri due modelli, soprattutto per gli spikes al rialzo. In realtà il tema se il VIX abbia
capacità previsonali rispetto ai modelli ARCH o simili è piuttosto dibattuto in letteratura, ma la
maggior parte delle evidenze,come vedremo, mostrano come valori più elevati del VIX dipendano
soprattutto dalla sua natura di stima di mercato, per cui , tra i vari motivi, sul mercato delle opzioni
gli operatori aggiungono un premio per il rischio, che viene prezzato in parte come volatilità.
Relativamente di recente, il calcolo del VIX è cambiato ed ora è model free. In ogni caso, una
componente mean reverting sembra essere presente anche nel VIX index, spiegando questa
presunta capacità previsionale.
Previsione della volatilità col GARCH(1,1)
Come detto in precedenza, una delle debolezze del modello RiskMetrics (1994) è l’assenza di
capacità previsionali oltre un periodo (Riaz[5]). Possiamo scrivere il Garch (1,1)
𝜎𝑛2 = ��2(1 − 𝛼 − 𝛽) + 𝛼𝑢𝑛−1
2 + 𝛽𝜎𝑛−12
= ��2 − 𝛼 − 𝛽��2 + 𝛼𝑢𝑛−12 + 𝛽𝜎𝑛−1
2
𝜎𝑛2 − ��2 = 𝛼(𝑢𝑛−1
2 − ��2) + 𝛽(𝜎𝑛−12 − ��2)
Quindi, ai fini previsionali, siamo interessati a quello che succede in un periodo n+k futuro.
Manipoliamo per vedere quali sono le aspettative per il futuro.
𝜎𝑛+𝑘2 − ��2 = 𝛼(𝑢𝑛+𝑘−1
2 − ��2) + 𝛽(𝜎𝑛+𝑘−12 − ��2)
Prendendo le aspettative da entrambi i lati dell’equazione, avremo
𝐸[𝜎𝑛+𝑘2 − ��2] = 𝐸[𝛼(𝑢𝑛+𝑘−1
2 − ��2) + 𝛽(𝜎𝑛+𝑘−12 − ��2)]
Sapendo che
𝐸[𝑢𝑛+𝑘−12 ] = 𝜎𝑛+𝑘−1
2
Possiamo porre
𝐸[𝜎𝑛+𝑘2 − ��2] = 𝐸[𝛼(𝑢𝑛+𝑘−1
2 − ��2) + 𝛽(𝜎𝑛+𝑘−12 − ��2)]
= 𝐸[(𝛼 + 𝛽)(𝜎𝑛+𝑘−12 − ��2)]
Essendo (𝛼 + 𝛽) costante ed approfittando della linearità delle aspettative:
𝐸[𝜎𝑛+𝑘2 − ��2] = (𝛼 + 𝛽)𝐸[(𝜎𝑛+𝑘−1
2 − ��2)]
Usiamo ora il risultato per 𝐸[𝑢𝑛+𝑘−12 ]otteniamo:
𝐸[𝜎𝑛+𝑘−12 − ��2] = (𝛼 + 𝛽)𝐸[(𝜎𝑛+𝑘−2
2 − ��2)]
Quindi:
𝐸[𝜎𝑛+𝑘2 − ��2] = (𝛼 + 𝛽)2𝐸[(𝜎𝑛+𝑘−2
2 − ��2)]
Ripetendo queso passaggio otteniamo:
𝐸[𝜎𝑛+𝑘2 − ��2] = (𝛼 + 𝛽)𝑘𝐸[(𝜎𝑛
2 − ��2)]
= (𝛼 + 𝛽)𝑘(𝜎𝑛2 − ��2)
Perché conosciamo il valore di 𝐸[(𝜎𝑛2 − ��2)] e quindi lo possiamo trattare come una costante
Espandendo le aspettative:
𝐸[𝜎𝑛+𝑘2 ] − ��2 = (𝛼 + 𝛽)𝑘 (𝜎𝑛
2 − ��2)
E quindi, finalmente, otteniamo l’equazione per le previsioni :
𝐸[𝜎𝑛+𝑘2 ] = ��2+(𝛼 + 𝛽)𝑘(𝜎𝑛
2 − ��2)
Ora, con l’equazioni di cui sopra, possiamo prevedere la volatilità a (n+k) periodi usando solamente
le informazioni alla fine del periodo (n-1) (Riaz[5]).
Se ripensiamo a quanto detto sul modello EWMA, cioè che la previsione per i periodi n+k è una
costante, vediamo qui che, essendo appunto nel modello EWMA
𝛼 + 𝛽 = 1𝑒𝛾 = 0
L’equazione previsionale diventa:
𝐸[𝜎𝑛+𝑘2 ] = 𝜎𝑛
2
Implentazione in Excel
Creiamo una colonna di valori k corrispondenti alla potenza relativa al giorno di previsione.
Dal 4 gennaio 2016 smettiamo di usare lo schema GARCH(1,1) ed implementiamo la nostra
equazione previsionale
=longrun+(alpha+beta)^C2804*($H$2804*longrun)
Confrontiamo poi le previsioni del modello GARCH con i valori realizzati del modello RiskMetrics
Optimal decay e con la volatilità implicita del VIX:
Vediamo quindi la natura tipica delle previsioni di un modello GARCH. Nel periodo specifico,
l’indicazione era per una volatilità in leggera salita.
In questo lavoro abbiamo peraltro usato uno schema GARCH(p,q) con p = q =1 , mentre è possibile
ricercare valori ottimali per p e q.
Da questo grafico sono evidenti i difetti del modello GARCH, come una lentezza nel rispondere al
movimento del mercato nella stima della volatilità realizzata.
Per ovviare a tali difetti, come vedremo nei lavori successivi, sono stati create diverse rielaborazioni
partendo proprio dallo schema GARCH(p,q), come i modelli EGARCH, GJR-GARCH, AGARCH, NGARCH
ed altri che vedremo.
Conclusioni
Abbiamo quindi visto come sono costruiti i principali modelli statistici di stima della volatilità
realizzata che vengono utilizzati come benchmark.
L’ampiezza dei dati end-of-day disponibili su Yahoo Finanza permetterà all’utente
interessato di analizzare il comportamento dei modelli introdotti su serie storiche reali.
Ricordo che i modelli utilizzati, per quanto iscretamente efficienti, non sono consigliati per
un utilizzo speculativo .
Nei prossimi papers vedremo anche modelli stocastici di volatilità e approfondiremo
laragamente i modelli statistici che abbiamo appena iniziato a vedere.
Notes
[a] varianza condizionale: In teoria delle probabilità e statistica, una varianza condizionale è
la varianza di una distribuzione di probabilità condizionata. Cioè, è la varianza di una
variabile casuale dato il valore o i valori di una o più altre variabili. In particolare in
econometria, la varianza condizionale è anche conosciuto come la funzione schedastica.
0
5
10
15
20
25
301
0/0
1/2
01
5
10
/06
/20
15
10
/09
/20
15
10
/14
/20
15
10
/19
/20
15
10
/22
/20
15
10
/27
/20
15
10
/30
/20
15
11
/04
/20
15
11
/09
/20
15
11
/12
/20
15
11
/17
/20
15
11
/20
/20
15
11
/25
/20
15
12
/01
/20
15
12
/04
/20
15
12
/09
/20
15
12
/14
/20
15
12
/17
/20
15
12
/22
/20
15
12
/28
/20
15
12
/31
/20
15
01
/06
/20
16
01
/11
/20
16
01
/14
/20
16
01
/20
/20
16
01
/25
/20
16
01
/28
/20
16
02
/02
/20
16
02
/05
/20
16
02
/10
/20
16
Previsione 2016
VIX GARCH Opt Decay
[b] varianza incondizionale: è semplicemente la varianza storica, non prende in
considerazione le informazioni disponibili oggi. Tratta tutte le informazioni con lo stesso
peso.
[1] RiskMetrics Group (1996) RiskMetrics – Technical Document , New York ,JP
Morgan/Reuters
[2] Alexander C. (1996) “Evaluating the use of RiskMetrics as a Risk Measurement Tool for
Operations: what are advantages and limitations?” Derivatives : use Trading and Regulation.
[3] Nelson D.(1992) “Filtering and Forecasting with misspecified ARCH models: getting the
right variance with the wrong model” Journal of Econometrics.
[4] McNees S. S. : “The Forecasting Record of 1970’s” New England Economic Review,
September/October 1979
[5] Riaz A. “Introduction to Volatility Trading” CQF-Fitch lectures 2012
[6] Riaz A. “Stochastic Volatility ” CQF-Fitch lectures 2012
[7] Andersen G. , Bollerslev T., Diebold F. , Ebens H. (2001):”The Distribution of Realized
Stock Returns Volatility ” Journal of financial Economics
[8] Zumbach G., (2006) : “The RiskMetrics 2006 Methodology” RiskMetrics Group
[9] Bollerslev T. (1986) “Generalized Autoregressive Conditional Heteroskedasticity” Journal
of Econometrics
[10] Bourgoin F. (2003) “Applied Volatility and Correlation Modelling Using Excel” Wiley
References
Black F., Scholes M. (1973) “The pricing of Options and Corporate Liabilities” Journal of
Political Economy
Bates D. (1996) “Jumps and Stochastic Volatility: Exchange Rate Process Implicit in PHLX
Deutschemark Options”
Jackwerth J. , Rubinstein M. (1996) : “Recovering Probabilities Distributions from Option
Prices” Journal of Finance
Ritchey R.J. (1990) : “Call Options Valuations for Discrete Normal Mixtures” , Journal of
Financial Research
Shimko, D. (1994) “A Tail of Two Distributions” Risk ”
Bollerslev T., Chou R.Y., (1992) “ARCH modeling in finance a selective review of the theory
and empirical evidence” Journal of Econometrics
Engle R.F., (1993): “Measuring and Testing the impact of news on Volatility” Journal of
Finance
Fama E.F., (1965) : “The Behavior of Stocks Market Prices” Journal of Businness
Jacquier E., Marcus A.J., (2000): “Market Volatility and Asset Correlation structure” working
paper Boston College