cap10

43
UNIVERSIDAD NACIONAL DE INGENIERIA Escuela Profesional de Ingeniería Económica LIBRO DE SERIES DE TIEMPO APLICADO A LAS FINANZAS 1 Rafael Caparó Ethel Guerra Salazar Leslie Guzman Esteban Lisbeth Hidalgo Medina Alex Villalobos Quinde Diego Yamunaque Zavala 28 de julio de 2015 1 Esta versión es para ser mejorada por los alumnos de análisis de series de tiempo de la FIEECS, no se recomienda reproducir, éxitos!

Upload: edu210

Post on 05-Dec-2015

215 views

Category:

Documents


0 download

DESCRIPTION

CAPITULO 10 DE ANALISIS DE SERIES DE TIEMPO

TRANSCRIPT

UNIVERSIDAD NACIONAL DE INGENIERIA

Escuela Profesional de Ingeniería EconómicaLIBRO DE SERIES DE TIEMPO APLICADO A LAS FINANZAS1

Rafael Caparó

Ethel Guerra Salazar

Leslie Guzman Esteban

Lisbeth Hidalgo Medina

Alex Villalobos Quinde

Diego Yamunaque Zavala

28 de julio de 2015

1Esta versión es para ser mejorada por los alumnos de análisis de series de tiempo de la FIEECS, nose recomienda reproducir, éxitos!

2

Índice general

10.Procesos vectoriales estacionarios en covarianza 510.1. Introducción a los vectores autorregresivos . . . . . . . . . . . . . . . . . . . . . . 510.2. Resultados de convergencia y autocovarianza para el proceso vectorial . . . . . . 1010.3. Función generadora de autocovarianza para los procesos vectoriales . . . . . . . . 1510.4. Espectro de los procesos vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . 1810.5. La media muestral de un proceso vectorial . . . . . . . . . . . . . . . . . . . . . . 2810.6. APÉNDICE 10.A. Comprobación de las proposiciones del capítulo 10 . 36

10.6.1. Comprobación de la proposición 10.1 . . . . . . . . . . . . . . . . . . . . . 3610.6.2. Comprobación de la proposición 10.2. . . . . . . . . . . . . . . . . . . . . 3710.6.3. Comprobación de la proposición de 10.3 . . . . . . . . . . . . . . . . . . . 4010.6.4. Comprobación de la proposición 10.4 . . . . . . . . . . . . . . . . . . . . . 41

10.7. Ejercicios del capítulo 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42.

3

4 ÍNDICE GENERAL

Capítulo 10

Procesos vectoriales estacionarios encovarianza

Este es el primero de dos capítulos que introduce a las series de tiempo vectoriales. El capítulo10 está dedicado a la teoría de los sistemas dinámicos multivariados, mientras que el capítulo 11se centra en los aspectos empíricos de la estimación e interpretación de vectores autorregresivos.Solo la primera sección del capítulo 10 es necesaria para entender el material del capítulo 11.La sección 10.1 presenta algunas ideas clave para el análisis de series de tiempo vectoriales.La sección 10.2 desarrolla algunos resultados de convergencia que son útiles para derivar laspropiedades asintóticas de ciertos estadísticos y para caracterizar las consecuencias de los filtrosmultivariados. La sección 10.3 presenta la función generadora de autocovarianzas para proce-sos vectoriales, la cual es usada para analizar el espectro multivariado en la sección 10.4. Lasección 10.5 desarrolla una generalización multivariada de la proposición 7.5, describiendo laspropiedades asintóticas de la media muestral de un proceso vectorial serialmente correlaciona-do. Estos últimos resultados son útiles para derivar estimadores consistentes de autocorrelacióny heterocedasticidad por MCO, para entender las propiedades de los estimadores del métodogeneralizado de momentos discutidas en el capítulo 14, y para derivar algunas de las pruebas deraíces unitarias discutidas en el capítulo 17.

10.1. Introducción a los vectores autorregresivos

El capítulo 3 propone modelar una serie de tiempo escalar yt en términos de una autorregresión:

yt = c+ φ1yt−1 + φ2yt−2 + . . .+ φpyt−p + εt, (10.1.1)

donde

E(εt) = 0 (10.1.2)

E(εtετ ) =

σ2 para t = τ

0 en otro caso.(10.1.3)

5

6 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

Note que continuaremos usando la convención introducida en el capítulo 8 de usar letras mi-núsculas para denotar ya sea una variable aleatoria o su realización. Este capítulo describe lasinteracciones dinámicas entre un conjunto de variables recolectadas en un vector yt de dimen-sión (n× 1). Por ejemplo, el primer elemento de yt (denotado y1t) puede representar el nivel dePNB en el año t; el segundo elemento (y2t), el tipo de interés pagado sobre los bonos del Tesoroen el año t, y así sucesivamente. Un vector autorregesivo de orden p, denotado VAR(p), es unageneralización vectorial de [10.1.1] hasta [10.1.3]:

yt = c + Φ1yt−1 + Φ2yt−2 + . . .+ Φpyt−p + εt. (10.1.4)

Aquí, c denota un vector de constantes de dimensión (n × 1); y Φj denota una matriz decoeficientes autorregresivos de dimensión (n × n), para j = 1, 2, . . . , p. El vector εt, dedimensión (n× 1), es una generalización vectorial del ruido blanco:

E(εt) = 0 (10.1.5)

E(εtε′τ ) =

Ω para t = τ

0 en otro caso,(10.1.6)

con Ω una matriz simétrica de dimensión (n× n) definida positiva.Sea ci el i-ésimo elemento del vector c y φ(1)

ij el elemento de la fila i y la columna j de la matrizΦ1. Entonces, la primera fila del sistema vectorial en (10.1.4) especifica que

y1t = c1 + φ(1)11 y1,t−1 + φ

(1)12 y2,t−1 + . . .+ φ

(1)1n yn,t−1

+φ(2)11 y1,t−2 + φ

(2)12 y2,t−2 + . . .+ φ

(2)1n yn,t−2 (10.1.7)

+ . . .+ φ(p)11 y1,t−p + φ

(p)12 y2,t−p + . . .+ φ

(p)1n yn,t−p + ε1t.

De este modo, un vector autorregresivo es un sistema en el cual cada variable es regresionadasobre una constante y p de sus propios rezagos, así como sobre p rezagos de cada una de lasotras variables en el VAR. Notemos que cada regresión tiene las mismas variables explicativas.Usando la notación del operador de rezagos, [10.1.4] puede ser escrito en la forma:

[In − Φ1L− Φ2L2 − . . .− ΦpL

p]yt = c+ εt,

o

Φ(L)yt = c + εt.

Aquí Φ(L) indica una matriz polinomial de dimensión (n× n) en el operador de rezagos L. Elelemento de la fila i, columna j de Φ(L) es un polinomio escalar en L:

Φ(L) = [δij − φ(1)ij L1 − φ(2)

ij L2 − . . .− φ(p)ij Lp],

donde δij es la unidad si i = j y cero, en otro caso.

10.1. INTRODUCCIÓN A LOS VECTORES AUTORREGRESIVOS 7

Un proceso vectorial yt es llamado estacionario en covarianza si su primer y segundo momento(E[yt] y E[yty′t−j], respectivamente) son independientes de la fecha t. Si el proceso es estacio-nario en covarianza, nosotros podemos tomar esperanza de ambos lados de [10.1.4] para calcularla media µ del proceso:

µ = c + Φ1µ+ Φ2µ+ . . .+ Φpµ,

oµ = (In − Φ1 − Φ2 − . . .− Φp)−1 c.

La ecuación [10.1.4] puede ser escrita en términos de desviaciones respecto de la media, como

(yt − µ) =Φ1(yt−1 − µ) (10.1.8)

+ Φ2(yt−2 − µ) + . . .+ Φp(yt−p − µ) + εt.

Reescribiendo un VAR(p) como un VAR(1)

Como en el caso del proceso AR(p) univariado, es útil reescribir [10.1.8] en términos de unproceso VAR(1). Con este fin, se define

ξt(np×1) ≡

yt − µyt−1 − µ

...yt−p+1 − µ

(10.1.9)

F(np×np) ≡

Φ1 Φ2 Φ3 . . . Φp−1 Φp

In 0 0 . . . 0 00 In 0 . . . 0 0...

...... . . .

......

0 0 0 . . . In 0

(10.1.10)

vt(np×1) ≡

εt

0...0

.

Entonces, el VAR(p) en (10.1.8) puede ser reescrito como el siguiente VAR(1):

ξt = Fξt−1 + vt, (10.1.11)

donde

E(vtv′τ ) =

Q para t = τ

0 en otro casoy

Q(np×np)=

Ω 0 . . . 00 0 . . . 0...

... . . ....

0 0 . . . 0

8 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

Condiciones para la estacionariedad

La ecuación [10.1.11] implica que

ξt = vt+s + Fvt+s−1 + F 2vt+s−2 + . . .+ F s−1vt+1 + F sξt. (10.1.12)

Para que el proceso sea estacionario en covarianza, las consecuencias de cualquier εt dado debeneventualmente extinguirse. Si todos los valores propios de F se encuentran dentro del círculounitario, entonces el VAR será estacionario en covarianza.El siguiente resultado generaliza la proposición 1.1 del capítulo 1 (para una demostración, verel apéndice 10.A al final de este capítulo).

Proposición 10.1. Los valores propios de la matriz F en [10.1.10] satifacen∣∣∣Inλp − Φ1λp−1 − Φ2λ

p−2 − . . .− Φp

∣∣∣ = 0. (10.1.13)

Por ello, un VAR(p) es estacionario en covarianza siempre que |λ| < 1 para todos los valores deλ que satisfacen [10.1.13]. De manera equivalente, el VAR es estacionario en covarianza si todoslos valores de z que satisfacen

|In − Φ1z − Φ2z2 − . . .− Φpz

p| = 0

se encuentran fuera del círculo unitario.

Representación vectorial de un MA(∞)

Las primeras n filas del sistema vectorial representado en [10.1.12] constituyen una generalizaciónvectorial de la ecuación [4.2.20]:

yt+s = µ+ εt+s + Ψ1εt+s−1 + Ψ2εt+s−2 + . . .+ Ψs−1εt+1 (10.1.14)

+F (s)11 (yt − µ) + F

(s)12 (yt−1 − µ) + . . .+ F

(s)1p (yt−p+1 − µ).

Aquí Ψj = F(j)11 y F (j)

11 denota el bloque superior izquierdo de F j , donde F j es la matriz Felevada a la potencia j. Es decir, la matriz F (j)

11 , de dimensión (n×n), indica las filas de la 1 ala n y las columnas de la 1 a la n de la matriz F j de dimensión (np×np). Similarmente, F (j)

12

denota el bloque de F j que consiste en las filas de la 1 a la n y las columnas de la (n+ 1) a la2n, mientras que F (j)

1p denota las filas de la 1 a la n y las columnas de la [n(p− 1) + 1] a lanp de F j .Si todos los valores propios de F se encuentran al interior del círculo unitario, entonces F s → 0conforme s→∞ y yt podría ser expresado como una suma convergente del pasado de ε:

yt = µ+ εt + Ψ1εt−1 + Ψ2εt−2 + Ψ3εt−3 + . . . = µ+ Ψ(L)εt, (10.1.15)

la cual es una representación vectorial de un MA(∞).Note que yt−j es una función lineal de εt−j, εt−j−1, . . . , cada uno de los cuales está incorrela-cionado con εt+1 para j = 0, 1, . . .. De esto se deduce que εt+1 está incorrelacionado con yt−j

10.1. INTRODUCCIÓN A LOS VECTORES AUTORREGRESIVOS 9

para cualquier j ≥ 0. De esta manera, la predicción lineal de yt+1 sobre la base yt, yt−1, . . .

está dada por

yt+1|t = µ+ Φ1(yt − µ) + Φ2(yt−1 − µ) + . . .+ Φp(yt−p+1 − µ),

y εt+1 puede ser interpretado como la innovación fundamental de yt+1; esto es, el error alproyectar yt+1 sobre la base de una función lineal de una constante y yt, yt−1, . . .. De manerageneral, se deduce de [10.1.14] que una predicción de yt+s sobre la base de yt, yt−1, . . . tomarála forma

yt+s|t = µ+ F(s)11 (yt − µ) + F

(s)12 (yt−1 − µ) (10.1.16)

+ . . .+ F(s)1p (yt−p+1 − µ).

Equivalentemente, las matrices de media móvil Ψj pueden ser calculadas como sigue. Los ope-radores Φ(L) y Ψ(L) están relacionados por

Ψ(L) = [Φ(L)]−1,

lo cual requiere

[In − Φ1L− Φ2L2 − . . .− ΦpL

p][In + Ψ1L + Ψ2L2 + . . .] = In.

Ajustando el coeficiente de L1 igual a la matriz nula, como en el ejercicio 3.3 del capítulo 3, sellega a

Ψ1 − Φ1 = 0. (10.1.17)

De forma similar, ajustando el coeficiente de L2 a cero nos da

Ψ2 = Φ1Ψ1 + Φ2, (10.1.18)

y en general, para Ls,

Ψs = Φ1Ψs−1 + Φ2Ψs−2 + . . .+ ΦpΨs−p para s = 1, 2, . . ., (10.1.19)

con Ψ0 = In y Ψs = 0 para s < 0.Note que la innovación en la representación MA(∞) [10.1.15] es εt, la innovación fundamentalpara y. Hay representaciones alternativas de la media móvil basadas en procesos vectoriales deruido blanco distintos de εt. Sea H una matriz no singular de dimensión (n× n), y definimos

ut ≡ Hεt. (10.1.20)

Entonces ut es un ruido blanco. Por otra parte, de [10.1.15] podemos escribir

yt = µ+H−1Hεt + Ψ1H−1Hεt−1 + Ψ2H

−1Hεt−2

+Ψ3H−1Hεt−3 + . . . (10.1.21)

= µ+ J0ut + J1ut−1 + J2ut−2 + J3ut−3 + . . . ,

10 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

dondeJs ≡ ΨsH

−1.

Por ejemplo, H puede ser cualquier matriz que diagonalice a Ω, la matriz de covarianzas de εt:

HΩH ′ = D,

conD una matriz diagonal. Para una elección deH, los elementos de ut no están correlacionadosente sí:

E(utu′t) = E(Hεtε′tH′) = D.

De este modo, siempre es posible escribir un proceso VAR(p) estacionario como una mediamóvil infinita y convergente de un ruido blanco vectorial ut, cuyos elementos están mutuamenteincorrelacionados.Sin embargo, hay una diferencia importante entre las representaciones MA(∞) [10.1.15] y[10.1.21]. En [10.1.15], la matriz de parámetros MA principal (Ψ0) es la matriz identidad; mien-tras que en [10.1.21], la matriz de parámetros MA principal (J0) no es la matriz identidad.Para obtener la representación MA para las innovaciones fundamentales, debemos imponer lanormalización Ψ0 = In.

Supuestos implícitos en un VAR

Para un proceso estacionario en covarianza, los parámetros c y Φ1, . . . ,Φp en la ecuación[10.1.4] pueden ser definidos como los coeficientes de la proyección de yt sobre una constante yyt−1, . . . , yt−p. De este modo, εt está incorrelacionado con yt−1, . . . , yt−p por la definición deΦ1, . . . ,Φp. Los parámetros de un vector autorregresivo pueden en consecuencia ser estimadoscon n regresiones MCO de la forma de [10.1.7]. El supuesto adicional implícito en un VAR es queεt definido por medio de esta proyección es además incorrelacionado con yt−p−1, yt−p−2, . . ..El supuesto de que yt sigue un proceso vectorial autorregresivo es básicamente el supuesto deque son suficientes p rezagos para resumir todas las correlaciones dinámicas entre los elementosde y.

10.2. Resultados de convergencia y autocovarianza para el pro-ceso vectorial

La matriz de autocovarianza j-ésima

Para un proceso vectorial de dimensión n y estacionario en covarianza, la autocovarianza j-ésimase define como la siguiente matrix de dimensión (n× n):

Γj = E[(yt − µ)(yt−j − µ)′]. (10.2.1)

Note que aunque γj = γ−j para un proceso escalar, lo mismo no es cierto para un procesovectorial:

10.2. RESULTADOS DE CONVERGENCIA Y AUTOCOVARIANZA PARA EL PROCESO VECTORIAL11

Γj 6= Γ−j.

Por ejemplo, el elemento (1,2) de Γj nos da la covarianza entre y1t y y2,t−j . El elemento (1,2) deΓ−j nos da la covarianza ente y1t y y2,t+j . No hay ninguna razón por la que estos deban estarrelacionados—La respuesta de y1 a los movimientos anteriores en y2 pueden ser completamentediferentes a la respuesta de y2 a los movimientos anteriores en y1.En lugar de ello, la relación correcta es

Γ′j = Γ−j. (10.2.2)

Para derivar [10.2.2], notemos que la estacionariedad en covarianza significaría que t en [10.2.1]puede ser reemplazado por t+ j:

Γj = E[(yt+j − µ)(y(t+j)−j − µ)′] = E[(yt+j − µ)(yt − µ)′].

Tomando transpuesta,Γ′j = E[(yt − µ)(yt+j − µ)′] = Γ−j,

tal como se ha afirmado.

Proceso vectorial MA(q)

Un proceso vectorial de media móvil de orden q toma la forma

yt = µ+ εt + Θ1εt−1 + Θ2εt−2 + . . .+ Θqεt−q, (10.2.3)

donde εt es un proceso de ruido blanco vectorial que satisface [10.1.5] y [10.1.6] y Θj denotauna matriz de dimensión (n× n) de coeficientes MA para j = 1, 2, . . . , q. La media de yt esµ y la varianza es

Γ0 = E[(yt − µ)(yt − µ)′]

= E[εtε′t] + Θ1[εt−1ε′t−1]Θ′1 + Θ2[εt−2ε

′t−2]Θ′2 (10.2.4)

+ . . .+ Θq[εt−qε′t−q]Θ′q

= Ω + Θ1ΩΘ′1 + Θ2ΩΘ′2 + . . .+ ΘqΩΘ′q,

con autocovarianzas

Γj =

Θ1Ω + Θj+1ΩΘ′1 + Θj+2ΩΘ′2 + . . .+ ΘqΩΘ′q−j para j = 1, 2, . . . , q

ΩΘ′−j + Θ1ΩΘ′−j+1 + Θ2ΩΘ′−j+2 + . . .+ Θq+jΩΘ′q para j = −1,−2, . . . ,−q

0 para |j| > q,

(10.2.5)donde Θ0 = In. De este modo, cualquier proceso vectorial MA(q) es estacionario en covarianza.

12 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

Proceso vectorial MA(∞)

El vector de procesos MA(∞) es escrito como

yt = µ+ εt + Ψ1εt−1 + Ψ2εt−2 + . . . (10.2.6)

donde εt nuevamente satisface [10.1.5] y [10.1.6].

Decimos que una secuencia de escalares hs∞s=−∞ es absolutamente sumable si∑∞s=−∞ |hs| <

∞. Para Hs, una matriz de dimensión (n ×m), la secuencia de matrices Hs∞s=−∞ es ab-solutamente sumable si cada uno de sus elementos forma una secuencia escalar absolutamentesumable. Por ejemplo, si ψ(s)

ij denota el elemento de la fila i y columna j de la matriz deparámetros de media móvil Ψs asociado con el rezago s, entonces la secuencia Ψs∞s=0 esabsolutamente sumable si

∞∑s=0

∣∣∣ψ(s)ij

∣∣∣ <∞ para i = 1, 2, . . . , n y j = 1, 2, . . . , n. (10.2.7)

Muchos de los resultados para los procesos escalares MA(∞) con coeficientes absolutamente su-mables también se cumplen para procesos vectoriales. Esto es resumido por el siguiente teorema,demostrado en el apéndice 10.A de este capítulo.

Proposición 10.2. Sea yt un vector, de dimensión (n× 1), que satisface

yt = µ+∞∑k=0

Ψkεt−k,

donde εt es un ruido blanco vectorial que satisface [10.1.5] y [10.1.6] y, además, Ψk∞k=0 esabsolutamente sumable. Sea yit el elemento i-ésimo de yt; y sea µi el elemento i-ésimo de µ.Entonces

(a) autocovarianza entre la variable i-ésima en el periodo t y la variable j-ésima s periodosatrás, E(yit − µi)(yj,t−s − µj), existe y es dado por el elemento de la fila i, columna jde

Γs =∞∑v=0

Ψs+vΩΨ′v paras = 0, 1, 2, . . .;

(b) la secuencia de matrices Γs∞s=0 es absolutamente sumable.

Si, además, εt∞t=−∞ es una secuencia i.i.d con E |εi1,tεi2,tεi3,tεi4,t| <∞ para i1, i2, i3, i4 =1, 2, . . . , n, entonces también

(c) E |yi1,t1yi2,t2yi3,t3yi4,t4| <∞ para i1, i2, i3, i4 = 1, 2, . . . , n, y para todo t1, t2, t3, t4;

(d) (1/T )∑Tt=1 yityj,t−s

p→ E(yityj,t−s) para i, j = 1, 2, . . . , n y para todo s.

El resultado (a) implica que los momentos de segundo orden de un proceso vectorial MA(∞)con coeficientes absolutamente sumables pueden ser encontrados tomando el límite de [10.2.5]conforme q → ∞. El resultado (b) es una condición de convergencia de los momentos que

10.2. RESULTADOS DE CONVERGENCIA Y AUTOCOVARIANZA PARA EL PROCESO VECTORIAL13

resulta de garantizar que el proceso vectorial sea ergódico en media (ver la proposición 10.5 másadelante en este capítulo). El resultado (c) dice que yt tiene momentos de cuarto orden acotados,mientras que el resultado (d) establece que yt es ergódico para los momentos de segundo orden.Nótese que la representación vectorial MA(∞) de un vector autorregresivo estacionario calculadode [10.1.4] satisface la condición de absoluta sumabilidad. Para ver esto, recordemos de [10.1.14]que Ψs es un bloque de la matriz F s. Si F tiene np valores propios distintos (λ1, λ2, . . . , λnp),entonces cualquier elemento de Ψs puede ser escrito como un promedio ponderado de estosvalores propios como en la ecuación [10.2.20];

ψ(s)ij = c1(i, j) · λs1 + c2(i, j) · λs2 + . . .+ cnp(i, j) · λsnp,

donde cv(i, j) denota una constante que depende de v, i y j pero no de s. Entonces, la absolutasumabilidad [10.2.7] se deduce de los mismos argumentos que en el ejercicio 6.5.

Filtros multivariados

Supongamos que el vector y de dimensiones (n× 1) sigue un proceso MA(∞):

yt = µY + Ψ(L)εt, (10.2.8)

con Ψk∞k=0 absolutamente sumable. Sea Hk∞k=−∞ una secuencia absolutamente sumablepara matrices de dimensión (r × n). Supongamos que xt, un vector de dimensiones (r × 1),está relacionado con yt de acuerdo con

xt = H(L)yt =∞∑

k=−∞Hkyt−k. (10.2.9)

Esto es,

xt = H(L)[µY + Ψ(L)εt]

= H(1)µY +H(L)Ψ(L)εt (10.2.10)

= µX +B(L)εt,

donde µX ≡ H(1)µY y B(L) es el operador compuesto dado por

B(L) =∞∑

k=−∞BkL

k = H(L)Ψ(L). (10.2.11)

La siguiente proposición establece que xt sigue un proceso MA(∞) absolutamente sumable porlos dos lados.

Proposición 10.3. Sea Ψk∞k=0 una secuencia de matrices de dimensión (n× n) absoluta-mente sumable y sea Hk∞k=−∞ una secuencia de matrices de dimensión (r × n) absoluta-mente sumable. Entonces, la secuencia de matrices Bk∞k=−∞ asociado al operador B(L) =H(L)Ψ(L) es absolutamente sumable.

Si εt en [10.2.8] es i.i.d con momentos de cuarto orden finitos, entonces xt en [10.2.9] tienemomentos de cuarto orden finitos y es ergódico para los momentos de segundo orden.

14 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

Vectores autorregresivos

Ahora derivaremos las expresiones para los momentos de segundo orden para yt, siguiendo unVAR(p). Sea ξt como está definido en la ecuación [10.1.9]. Asumiendo que ξ y y son estacionariosen covarianza, denotamos Σ como la varianza de ξ,

Σ = E(ξtξ′t)

= E

yt − µyt−1 − µ

...yt−p+1 − µ

×[(yt − µ)′ (yt−1 − µ)′ . . . (yt−p+1 − µ)′

]

=

Γ0 Γ1 . . . Γp−1

Γ′1 Γ0 . . . Γp−2...

... . . ....

Γ′p−1 Γ′p−2 . . . Γ0

, (10.2.12)

donde Γj denota la autocovarianza de orden j del proceso original y. Postmultiplicando [10.1.1]por su propia transpuesta y tomando esperanza, nos da

E[ξtξ′t] = E[(Fξt−1 + vt)(Fξt−1 + vt)′] = FE(ξt−1ξ′t−1)F ′ + E(vtv′t),

oΣ = FΣF ′ +Q. (10.2.13)

Una solución aproximada a [10.2.13] puede ser obtenido en términos del operador vec. Si Aes una matriz de dimensiones (m × n), entonces vec(A) es un vector columna de dimensión(mn×1), obtenido de apilar las columnas de A, una sobre la otra, con las columnas ordenadasde la izquierda a la derecha. Por ejemplo, si

A =

a11 a12

a21 a22

a31 a32

,entonces

vec(A) =

a11

a21

a31

a12

a22

a32

. (10.2.14)

. El apéndice 10.A establece el siguiente resultado útil.

Proposición 10.4. Sean A, B y C matrices cuyas dimensiones son de tal manera que elproducto ABC existe. Entonces

vec(ABC) = (C′ ⊗A) · vec(B) (10.2.15)

donde el símbolo ⊗ denota el producto de Kronecker.

10.3. FUNCIÓN GENERADORA DE AUTOCOVARIANZA PARA LOS PROCESOS VECTORIALES15

De este modo, si el operador vec es aplicado para ambos lados de [10.2.13], el resultado sería

vec(Σ) = (F ⊗ F ) · vec(Σ) + vec(Q) = A vec(Σ) + vec(Q), (10.2.16)

dondeA ≡ (F ⊗ F ). (10.2.17)

Sea r = np. Así, F es una matriz de dimensión (r × r) y A es una matriz de dimensión(r2 × r2). La ecuación [10.2.16] tiene esta solución:

vec(Σ) = [Ir2 − A ]−1vec(Q), (10.2.18)

con tal que la matriz [Ir2 − A ] sea no singular. Esto será verdad mientras la unidad no seaun valor propio de A . Pero recuerda que los valores propios de (F ⊗ F ) son todos de la formaλiλj , donde λi y λj son valores propios de F . Dado que |λi| < 1 para todo i, todos los valorespropios de A están dentro del círculo unitario, lo que significa que [Ir2 − A ] es, de hecho, nosingular.Las primeras p matrices de autocovarianza de un proceso VAR(p) pueden ser calculadas susti-tuyendo [10.2.12] en [10.2.18]:

vec

Γ0 Γ1 . . . Γp−1

Γ′1 Γ0 . . . Γp−2...

... . . ....

Γ′p−1 Γ′p−2 . . . Γ0

= [Ir2 − A ]−1vec(Q). (10.2.19)

La j-ésima autocovarianza de ξ (denominada Σj) puede ser enconcrada postmultiplicando[10.1.11] por ξ′t−j y tomando esperanzas:

E(ξtξ′t−j) = F · E(ξt−1ξ′t−j) + E(vtξ′t−j).

De este modo,Σj = FΣj−1 para j = 1, 2, . . ., (10.2.20)

oΣj = F jΣ para j = 1, 2, . . ., (10.2.21)

La j-ésima autocovarianza Γj del proceso original yt es dada por las primeras n columnas de[10.2.20]:

Γj = Φ1Γj−1 + Φ2Γj−2 + . . . para j = p, p+ 1, p+ 2, . . .. (10.2.22)

10.3. Función generadora de autocovarianza para los procesosvectoriales

Definición de función generadora de autocovarianza para los procesos vecto-riales

Recuerda que para un proceso univariado estacionario en covarianza yt, con autocovarianzasabsolutamente sumables, la función generadora de autocovarianzas (escalar) gY (z) es definida

16 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

comogY (z) ≡

∞∑j=−∞

γjzj

conγj ≡ E[(yt − µ)(yt−j − µ)]

y z un escalar complejo. Para un proceso vectorial estacionario en covarianza yt, con una se-cuencia de matrices de autocovarianza absolutamente sumable, la función generadora de auto-covarianzas análoga para valores matriciales GY (z) es definida como

GY (z) ≡∞∑

j=−∞Γjzj, (10.3.1)

dondeΓj ≡ E[(yt − µ)(yt−j − µ)]

y z es, de nuevo, un escalar complejo.

Función generadora de autocovarianza para un proceso vectorial de mediamóvil

Por ejemplo, para un proceso vectorial ruido blanco εt, caracterizado por [10.1.5] y [10.1.6], lafunción generadora de autocovarianza es

Gε(z) = Ω. (10.3.2)

Para el proceso vectorial MA(q) de [10.2.3], la expresión univariada [??] para la función gene-radora de autocovarianza se generaliza como

GY (z) = (In + Θ1z + Θ2z2 + . . .+ Θqz

q)Ω (10.3.3)

×(In + Θ′1z−1 + Θ′2z

−2 + . . .+ Θ′qz−q).

Esto puede ser verificado notando que el coeficiente de zj en [10.3.3] es igual a Γj como estádado en [10.2.5].Para un proceso MA(∞) de la forma

yt = µ+ Ψ0εt + Ψ1εt−1 + Ψ2εt−2 + . . . = µ+ Ψ(L)εt,

con Ψk∞k=0 absolútamente sumable, [10.3.3] se generaliza a

GY (z) = [Ψ(z)]Ω[Ψ(z−1)]′. (10.3.4)

Función generadora de autocovarianza para un vector autorregresivo

Consideremos el proceso VAR(1) ξt = Fξt−1 + vt con valores propios de F dentro del círculounitario, con ξt un vector de dimensiones (r× 1) y E(vtv′t) = Q. La ecuación [10.3.4] implicaque la función generadora de autocovarianza puede ser expresado como

Gε(z) = [Ir − Fz]−1Q[Ir − F ′z−1]−1

= [Ir + Fz + F 2z2 + F 3z3 + . . .]Q (10.3.5)

×[Ir + (F ′)z−1 + (F ′)2z−2 + (F ′)3z−3 + . . .].

10.3. FUNCIÓN GENERADORA DE AUTOCOVARIANZA PARA LOS PROCESOS VECTORIALES17

Transformación de procesos vectoriales

La función generadora de autocovarianza de la suma de dos procesos univariados que no estáncorrelacionados entre sí es igual a la suma de sus funciones generadoras de autocovarianza(ecuación [??]). Este resultado fácilmente se generaliza para el caso vectorial:

GX+W (z) =∞∑

j=−∞E[(xt + wt − µX − µW )

×(xt−j + wt−j − µX − µW )′]zj

=∞∑

j=−∞E[(xt − µX)(xt−j − µX)′zj]

+∞∑

j=−∞E[(wt − µW )(wt−j − µW )′zj]

= GX(z) +GW (z).

Nótese también que si un vector ξt de dimensión (r× 1) es premultiplicado por una matriz noestocásticaH ′ de dimensión (n× r), su efecto es igual al de premultiplicar a su autocovarianzapor H ′ y postmultiplicarla por H:

E[(H ′ξt −H ′µξ)(H ′ξt−j −H ′µξ)′] = H ′E[(ξt − µξ)(ξt−j − µξ)′]H,

implicandoGH′ξ(z) = H ′Gξ(z)H.

Juntando esos resultados, consideremos a ξt, el proceso VAR(1) de dimensión r, dado porξt = Fξt−1 + vt, y un nuevo proceso ut, dado por ut = H ′ξt + wy, siendo wt un procesoruido blanco que está incorrelacionado con ξt−j para todo j. Entonces

GU(z) = H ′Gξ(z)H +GW (z),

o, si R es la varianza de wt,

GU(z) = H ′[Ir − Fz]−1Q[Ir − F ′z−1]−1H +R. (10.3.6)

De manera más general, consideremos un vector yt de dimensiones (n× 1), caracterizado por

yt = µY + Ψ(L)εt,

donde εt es un proceso ruido blanco con una matriz de covarianza dada por Ω y donde Ψ(L) =∑∞k=0 ΨkL

k con Ψk∞k=0 absolutamente sumable. De este modo, la función generadora deautocovarianza para y es:

GY (z) = Ψ(z)Ω[Ψ(z−1)]′. (10.3.7)

Sea Hk∞k=−∞ una secuencia de matrices de dimensión (r × n) absolutamente sumable, ysuponga que un vector xt de dimensión (r × 1) es creado de yt, de acuerdo con

xt = H(L)yt =∞∑

k=−∞Hkyt−k = µX +B(L)εt,

18 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

donde µX = H(1)µY y B(L) = H(L)Ψ(L) como en [10.2.10] y [10.2.11]. Entonces, la funcióngeneradora de autocovarianza para x puede ser encontrada de

GX(z) = B(z)Σ[B(z−1)]′ = [H(z)Ψ(z)]Σ[Ψ(z−1)]′[H(z−1)]′. (10.3.8)

Comparando [10.3.8] con [10.3.7], , el efecto de aplicar el filtro H(L) a yt es premultiplicar ala función generadora de autocovarianza por H(z) y postmultiplicarla por la transpuesta deH(z−1):

GX(z) = [H(z)]GY (z)[H(z−1)]′. (10.3.9)

10.4. Espectro de los procesos vectoriales

Sea yt un vector de dimensión (n× 1) con media E(yt) = µ y matriz de k-ésima covarianza

E[(yt − µ)(yt−k − µ)] = Γk. (10.4.1)

Si Γk∞k=−∞ es absolutamente sumable y si z es un escalar complejo, la función generadorade autocovarianza de y es dada por

GY (z) =∞∑

k=−∞Γkzk. (10.4.2)

La función GY (z) asocia una matriz de números complejos de dimensión (n×n) con el escalarcomplejo z. Si [10.4.2] es dividido por 2π y evaluado en z = e−iω, donde ω es un escalar realy i =

√−1, el resultado es el espectro poblacional del vector y:

sY (ω) = (2π)−1GY (e−iω) = (2π)−1∞∑

k=−∞Γke−iωk. (10.4.3)

El espectro poblacional asocia una matriz de números complejos con dimensión (n× n) con elescalar complejo ω.Cálculos idénticos a los usados para establecer la proposición ?? indican que cuando algúnelemento de sY (ω) es multiplicado por eiωk y la función resultante es integrada de −π a π, elresultado es el elemento correspondiente de la k-ésima matriz de autocovarianza de y:∫ π

−πsY (ω)eiωkdω = Γk. (10.4.4)

De esta manera, como en el caso univariado, la secuencia de autocovarianzas Γk∞k=−∞ y lafunción representada por el espectro poblacional sY (ω) contienen la información idéntica.Como un caso especial, cuando k = 0, la ecuación [10.4.4] implica

∫ π

−πsY (ω)dω = Γ0. (10.4.5)

En otras palabras, el área bajo el espectro poblacional es la matriz de covarianzas incondicionalde y.El j-ésimo elemento de la diagonal de Γk es E(yjt − µj)(yj,t−k − µj), la k-ésima autocovarianzade yjt. De este modo, el j-ésimo elemento de la diagonal del espectro multivariado sY (ω) es

10.4. ESPECTRO DE LOS PROCESOS VECTORIALES 19

solamente el espectro univariado del escalar yjt. Se obtiene de las propiedades del espectrounivariado discutido en el capítulo 6 que los elementos de la diagonal de sY (ω) son reales nonegativos para todo ω. Sin embargo, lo mismo no es cierto para los elementos de sY (ω) ubicadosfuera de la diagonal —en general, los elementos de sY (ω) ubicados fuera de la diagonal seránnúmeros complejos.Para lograr más entendimiento de los espectros multivariados, nos concentraremos en el caso den = 2 variables, denotadas

yt =

Xt

Yt

.La k-ésima matriz de autocovarianza es entonces

Γk = E

(Xt − µX)(Xt−k − µX) (Xt − µX)(Yt−k − µY )(Yt − µY )(Xt−k − µY ) (Yt − µY )(Yt−k − µY )

(10.4.6)

γ(k)XX γ

(k)XY

γ(k)Y X γ

(k)Y Y

.Recordamos de [10.2.2] que Γ′k = Γ−k. Por ello,

γ(k)XX = γ

(−k)XX (10.4.7)

γ(k)Y Y = γ

(−k)Y Y (10.4.8)

γ(k)XY = γ

(−k)Y X . (10.4.9)

Para este caso n = 2, el espectro poblacional [10.4.3] sería

sY (ω)

= 12π

∞∑

k=−∞γ

(k)XXe

−iωk∞∑

k=−∞γ

(k)XY e

−iωk

∞∑k=−∞

γ(k)Y Xe

−iωk∞∑

k=−∞γ

(k)Y Y e

−iωk

= 12π

∞∑

k=−∞γ

(k)XXcos(ωk)− i · sen(ωk)

∞∑k=−∞

γ(k)XY cos(ωk)− i · sen(ωk)

∞∑k=−∞

γ(k)Y Xcos(ωk)− i · sen(ωk)

∞∑k=−∞

γ(k)Y Y cos(ωk)− i · sen(ωk)

. (10.4.10)

Usando [10.4.7] y [10.4.8] junto con los hechos de que sen(−ωk) = − sen(ωk) y sen(0) = 0, loscomponentes imaginarios desaparecen de los términos diagonales:

sY (ω)

= 12π

∞∑

k=−∞γ

(k)XX cos(ωk)

∞∑k=−∞

γ(k)XY cos(ωk)− i · sen(ωk)

∞∑k=−∞

γ(k)Y Xcos(ωk)− i · sen(ωk)

∞∑k=−∞

γ(k)Y Y cos(ωk)

. (10.4.11)

20 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

Sin embargo, dado que γ(k)XY 6= γ

(−k)XY ,los elementos fuera de la diagonal son típicamente números

complejos.

El espectro cruzado, coespectro y espectro de cuadratura

El último elemento de la izquierda de la matriz en [10.4.11] es conocido como el espectro cruzadopoblacional de X a Y :

sY X(ω) = (2π)−1∞∑

k=−∞γ

(k)Y Xcos(ωk)− i · sen(ωk). (10.4.12)

El espectro cruzado puede ser escrito en términos de sus componentes real e imaginario como

sY X(ω) = cY X(ω) + i · qY X(ω). (10.4.13)

El componente real del espectro cruzado es conocido como el coespectro entre X y Y :

cY X(ω) = (2π)−1∞∑

k=−∞γ

(k)Y X cos(ωk). (10.4.14)

Uno puede verificar de [10.4.9] y del hecho que cos(−ωk) = cos(ωk) que

cY X(ω) = cXY (ω). (10.4.15)

El componente imaginario del espectro cruzado es conocido como espectro de cuadratura de Xa Y:

qY X(ω) = −(2π)−1x∑

k=−xγ

(k)Y X sen(ωk). (10.4.16)

Uno puede verificar a partir de [10.4.9] y del hecho que sen(−ωk) = − sen(ωk) que el espectrode cuadratura de Y a X es el negativo del espectro de cuadratura de X a Y:

qY X(ω) = −qXY (ω).

Teniendo en cuenta a [10.4.13], estos resultados implican que los elementos que están fuera dela diagonal de sY (ω) sean complejos conjugados el uno del otro; en general, el elemento perte-neciente a la fila j y columna m de sY (ω) es el complejo conjugado del elemento pertenecientea la fila m y columna j de sY (ω).Note que ambos cyx(ω) y qyx(ω) son funciones periodicas reales de ω:

cY X(ω + 2πj) = cY X(ω) para j = ±1,±2, . . .

qY X(ω + 2πj) = qY X(ω) para j = ±1,±2, . . ..

Además, se deduce de [10.4.14] que:

cY X(−ω) = cY X(ω).

10.4. ESPECTRO DE LOS PROCESOS VECTORIALES 21

mientras [10.4.16] implica queqY X(−ω) = −qY X(ω). (10.4.17)

Por ello, el coespectro y el espectro de cuadratura están completamente especificados por losvalores asumen cuando ω se encuentra entre 0 y π.El resultado [10.4.5] implica que la integral del espectro cruzado es la covarianza incondicionalentre X e Y: ∫ π

−πsY X(ω)dω = E(Yt − µY )(Xt − µX).

Observe de [10.4.5] que la integral del espectro de cuadratura es igual a cero:∫ π

−πqY X(ω)dω = 0.

Por lo tanto, la covarianza entre X e Y puede ser calculado a partir del area bajo la curva delcoespectro entre X e Y: ∫ π

−πcY X(ω)dω = E(Yt − µY )(Xt − µX). (10.4.18)

El coespectro entre X e Y en la frecuencia ω puede , de este modo, ser interpretado como laporción de la covarianza entre X e Y que es atribuible a los ciclos con frecuencia ω. Puesto quela covarianza puede ser positiva o negativa, el coespectro puede ser positivo o negativo y, dehecho, cY X(ω) puede ser positivo sobre algunas frecuencias y negativa en otras.

Periodograma de la muestra multivariada

Para lograr una mejor comprensión del coespectro y del espectro de cuadratura, sean y1, y2,

. . . , yT y x1, x2, . . . , xT muestras de T observaciones en las dos variables. Si por ejemplo T esimpar, la proposición 6.2 indicaría que el valor de yt podría ser expresado como:

yt = y +M∑j=1αj · cos [ωj(t− 1)] + δj · sen [ωj(t− 1)], (10.4.19)

Donde y es la media muestral de y, M = (T − 1)/2, ωj = 2πj/T , y

αj = (2/T )T∑t=1

yt · cos [ωj(t− 1)] (10.4.20)

δj = (2/T )T∑t=1

yt · sen [ωj(t− 1)] . (10.4.21)

Una análoga representación para xt es:

xt = x+M∑j=1

aj · cos [ωj(t− 1)] + dj · sen [ωj(t− 1)]

(10.4.22)

aj = (2/T )T∑t=1

xt · cos [ωj(t− 1)] (10.4.23)

dj = (2/T )T∑t=1

xt · sen [ωj(t− 1)] . (10.4.24)

22 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

Recordemos de [6.2.11] que todos los regresores periodicos en [10.4.19] tienen una media muestraligual a cero y son mutuamente ortogonales, mientras

T∑t=1

cos2 [ωj(t− 1)] =T∑t=1

sen2 [ωj(t− 1)] = T/2. (10.4.25)

Considere la covarianza muestral entre x e y:

T−1T∑t=1

(yt − y)(xt − x). (10.4.26)

Sustituyendo [10.4.19] y [10.4.22] en [10.4.26] y aprovechando la ortogonalidad mutua de losregresores periodicos se obtiene que:

T−1T∑t=1

(yt − y)(xt − x)

= T−1T∑t=1

M∑j=1

αj · cos [ωj(t− 1)] + δj · sen [ωj(t− 1)]

×M∑j=1

aj · cos [ωj(t− 1)] + dj · sen [ωj(t− 1)]

(10.4.27)

= T−1T∑t=1

M∑j=1

αj aj · cos2 [ωj(t− 1)] + δj dj · sen2 [ωj(t− 1)]

= (1/2)

M∑j=1

(αj aj + δj dj).

Por ello, la fracción de la covarianza muestral entre x e y que es explicado por su dependenciacomún a ciclos de frecuencia ωj está dado por

(1/2)(αj aj + δj dj). (10.4.28)

Esta magnitud puede estar relacionado al análogo muestral del coespectro con los cálculos si-milares a los utilizados para establecer el resultado (c) de la proposición 6.2. Recordemos quepuesto que:

T∑t=1

cos [ωj(t− 1)] = 0,

Alternativamente, la magnitud αj en [10.4.20] puede ser expresado como

αj = (2/T )T∑t=1

(yt − y) · cos [ωj(t− 1)] .

10.4. ESPECTRO DE LOS PROCESOS VECTORIALES 23

De este modo,

(aj + i · dj)(αj − i · δj)

= (4/T 2)

T∑t=1

(xt − x) · cos [ωj(t− 1)] + i ·T∑t=1

(xt − x) · sen [ωj(t− 1)]

×

T∑τ=1

(yτ − y) · cos [ωj(τ − 1)]− i ·T∑τ=1

(yτ − y) · sen [ωj(τ − 1)]

= (4/T 2)

T∑t=1

(xt − x) · exp [i · ωj(t− 1)]

T∑τ=1

(yτ − y) · exp [−i · ωj(τ − 1)]

= (4/T 2) T∑t=1

(xt − x)(yt − y) +T−1∑t=1

(xt − x)(yt+1 − y) · exp [−iωj ]

+T∑t=2

(xt − x)(yt−1 − y) · exp [iωj ] +T−2∑t=1

(xt − x)(yt+2 − y) · exp [−2iωj ]

+T∑t=3

(xt − x)(yt−2 − y) · exp [2iωj ] + . . .+ (x1 − x)(yT − y) · exp [−(T − 1)iωj ]

+(xT − x)(y1 − y) · exp [(T − 1)iωj ]

= (4/T )γ(0)yx + γ(1)

yx · exp [−iωj ] + γ(−1)yx · exp [iωj ]

+γ(2)yx · exp [−2iωj ] + γ(−2)

yx · exp [2iωj ] + . . .

+γ(T−1)yx · exp [−(T − 1)iωj ] + γ(−T+1)

yx · exp [(T − 1)iωj ], (10.4.29)

donde γ(k)yx es la covarianza muestral entre el valor de y y el valor que x asumió k periodos antes:

γ(k)yx =

(1/T )

T−k∑t=1

(xt − x)(yt+k − y) para k = 0, 1, 2, . . . , T − 1

(1/T )T∑

t=−k+1(xt − x)(yt+k − y) para k = −1,−2, . . . ,−T + 1.

(10.4.30)

El resultado en [10.4.29] implica que:

12(aj + i · dj)(αj − i · δj) = (2/T )

T−1∑k=−T+1

γ(k)yx · exp [−kiωj ]

= (4π/T ) · syx(ωj), (10.4.31)

donde syx(ωj) es el periodograma cruzado muestral de x a y con una frecuencia de ωj , o elelemento inferior izquierdo del periodograma multivariado muestral:

sy(ω) = (2π)−1

T−1∑k=−T+1

γ(k)xx e−iωk

T−1∑k=−T+1

γ(k)xy e−iωk

T−1∑k=−T+1

γ(k)yx e−iωk

T−1∑k=−T+1

γ(k)yy e−iωk

=

sxx(ω) sxy(ω)syx(ω) syy(ω)

.

24 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

La expresión [10.4.31] establece que el periodograma cruzado muestral de x a y con frecuenciaωj puede ser expresado como

syx(ωj) = [T/(8π)] · (aj + i · dj)(αj − i · δj)

= [T/(8π)] · (ajαj + dj δj) + i · [T/(8π)] · (djαj − aj δj).

El componente real es el análogo muestral del coespectro, mientras que el componente imaginarioes es análogo muestral del espectro de cuadratura:

syx(ωj) = cyx(ωj) + i · qyx(ωj), (10.4.32)

donde:

cyx(ωj) = [T/(8π)] · (ajαj + dj δj) (10.4.33)

qyx(ωj) = [T/(8π)] · (djαj − aj δj). (10.4.34)

Comparando [10.4.33] con [10.4.28], el coespectro muestral evaluado en ωj es proporcional ala fracción de la covarianza muestral entre y y x que es atribuible a ciclos con frecuencia ωj .El cospectrum poblacional admite una interpretación análoga como la fracción de la covarianzapoblacional entre Y y X atribuible a ciclos con frecuencia ω basado en una versión multivariadadel teorema de representación espectral.¿Qué interpretación debemos atribuirle al espectro de cuadratura? Considere usar los pesos de[10.4.22] para construir una nueva serie x∗t mediante el desplazamiento de la fase de cada funciónperiódica un cuarto de ciclo:

x∗t = x+∑Mj=1aj · cos [ωj(t− 1) + (π/2)]

+dj · sen [ωj(t− 1) + (π/2)].(10.4.35)

La variable x∗t está caracterizado por los mismos ciclos de xt, excepto que en el tiempo t=1 cadaciclo está un cuarto de camino por delante en vez de sólo el comienzo como en el caso de xt.Puesto que sen[θ + (π/2)] = cos(θ) y que cos[θ + (π/2)] = −sen(θ), la variable x∗t puede serdescrito de manera alternativa como:

x∗t = x+M∑j=1dj · cos [ωj(t− 1)]− aj · sen [ωj(t− 1)]. (10.4.36)

Como en [10.4.27], la covarianza muestral entre yt y x∗t es:

T−1T∑t=1

(yt − y)(x∗t − x) = (1/2)M∑j=1

(αj dj − δj aj).

Comparando esto con [10.4.34], el espectro de cuadratura muestral de x a y con frecuencia ωj esproporcional a la fracción de la covarianza muestral entre x∗ e y explicado por ciclos de frecuenciaωj . Los ciclos de frecuencia ωj pueden ser bastante importantes para ambos x e y de maneraindividual (como es reflejado para valores grandes de sxx(ω) y syy(ω)), pero todavía falla enproducir demasiada covarianza contemporanea entre las variables porque dada cualquier fechalas dos series están en una fase diferente del ciclo. Por ejemplo, la variable x podría respondera una recesión económica antes que y. El espectro de cuadratura busca evidencia de esos ciclosfuera de la fase.

10.4. ESPECTRO DE LOS PROCESOS VECTORIALES 25

Coherencia, fase y ganancia

La coherencia poblacional entre X y Y es una medida del grado en el cual X y Y están in-fluenciados conjuntamente por ciclos de frecuencia ω. Esta medida combina las inferencias delcoespectro y el espectro de cuadratura, y es definida como 1

hY X(ω) = [cY X(ω)]2 + [qY X(ω)]2

sY Y (ω)sXX(ω) ,

asumiendo que sY Y (ω) y sXX(ω) son diferentes a 0. Si sY Y (ω) o sXX(ω) es cero, la coherenciaes definida como cero. Se puede demostrar que 0 ≤ hY X(ω) ≤ 1 para todo ω siempre que X yY sean estacionarios en covarianza con matrices de autocovarianza absolutamente sumables.2 Sihyx(ω) is grande, esto indica que Y y X tienen importantes ciclos de frecuencia ω en común.Alternativamente, el coespectro y el espectro de cuadratura pueden ser descritos en forma decoordenadas polares. En esta notación, el espectro cruzado poblacional de X a Y es escrito como

sY X(ω) = cY X(ω) + i · qY X(ω) = R(ω) · exp[i · θ(ω)], (10.4.37)

dondeR(ω) =

[cY X(ω)]2 + [qY X(ω)]2

1/2, (10.4.38)

y θ(ω) representa el ángulo en radianes que satisface:

sen [θ(ω)]cos [θ(ω)] = qY X(ω)

cY X(ω) . (10.4.39)

La función R(ω) es a veces descrito como la ganancia, mientras que θ(ω) es llamado la fase.3

El espectro poblacional para los procesos vectoriales MA y AR

Sea yt un proceso vectorial MA(∞)con los coeficientes de media movil absolutamente sumables:

yt = µ+ Ψ(L)εt,

donde

E(εtε′τ ) =

Ω para t = τ

0 en otro caso.

Sustituyendo [10.3.4] en [10.4.3] se demuestra que el espectro poblacional para yt puede sercalculado como:

sY (ω) = (2π)−1[Ψ(e−iω)

]Ω[Ψ(eiω)

]′. (10.4.40)

1Alternativamente, a veces la coherencia es definida como la raíz cuadrada de esta magnitud. La cohereniamuestral basada en el periodograma sin filtrar es identicamente igual a 1.

2Ver, por ejemplo, Fuller (1976, p. 156).3Alternativamente, a veces la ganancia es definido como R(ω)/sXX(ω).

26 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

Por ejemplo, el espectro de la población para un VAR(p) estacionario como lo escrito en [10.1.4]es

sY (ω) = (2π)−1In − Φ1e

−iω − Φ2e−2iω − . . .− Φpe

−piω−1

Ω

×In − Φ′1e

−iω − Φ′2e−2iω − . . .− Φ′pe

−piω−1

. (10.4.41)

Estimando el espectro poblacional

Si una serie de tiempo observada y1,y2, . . . ,yT puede ser descrita razonablemente por un vectorautoregresivo de orden p, una buena aproximación para estimar el espectro poblacional es estimarlos parametros del vector autoregresivo de [10.1.4] por MCO y luego sustituir estos parametrosestimados en la ecuación [10.4.41].Alternativamente, el periodograma cruzado muestral de x a y con frecuencia ωj = 2πj/T puedeser calculado a partir de [10.4.32] hasta [10.4.34], donde αj , δj , aj , y dj son como los definidosen [10.4.20] hasta [10.4.24]. Uno buscaría suavizarlos para obtener una estimación más útil delespectro cruzado poblacional. Por ejemplo, una estimación razonable del coespectro poblacionalentre X e Y con frecuencia ωj sería

cY X(ωj) =h∑

m=−h

h+ 1− |m|

(h+ 1)2

cyx(ωj+m),

donde cyx(ωj+m) denota la estimación de [10.4.33] evaluado en una frecuencia ωj+m = 2π(j +m)/T y h es el parámetro de ancho de banda que refleja cuantas frecuencias distintas son usadasen la estimación del coespectro en una frecuencia ωj .Otra aproximación es expresar el suavizamiento en términos de los coeficientes ponderados κ∗kpara ser aplicado a Γk cuando las autocovarianzas poblacionales en la expresión [10.4.3] sonreemplazados por las autocovarianzas muestrales. Tal estimación tomaría la forma

sY (ω) = (2π)−1

Γ0 +T−1∑k=1

κ∗k

[Γke

−iωk + Γ′keiωk]

donde

Γk = T−1T∑

t=k+1(yt − y)(yt−k − y)′

y = T−1T∑t=1

yt.

Por ejemplo, la estimación Bartlett modificada del espectro multivariado es

sY (ω) = (2π)−1

Γ0 +q∑

k=1

[1− k

q + 1

] [Γke

−iωk + Γ′keiωk]

(10.4.42)

10.4. ESPECTRO DE LOS PROCESOS VECTORIALES 27

Filtros

Sea xt un proceso de dimensión r estacionario en covarianza con autocovarianzas absolutamentesumables y con un espectro poblacional de orden (r × r) denotado por sX(ω). Sea Hk∞k=−∞

una secuencia de matrices de dimensión (n × r) absolutamente sumable, y sea yt un procesovectorial de n dimensiones dado por

yt = H(L)xt =∞∑

k=−∞Hkxt−k.

Se deduce de [10.3.9] que el espectro poblacional de y (denotado por sY (ω))está relacionado conel de x de acuerdo a:

sY (ω)(n×n)

= [H(e−iω)](n×r)

sX(ω)(r×r)

[H(eiω)]′(r×n)

. (10.4.43)

Como un caso especial de este resultado, sea Xt un proceso estocástico estacionario univariadocon espectro continuo sX(ω), y sea µt un segundo proceso estocástico estacionario univariadocon espectro continuo sU (ω), donde Xt y µτ no están correlacionados para todo t y τ . De estemodo, el espectro poblacional del vector xt ≡ (Xt, ut)′ está dado por

sX(ω) =

sXX(ω) 0

0 sUU (ω)

.Definimos una nueva serie Yt de acuerdo a

Yt =∞∑

k=−∞hkXt−k + µt ≡ h(L)Xt + µt, (10.4.44)

donde hk∞k=−∞ es absolutamente sumable. Note que el vector yt ≡ (Xt,Yt)′ es obtenido apartir el vector original xt por el filtro:

yt = H(L)xt,

donde

H(L) =

1 0h(L) 1

.Se obtiene de [10.4.43] que el espectro de y está dado por:

sY (ω) =

1 0h(e−iω) 1

sXX(ω) 00 sUU (ω)

1 h(eiω)0 1

(10.4.45)

=

sXX(ω) sXXh(eiω)h(e−iω)sXX(ω) h(e−iω)sXX(ω)h(eiω) + sUU (ω)

,en donde

h(e−iω) =∞∑

k=−∞hke−iωk. (10.4.46)

28 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

El elemento inferior izquierda de la matriz [10.4.45] indica que cuando Yt y Xt están relacionadasde acuerdo a [10.4.44], el espectro cruzado de X a Y puede ser calculado multiplicando [10.4.46]por el espectro de X.También podemos realizar estos pasos en sentido inverso. Específicamente supongamos que te-nemos un vector de observaciones yt = (Xt, Yt)′ con matrices de autocovarianzas absolutamentesumables y con espectros poblacionales dados por

sY (ω) =

sXX(ω) sXY (ω)sY X(ω) sY Y (ω)

. (10.4.47)

Entonces la proyección lineal de Yt sobre Xt−k∞k=−∞ existe y es de la forma de [10.4.44],donde ut ahora será considerado como el residuo poblacional asociado a la proyección lineal.La secuencia de coeficientes de proyección lineal hk∞k=−∞ puede ser resumida en términos dela función de ω dada en [10.4.46]. Comparando los elementos de la parte inferior izquierda de[10.4.47] y de [10.4.45] , esta función debe satisfacer lo siguiente:

h(e−iω)sXX(ω) = sY X(ω).

En otras palabras , la función h(e−iω) puede ser calculada a partir de

h(e−iω) = sY X(ω)sXX(ω) , (10.4.48)

asumiendo que sXX(ω) es diferente de cero. Cuando sXX(ω) = 0 , fijamos h(e−iω) = 0. Estamagnitud, el ratio del espectro cruzado de X a Y sobre el espectro de X es conocida como lafunción de transferencia de X a Y .Los principios que subyacen a [10.4.4] pueden ser usados para descubrir coeficientes de lasfunciones de transferencia individuales:

hk = (2π)−1∫ π

−πh(e−iω)eiωkdω.

En otras palabras, dado un vector de observaciones (Xt, Yt)′ con matrices de autocovarianzasabsolutamente sumables, y, por consiguiente, con espectros poblacionales continuos de la formade [10.4.47]; el coeficiente de Xt−k en la proyección lineal poblacional de Yt sobre Xt−k∞k=−∞

puede ser calculado mediante la siguiente ecuación:

hk = (2π)−1∫ π

−π

sY X(ω)sXX(ω)e

iωkdω. (10.4.49)

10.5. La media muestral de un proceso vectorial

Varianza de la media muestral

Supongamos que tenemos una muestra de tamaño T , y1, y2, · · · , yT, generada a partir deun proceso estacionario en covarianza de dimensión n con

E(yt) = µ (10.5.1)

E[(yt − µ)(yt−j − µ)′] = Γj. (10.5.2)

10.5. LA MEDIA MUESTRAL DE UN PROCESO VECTORIAL 29

Consideremos las siguientes propiedades de la media muestral,

yT = (1/T )T∑t=1

yt, (10.5.3)

Al igual que en la Sección 7.2, donde se discutió sobre la media muestral de un proceso escalar,es claro que E(yT ) = µ y

E[(yT − µ)(yT − µ)′]

= (1/T 2)E(y1 − µ)[(y1 − µ)′ + (y2 − µ)′ + · · ·+ (yT − µ)′]

+(y2 − µ)[(y1 − µ)′ + (y2 − µ)′ + · · ·+ (yT − µ)′]

+(y3 − µ)[(y1 − µ)′ + (y2 − µ)′ + · · ·+ (yT − µ)′]

+ · · ·+ (yT − µ)[(y1 − µ)′ + (y2 − µ)′ + · · ·+ (yT − µ)′]

= (1/T 2)[Γ0 + Γ−1 + · · ·+ Γ−(T−1)] (10.5.4)

+[Γ1 + Γ0 + Γ−1 + · · ·+ Γ−(T−2)]

+[Γ2 + Γ1 + Γ0 + · · ·+ Γ−(T−3)]

+ · · ·+ [ΓT−1 + ΓT−2 + ΓT−3 · · ·+ Γ0]

= (1/T 2)TΓ0 + (T − 1)Γ1 + (T − 2)Γ2 + . . .+ ΓT−1

+(T − 1)Γ−1 + (T − 2)Γ−2 + . . .+ Γ−(T−1)

Así

T · E[(yT − µ)(yT − µ)′]

= Γ0 + [(T − 1)/T ]Γ1 + [(T − 2)/T ]Γ2 + · · · (10.5.5)

+[1/T ]ΓT−1 + [(T − 1)/T ]Γ−1 + [(T − 2)/T ]Γ−2

+ · · ·+ [1/T ]Γ−(T−1).

Así como en el caso univariado, los pesos de Γk para un |k| pequeño tienden a la unidad mientrasT →∞, y las autocovarianzas más altas tienden a cero en un proceso estacionario en covarianza.Por lo tanto tenemos la siguiente generalización de la proposición 7.5.

Proposición 10.5. Sea yt un proceso estacionario en covarianza con momentos dados por[10.5.1] y [10.5.2] y con covarianzas absolutamente sumables. Entonces la media muestral [10.5.3]satisface:

(a) yTp→ µ

(b) lımT→∞T · E[(yT − µ)(yT − µ)′] =

∞∑v=−∞

Γv.

La demostración de la Proposición 10.5 es virtualmente idéntica a la de la Proposición 7.5.Considere la siguiente matriz de dimensión (n× n):

∞∑ν=−∞

Γν − T · E[(yT − µ)(yT − µ)′] =∑|ν|≥T

Γν +T−1∑

ν=−(T−1)(|ν|/T )Γν , (10.5.6)

30 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

donde la igualdad se deduce de [10.5.5]. Sea γ(ν)ij una variable que denota al elemento de la fila

i y columna j de Γv. El elemento de la fila i y columna j de la matriz en [10.5.6] puede serescrito como ∑

|ν|≥Tγ

(ν)ij +

T−1∑ν=−(T−1)

(|ν|/T )γ(ν)ij .

La sumabilidad absoluta de Γν∞ν=−∞ implica que para todo ε > 0 existe un q tal que∑|ν|>q|γ(ν)ij | < ε/2.

Así, ∣∣∣∣∣∣∑|ν|≥T

γ(ν)ij +

T−1∑ν=−(T−1)

(|ν|/T )γ(ν)ij

∣∣∣∣∣∣ < ε/2 +q∑

ν=−q(|ν|/T )

∣∣∣γ(ν)ij

∣∣∣ .Esta suma puede ser menor que ε escogiendo un T suficientemente grande. Esto establece elenunciado (b) de la Proposición 10.5. De este resultado, E(yi,T − µT )2 → 0 para cada i, loque implica que yi,T

p−→ µi

Estimación consistente de la varianza de la media muestral para T periodos

Las pruebas de hipótesis sobre la media muestral requieren una estimación de la matriz en elresultado (b) de la proposición 10.5. Sea S la representación de dicha matriz:

S ≡ lımT→∞

T · E[(yT − µ)(yT − µ)′]. (10.5.7)

Si la data fuese generada a partir de un proceso vectorial MA(q), entonces el resultado (b)implicaría:

S =q∑

ν=−qΓν . (10.5.8)

Una estimación natural es:

S = Γ0 +q∑

ν=1(Γν + Γ′ν), (10.5.9)

donde

Γν = (1/T )T∑

t=ν+1(yt − y)(yt−ν − y)′. (10.5.10)

Siempre que y sea ergódica en momentos de segundo orden, [10.5.9] genera una estimación con-sistente de [10.5.8]. En efecto, Hansen(1982) y White(1984, Capítulo 6) notaron que la ecuación[10.5.9] generaba una estimación consistente de la varianza asintótica de la media muestral parauna amplia gama de procesos que exhibían heterocedasticidad y autocorrelación dependientesdel tiempo. Para ver por qué, nótese que para un proceso que satisface E(yt) = µ con momentosde segundo orden variables en el tiempo, la varianza de la media muestral resulta ser

E[(yT − µ)(yT − µ)′]

= E

[(1/T )

T∑t=1

(yt − µ)] [

(1/T )T∑s=1

(ys − µ)]′

(10.5.11)

= (1/T 2)T∑t=1

T∑s=1

E[(yt − µ)(ys − µ)′].

10.5. LA MEDIA MUESTRAL DE UN PROCESO VECTORIAL 31

Supongamos primero que E[(yt − µ)(ys − µ)′] = 0 para |t− s| > q, así como en el procesovectorial MA(q); de todas formas, generalizaremos el proceso MA(q) para permitir que E[(yt−µ)(ys − µ)′] sea una función de t para |t− s| ≤ q. De este modo, [10.5.11] implica

T · E[(yT − µ)(yT − µ)′]

= (1/T )T∑t=1

E[(yt − µ)(yt − µ)′]

+(1/T )T∑t=2E[(yt − µ)(yt−1 − µ)′] + E[(yt−1 − µ)(yt − µ)′]

+(1/T )T∑t=3E[(yt − µ)(yt−2 − µ)′] + E[(yt−2 − µ)(yt − µ)′]+ · · ·

+(1/T )T∑

t=q+1E[(yt − µ)(yt−q − µ)′] + E[(yt−q − µ)(yt − µ)′]. (10.5.12)

La estimación [10.5.9] reemplaza

(1/T )T∑

t=ν+1E[(yt − µ)(yt−ν − µ)′] (10.5.13)

en [10.5.12] con

(1/T )T∑

t=ν+1[(yt − yT )(yt−ν − yT )′], (10.5.14)

y, de esta manera, [10.5.9] provee una estimación consistente del límite de [10.5.12] siempreque [10.5.14] converge en probabilidad a [10.5.13]. Por consiguiente, el estimador propuesto en[10.5.9] puede darnos una estimación consistente de la varianza de la media muestral para Tperiodos en presencia tanto de heterocedasticidad como de autocorrelación hasta el orden q.De manera más general, aún cuandoE[(yt−µ)(ys−µ)′] es diferente de cero para todo t y s, contal que esta matriz tienda a cero suficientemente rápido como |t−s| → ∞ , entonces aún existealguna forma en la que ST en [10.5.9] genere una estimación consistente de S. Específicamente,si, a medida que el tamaño de la muestra T crece, se utiliza un mayor número de autocovarianzasmuestrales q para generar la estimación; entonces ST

p→ S (véase White, 1984, p.155).

El estimador Newey-West

A pesar de que [10.5.9] genera una estimación consistente de S, presenta el inconveniente deque [10.5.9] no necesita ser semidefinida positiva en muestras pequeñas. Si S no es semidefinidapositiva, entonces se puede afirmar que alguna combinación lineal de elementos de y tenga unavarianza negativa, lo cual es una desventaja considerable al formar un test de hipótesis.

Newey y West (1987) sugieren que la estimación alternativa

S = Γ0 +q∑

v=1

[1−

ν

q + 1

](Γν + Γ′ν) (10.5.15)

32 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

donde Γν está dado por [10.5.10]. Por ejemplo, para q = 2,

S = Γ0 +23

(Γ1 + Γ′1) +13

(Γ2 + Γ′2)

Newey y West mostraron que S es semidefinida positiva por construcción y tiene las mismaspropiedades de consistencia que fueron señaladas para S, esto es, que si q y T van a infinitocomo q/T 1/4 → 0, entonces ST

p→ S

Aplicación: errores estándares y consistentes de autocorrelación y heteroce-dasticidad en regresiones lineales

Como aplicación del uso de la ponderación de Newey-West, consideremos un modelo de regresiónlineal

yt = x′tβ + ut

en donde xt es un vector (k × 1) de variables explicativas. Recuerde de la ecuación [8.2.6] quela desviación del estimador MCO bT con respecto al valor verdadero β satisface

√T (bT − β) =

[(1/T )

T∑t=1

xtx′t

]−1 [(1/√T )

T∑t=1

xtut

](10.5.16)

Cuando se calcula la distribución asintótica del estimador MCO bT , usualmente se asume queel primer término de [10.5.16] converge en probabilidad a Q−1:[

(1/T )T∑t=1

xtx′t

]p→ Q−1 (10.5.17)

El segundo término de [10.5.16] puede ser visto como√T veces la media muestral del vector

(k × 1) xtut [(1/√T )∑Tt=1 xtut

]= (√T )(1/T )

∑Tt=1 yt

=√T · yT

(10.5.18)

donde yt = xtut. Dado que E(ut | xt) = 0, el vector yt tiene media cero. Se puede permitirheterocedasticidad condicional , autocorrelación y variación en el tiempo de segundos momentosde yt , siempre que:

s = limT→∞T · E(yT y′T )

exista. Bajo condiciones generales, 4 resulta[(1/√T )

T∑t=1

xtut

]=√T · yT

L→ N(0, S)

Sustituyendo esto y [10.5.17] en [10.5.16],

√T (bT − β) L→ N(0, Q−1SQ−1) (10.5.19)

4Véase, por ejemplo, White(1984, p.119)

10.5. LA MEDIA MUESTRAL DE UN PROCESO VECTORIAL 33

A la luz de la discusión precedente, podríamos querer estimar S de la manera siguiente:

ST = Γ0,T +q∑

ν=1

[1−

ν

q + 1

](Γν,T + Γ′ν,T ) (10.5.20)

En esta ecuación,

Γν,T = (1/T )T∑

t=ν+1(xtut,T ut−ν,Tx′t−ν)

ut,T es el residuo MCO para la fecha t en la muestra de tamaño T (ut,T = yt − x′tbt), y qes una longitud de rezago más allá de la cual estamos dispuestos a asumir que la correlaciónentre xtut y xt−νut−u es esencialmente cero. Claramente Q es estimado consistentemente porQT = (1/T )

∑Tt=1 xtx

′t. Sustituyendo QT y ST en [10.5.19] la sugerencia es tratar al estimador

MCO bT como sibT ≈ N(β, (VT/T ))

donde

VT = Q−1T ST Q

−1T

=[(1/T )

T∑t=1

xtx′t

](1/T )

[T∑t=1

u2txtx

′t

+q∑

ν=1

[1−

ν

q + 1

] T∑t=ν+1

(xtutut−νx′t−ν + xt−νut−νutx′t)

×[(1/T )

T∑t=1

xtx′t

]−1

es decir, la varianza de bt es aproximada por

(V /T ) =[T∑t=1

xtx′t

]−1 [ T∑t=1

u2txtx

′t (10.5.21)

+q∑

ν=1

[1−

ν

q + 1

] T∑t=ν+1

(xtutut−νx′t−ν + xt−νut−νutx′t)

[ T∑t=1

xtx′t

]−1

donde ut es el residuo muestral MCO. La raíz cuadrada del elemento de la fila i y columnaj de VT/T representa el error estándar consistente de heterocedasticidad y autocorrelaciónpara el elemento i del vector de coeficientes MCO estimados. La esperanza es que los erroresestándar basados en [10.5.21] sean confiables para una variedad de formas de heterocedasticidady autocorrelación del residuo ut de la regresión.

Estimador basado espectros

Un conjunto de estimaciones alternativas de S en [10.5.7] han sido sugeridas en la literatura.Nótese que, al igual que en el caso univariado estudiado en la Sección 10.2, si yt es estacionarioen covarianza, entonces S se interpreta como la función generatriz de autocovarianzas GY (z) =

34 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

∑∞ν=−∞ Γνzν evaluada en z=1 , o equivalentemente como 2π veces el espectro de la población

en la frecuencia cero:

S =∞∑

ν=∞Γν = 2πsY (0)

En efecto , el estimador Newey-West [10.5.15] es numéricamente idéntico a 2π veces la estimaciónBartlett del espectro multivariado descrito en [10.4.42]evaluado en la frecuencia ω = 0. Gallant(1987, p.533) propuso un estimador similar basado en un kernel Parzen

S = Γ0 +q∑

ν=1k[ν/(q + 1)](Γν + Γ′ν)

donde

k(z) =

1− 6z2 + 6z3 para 0 ≤ z ≤ 1

22(1− z)3 para 1

2 ≤ z ≤ 10 para el resto

Por ejemplo, para q = 2, se tiene

S = Γ0 +59

(Γ1 + Γ′1) +227

(Γ2 + Γ′2)

Andews(1991) examinó un conjunto de estimadores alternativos y encontró los mejores resulta-dos en un espectro de kernel cuadrático:

k(z) =3

(6πz/5)2

[sin(6πz/5

6πz/5)− cos(6πz/5))

]

En contraste con los estimadores de Newey-West y Gallant, la sugerencia de Andrews hace usode todos los T − 1 estimadores de autocovarianzas:

S =T

T − k

Γ0 +T−1∑ν=1

k

q + 1

)(Γν + Γ′ν)

(10.5.22)

Aun cuando [10.5.22] haga uso de todas las autocovarianzas calculadas, existe un parámetro qque debe ser escogido para construir el kernel. Por ejemplo: para q = 2.

Γ0 +T−1∑ν=1

k(ν/3)(Γν + Γ′ν) =Γ0 + 0,85(Γ1 + Γ′1)

+ 0,5(Γ2 + Γ′2) + 0,14(Γ3 + Γ′3) + · · ·

Andrews recomendó multiplicar la estimación por T/(T−k), en donde yt = xtut para ut que esel residuo de la regresión MCO con k variables explicativas. Andrews(1991) y Newey-West(1992)también proporcionan cierta orientación para elegir el valor óptimo del truncamiento del rezagoo del parámetro q del ancho de la banda para cada estimador S que se ha venido discutiendo aquí.

Las estimaciones que han sido descrito funcionarán mejor cuando yt tenga una representación demedia móvil infinita. Andrews y Monahan(1992) sugieren un método alternativo para estimar

10.5. LA MEDIA MUESTRAL DE UN PROCESO VECTORIAL 35

S que también aprovecha las estructuras autorregresivas de los errores. Sea yt un vector conmedia cero, y sea S la varianza asintótica de la media muestral de y. Por ejemplo, si queremoscalcular el error estándar consistente de heterocedasticidad y autocorrelación de la estimaciónMCO, yt, este correspondería a xtut en donde xt es un vector de variables explicativas para laregresión y ut es el residuo de MCO. El primer paso para estimar S es ajustar un VAR de bajoorden a yt:

yt = φ1yt−1 + φ2yt−2 + · · ·+ φpyt−p + νt (10.5.23)

en donde se presume que νt tiene alguna autocorrelación residual que no ha sido enteramentecapturada por el VAR. Nótese que, debido a que yt tiene media cero, no se incluye un términoconstante en [10.5.23]. La fila i representada en [10.5.23] puede ser estimada mediante un re-gresión MCO del elemento i de yt sobre los p rezagos de y; aunque si algún valor propio de|Inλp − φ1λ

p−1 − φ2λp−2 − · · · − φp| = 0 está muy cerca de 0( digamos que es mayor a

0.97 en módulo) entonces Andrews y Monahan (1992, p. 957) recomiendan alterar la estimaciónMCO de tal manera que se reduzca el valor propio más grande.

El segundo paso en el procedimiento de Andrews y Monahan es calcular una estimación S∗

usando uno de los métodos descritos previamente basados en los residuos ajustados de νt de laecuación [10.5.23]. Por ejemplo,

S∗T = Γ∗0 +q∑

ν=1[1−

ν

q + 1](Γ∗ν + Γ′∗ν ). (10.5.24)

donde

Γ∗ν = (1/T )T∑

t=ν+1νtν′t−ν

y donde q es un parámetro que representa el orden máximo de autocorrelación asumida por νt.La matriz S∗T será reconocida como una estimación de 2π ·Sν(0) , donde sν(w) es la densidadespectral de ν

sν(ω) = (2π)−1∞∑

ν=−∞[E(νtν′t−ν)]e

−iων .

Observe que el serie original yt se puede obtener de vt aplicando el siguiente filtro:

yt = [In − Φ1L− Φ2L2 − ...− ΦpL

p]−1vt.

Por lo tanto, a partir de [10.4.43], la densidad espectral de y está relacionada con la densidadespectral de ν según

SY (ω) =[In − Φ1e

−iω − Φ2e−2iω − ...− Φpe

−piω]−1

Sν(ω)×

[In − Φ1e

iω − Φ2e2iω − ...− Φpe

piω]′−1

.

36 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

Por lo tanto, una estimación de 2π veces la densidad espectral de y con la frecuencia en ceroviene dada por

ST =[In − Φ1 − Φ2 − ...Φp]

−1S∗T ×

[In − Φ1 − Φ2 − ...Φp]′

−1, (10.5.25)

donde S∗T se calculará a partir de 10.5.24. La matriz ST en 10.5.25 es la estimación Andrews-Monohan(1992) , donde

S = lımT→∞

T · E(yT y′T ).

10.6. APÉNDICE 10.A. Comprobación de las proposicionesdel capítulo 10 .

10.6.1. Comprobación de la proposición 10.1

Los valores propios de F son los valores de λ para los cuales el siguiente factor determinante escero:

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

(Φ1 − λIn) Φ2 Φ3 · · · Φp−1 Φp

In −λIn 0 · · · 0 00 In −λIn · · · 0 0...

...... · · ·

......

0 0 0 · · · In −λIn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣(10.6.1)

Multiplique cada uno de los bloques finales de n columnas por (1/λ) y añadir al bloque anterior.Multiplique cada una de las n columnas de este bloque siguiente al final resultante por (1/λ) yañada el resultado a la tercera y así hasta la última columna.Procediendo de esta manera revela10.6.1 a ser el mismo que ∣∣∣∣∣∣ X1 X2

0 −λIn(p−1)

∣∣∣∣∣∣ , (10.6.2)

donde X1 denota lo siguiente matriz (n× n):

X1 ≡ (Φ1 − λIn) + (Φ2/λ) + (Φ3/λ) + · · ·+ (Φp/λp−1)

yX2 es una matriz relacionada [n×n(p−1)]. Sea S denotamos la siguiente matriz (np×np):

S ≡

0 In(p−1)

In 0

,y tenga en cuenta que su inversa viene dada por

S−1 ≡

0 In

In(p−1) 0

,

10.6. APÉNDICE 10.A. COMPROBACIÓN DE LAS PROPOSICIONES DEL CAPÍTULO 10 .37

como puede ser verificado por la multiplicación directa. Premultiplicando una matriz S y post-multiplicando por S−1 no cambiará el determinante. Por lo tanto, 10.6.2 es igual a

∣∣∣∣∣∣ 0 In(p−1)

In 0

X1 X2

0 −λIn(p−1)

0 In

In(p−1) 0

∣∣∣∣∣∣ =

∣∣∣∣∣∣ −λIn(p−1) 0X2 X1

∣∣∣∣∣∣ .(10.6.3)

Aplicando la fórmula para el cálculo de un determinante [A.4.5] de forma recursiva, 10.6.3 esigual a

(−λ)n(p−1)∣∣∣X1

∣∣∣ = (−λ)n(p−1)∣∣∣Φ1 − λIn + (Φ2/λ) + (Φ3/λ

2) + · · ·+ (Φp/λp−1)

∣∣∣= (−1np)

∣∣∣Inλp − Φ1λp−1 − Φ2λ

p−2 − · · · − Φp

∣∣∣ .Al establecer esto a cero produce la ecuación 10.1.13.

10.6.2. Comprobación de la proposición 10.2.

Es útil definir zt (i, l) para que sea el componente de yit el cual refleja los efectos acumulativosdel elemento lth de ε :

zt(i, l) = ψ(0)il εlt + ψ

(1)il εl,t−1 + ψ

(2)il εl,t−2 + · · · =

∞∑ν=0

ψ(ν)il εl,t−ν , (10.6.4)

donde ψ(ν)il es el elemento que se encuentra en la fila i , columna l de la matriz Ψν . El valor real

de la variable i-ésima y es la suma de las contribuciones de cada uno de los componentes de εtomando l= 1,2, ..., n.

yit = µi +n∑t=1

zt(i, l). (10.6.5)

Los resultados de la Proposición 10.2 están establecidos mediante la primera demostración de lasumabilidad absoluta de momentos de zt y luego de observar que los momentos de y se obtienende sumas finitas de estas expresiones basadas en zt(i, l)

Comprobación de (a)

Considere la variable aleatoria zt(i, l)·zt−s(j,m) donde i, l, j y m representan índices arbitrariosentre 1 y n y donde s es el orden de la autocovarianza de y que se calcula. Note de 10.6.4 que

Ezt(i, l) · zt−s(j,m)

= E

[∑∞r=0 ψ

(r)il εl,t−r

]×[∑∞

r=0 ψ(ν)jmεm,t−s−ν

](10.6.6)

∞∑r=0

∞∑ν=0

ψ

(r)il ψ

(ν)jm ·

Eεl,t−rεm,t−s−ν

.

38 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

El operador esperanza se puede mover dentro de la suma porque

∞∑r=0

∞∑ν=0

∣∣∣ψ(r)il ψ

(ν)jm

∣∣∣ =∞∑r=0

∞∑ν=0

∣∣∣ψ(r)il

∣∣∣× ∣∣∣ψ(ν)jm

∣∣∣ =∑∞

r=0

∣∣∣ψ(r)il

∣∣∣× ∑∞ν=0

∣∣∣ψ(ν)jm

∣∣∣ <∞,Ahora el producto de ε’s en el término final en 10.6.6 puede tener la expectativa diferente decero sólo si los ε’s tienen la misma fecha, es decir, si r = s + v . Por lo tanto, aunque 10.6.6implica una suma sobre un número infinito de valores de r , sólo el valor a = rs+v contribuyea esta suma:

Ezt(i, l) · zt−s(j,m)

=∞∑ν=0

ψ

(s+v)il ψ

(ν)jm

·E

εl,t−s−νεm,t−s−ν

=∞∑ν=0

ψ(s+v)il ψ

(ν)jmσlm,

(10.6.7)donde σlm representa la covarianza entre εlt y εmt y está dada por elemento de la fila l , columnam de Ω . El elemento de la fila i , columna j de Γs da el valor de

γ(s)ij = E(yi,t − µi)(yj,t−s − µj).

Utilizando 10.6.5 y 10.6.7 , esto se puede expresar como

E(yi,t − µi)(yj,t−s − µj) = E[∑n

l=1 zt(i, l)] [∑n

m=1 zt−s(j,m)]

n∑l=1

n∑m=1

Ezt(i, l) · zt−s(j,m)

n∑l=1

n∑m=1

∞∑ν=0

ψ(s+v)il ψ

(ν)jmσlm (10.6.8)

∞∑ν=0

n∑l=1

n∑m=0

ψ(s+v)il ψ

(ν)jmσlm.

Pero∑nl=1

∑nm=0 ψ

(s+v)il ψ

(ν)jmσlm es el elemento de la fila i , columna j de Ψν+sΩΨ′ν . Por lo

tanto. 10.6.8 establece que el elemento de la fila i, columna j de Γ , viene dada por el elementode la fila i, columna j de

∑∞ν=0 Ψν+sΩΨ′ν , como se afirma en la parte (a).

Comprobación de (b)

Definir hs(·) para ser el momento en 10.6.7 :

hs(i, j, l,m) ≡ Ezt(i, l) · zt−s(j −m)

=∞∑ν=0

ψ(s+v)il ψ

(ν)jmσlm,

y observe que la secuenciahs(·)

∞s=0

es absolutamente sumable:

∞∑s=0

∣∣∣hs(i, j, l,m)∣∣∣ ≤ ∞∑

s=0

∞∑ν=0

∣∣∣ψ(s+ν)il

∣∣∣ · ∣∣∣ψ(ν)jm

∣∣∣ · ∣∣∣σlm∣∣∣

10.6. APÉNDICE 10.A. COMPROBACIÓN DE LAS PROPOSICIONES DEL CAPÍTULO 10 .39

= |σlm|∞∑ν=0

∣∣∣ψ(ν)jm

∣∣∣ ∞∑s=0

∣∣∣ψ(s+ν)il

∣∣∣ (10.6.9)

≤ |σlm|∞∑ν=0

∣∣∣ψ(ν)jm

∣∣∣ ∞∑s=0

∣∣∣ψ(s+ν)il

∣∣∣<∞.

Por otra parte, el elemento de la fila i, columna j de Γs, se observó en 10.6.8 que está dado por

γ(s)ij =

n∑l=1

n∑m=1

hs(i, j, l,m).

Por lo tanto,

∞∑s=0

∣∣∣γ(s)ij

∣∣∣ ≤ ∞∑s=0

n∑l=1

n∑m=1|hs(i, j, l,m)| =

n∑l=1

n∑m=1

∞∑s=0|hs(i, j, l,m)| . (10.6.10)

Desde 10.6.9 , existe una M <∞. tal que

∞∑s=0|hs(i, j, l,m)| < M

para cualquier valor de i, j, l, o m. Por lo tanto, 10.6.10 implica

∞∑s=0

∣∣∣γ(s)ij

∣∣∣ < n∑l=1

n∑m=1

M = n2M <∞,

confirmando que el elemento de la fila i, columna j deΓs∞s=0

es absolutamente sumable, comosostiene la parte (b)

Comprobación de (c)

En esencia, la álgebra idéntica como en la comprobación la propoposición de 7.10 establece que

E |zt1(i1, l1) · zt2(i2, l2) · zt3(i3, l3) · zt4(i4, l4)| (10.6.11)

Ahora,

E |yi1.t1yi2.t2yi3.t3yi4.t4| = E

∣∣∣∣∣∣µi1 +n∑

i1=1zt1(i1, l1)

∣∣∣∣∣∣ ·∣∣∣∣∣∣µi1 +

n∑i2=1

zt2(i2, l2)

∣∣∣∣∣∣·

∣∣∣∣∣∣µi3 +n∑

i3=1zt3(i3, l3)

∣∣∣∣∣∣ ·∣∣∣∣∣∣µi4 +

n∑i4=1

zt4(i4, l4)

∣∣∣∣∣∣≤ E

|µi1|+n∑

l1=1|zt1(i1, l1)|

·|µi2|+

n∑l2=1|zt2(i2, l2)|

40 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

·

|µi3|+n∑

l3=1|zt3(i3, l3)|

·|µi1|+

n∑l4=1|zt4(i4, l4)|

Pero esto es una suma finita que implica términos de la forma de 10.6.11 - que se ve que esfinita, junto con términos que implican primero a terceros momentos de z, que también debenser finitos.

Comprobación de (d)

Tenga en cuenta que

zt(i, l) · zt−s(j,m) =∞∑r=0

∞∑ν=0

ψ(r)il ψ

(v)jmεl,t−rεm,t−s−v

El mismo argumento que lleva a ?? se puede utilizar para establecer que

(1/T )T∑t=1

zt(i, l) · zt−s(j,m) p−→ E zt(i, l) · zt−s(j,m) (10.6.12)

Para ver que 10.6.12 implica ergodicidad para los segundos momentos de y, previo aviso de10.6.5 note que

(1/T )T∑t=1

yityl,t−s = (1/T )T∑t=1

[µi +n∑l=1

zt(i, l)][µl +n∑

m=1zt−s(j,m)]

= µiµl+µtn∑

m=1

[(1/T )

T∑t=1

zt−s(j,m)]+µl

n∑l=1

[(1/T )

T∑t=1

zt(i, l)]+

n∑l=1

n∑m=1

[(1/T )

T∑t=1

zt(i, l)zt−s(j,m)

]

p−→ µiµj + µi

n∑m=1

E[zt−s(j,m)] + µj

n∑l=1

E[zt(i, l)] +n∑l=1

n∑m=1

E[zt(i, l)zt−s(j,m)]

E[µi +

∑nl=1 zt(i, l)][µl +

∑nm=1 zt−s(j,m)]

= E[yi,tyi,t−s],

como se reivindica.

10.6.3. Comprobación de la proposición de 10.3

Escribiendo 10.2.11 explícitamente.

H(L)Ψ(L) = (· · ·+H−1L−1 +H0L

0 +H1L1 + · · · )× (Ψ0L

0 + Ψ1L1 + Ψ2L

2 + · · · ),

de la cual el coeficiente de Lk es

10.6. APÉNDICE 10.A. COMPROBACIÓN DE LAS PROPOSICIONES DEL CAPÍTULO 10 .41

Bk = HkΨ0 +Hk−1Ψ1 +Hk−2Ψ2 + · · · (10.6.13)

Sea bkij el elemento de la fila i , columna j de Bk, y decimos que hkij y ψkij indican la fila i ,columna j de los elementos de Hk y Ψk, respectivamente. Entonces el elemento de la fila i ,columna j de la ecuación matricial 10.6.13 indica que

bkij =n∑

m=1h

(k)imψ

(0)mj +

n∑m=1

h(k−1)im ψ

(1)mj +

n∑m=1

h(k−2)im ψ

(2)mj + · · · =

∞∑v=0

n∑m=1

h(k−v)im ψ

(0)mj

Así,

∞∑k=−∞

|bkij| =∞∑

k=∞|∞∑v=0

n∑m=1

hk−vim ψ(v)mj | ≤

∞∑k=∞

∞∑v=0

n∑m=1|hk−vim ψ

(v)mj | =

∞∑k=∞

∞∑v=0

ψ(v)mj

n∑m=1|hk−vim |.

(10.6.14)Pero como

Hk

∞k

yΩk

∞k

son absolutamente sumables.

∞∑k=−∞

|h(k−v)im | < M1 <∞

∞∑v=0|ψ(v)mj | < M2 <∞.

Así, 10.6.14 se convierte en

∞∑k=−∞

|bkij| <n∑

m=1M1M2 <∞.

10.6.4. Comprobación de la proposición 10.4

Sea A (m × n), sea B (n × r), y sea C (r × q). Sea el vector bi (n × 1) , denotado por lacolumna i-ésima de B,sea cij el vector denotado por el elemento de la fila i y columna j de C ,así

ABC = A[b1 b2 · · · br

]

c11 c12 · · · c1q

c21 c22 · · · c2q...

... · · ·...

cr1 cr2 · · · crq

= [Ab1c11 +Ab2c21 + · · ·+Abrcr1 Ab1c12 +Ab2c22 + · · ·+Abrcr2 · · ·

Ab1c1q +Ab2c2q + · · ·+Abrcrq

= [c11Ab1 + c21Ab2 + · · ·+ cr1Abr c12Ab1 + c22Ab2 + · · ·+ cr2Abr · · ·

+ c1qAb1 + c2qAb2 + · · ·+ crqAbr].

Aplicando el operador vec genera

42 CAPÍTULO 10. PROCESOS VECTORIALES ESTACIONARIOS EN COVARIANZA

vec(ABC) =

c11Ab1 + c21Ab2 + · · ·+ cr1Abr

c12Ab1 + c22Ab2 + · · ·+ cr2Abr...

c1qAb1 + c2qAb2 + · · ·+ crqAbr

vec(ABC) =

c11A+ c21A+ · · ·+ cr1A

c12A+ c22A+ · · ·+ cr2A...

c1qA+ c2qA+ · · ·+ crqA

b1

b2...br

= (C′ ⊗A) · vec(B).

10.7. Ejercicios del capítulo 10

10.1. Considere un proceso escalar AR(p) (n = 1). Deducir de la ecuación 10.2.19 que el vector( p × 1) consta de la varianza y primera autocovarianza (p-1).

γ0

γ1

γ2...

γp−1

,

se puede calcular la forma de los primeros elementos p en la primera columna de la matriz (p2 ×p2) σ2[Ip2−(F ⊗F )]′ , para F la matriz definida (p×p) en la ecuación [1.2.3] en el capítulo 1.

10.2. Sea yt = (Xt, Yt)′ dada por

Xt = εt + θεt−1

Yt = h1Xt−1 + µt

donde (εt, µt)’ es un vector de ruido con la matriz de covarianzas contemporánea dada por

E(ε2t ) E(εtµt)

E(µtεt) E(µ2t )

=

σ2ε 0

0 σ2µ

.(a) Calcular la matriz de autocovarianza

Γk∞k=−∞

para este proceso(b) Usar la ecuación 10.4.3 para calcular el espectro de población. Encuentre el cospectrum entreX e Y y el espectro de cuadratura de X a Y.(c) Compruebe que la respuesta a la parte (b) , de manera equivalente podría calcularse a partirde la expresión 10.4.45(d) Verificar mediante la integración de su respuesta a la parte (b) que 10.4.49 sostiene; es decir,

10.7. EJERCICIOS DEL CAPÍTULO 10 43

mostrar que

(2π)−1∫ π

−π

sY X(w)sXX(w)

eiwkdw =

h1 para k=1

0 para otra integración k

Referencias del capítulo 10

Andrews, Donald W.K. 1991. "Heteroskedasticity and Autocorrelation Consistent CovarianceMatrix Estimation. Econometrica 59: 817-58.——y J.Christopher Monahan.1992. An improved Heteroskedasticity and Autocorrelation Con-sistent Covariance Matrix Estimator. Econometrica 60: 953-66.Fuller, Wayne A.1976. Introduction to Statistical Time Series. New York: Wiley. Hansen, LarsP.1982. "Large Sample Properties of Generalized Method of Moments Estimators.Econometrica50:1029- 54.Newey, Whitney K. y Kenneth D. West. 1987. .A Simple Positive Semi Definite, Heteroskedas-ticity and Autocorrelation Consistent Covariance Matrix.Econometrica 55: 703-8.—- y —. 1992.Automatic Lag Selection in Covariance Matrix Estimation.Üniversidad de Wis-consin, Madison, Mimeo.Sims, Christopher A.1980. "Macroeconomics and Reality". Econometrica 48: 1-48. White.Halbert.1984.Asymptotic Theory for Econometricians. Orlando, Florida: Prensa Académica