Professional Documents
Culture Documents
CAPTULO 2
MODELOS DE SERIES DE TIEMPO
ESTACIONARIAS UNIVARIADOS
En esta seccin discutimos las herramientas bsicas del anlisis de series de tiempo para
modelos con una sola variable. Ciertamente, modelar una variable puede parecer una propuesta
modesta; la mayora de los problemas en economa se refieren a la interaccin entre variables
econmicas y, en particular, en la influencia que unas tienen sobre otras.
Existen dos razones para enfocarse en modelos univariados. La primera es de tipo
pedaggico y se refiere a que los conceptos que se desarrollan en este captulo pueden ser extendidos
a modelos multivariados directamente, pero resulta ms fcil entenderlos en un contexto univariado.
Segundo, y ms importante, los modelos univariados proveen una importante fuente de
conocimiento en dos dimensiones: primero, para identificar las caractersticas propias de cada serie
de tiempo (tamao de sus innovaciones, persistencia, dinmica hacia el equilibrio) y, segundo, para
predecir el comportamiento futuro de una variable econmica con confianza y economa de medios.
2.01
Gran parte del anlisis de modelos univariados de series de tiempo estacionarias lo haremos
sobre la base de la funcin de autocovarianzas (jt) del proceso {yt}, que se define como:
jt =E [ y t t ][ y t j t j ]
(2.1)
ESTACIONARIEDAD Y ERGODICIDAD
Estacionariedad dbil:
Estacionariedad fuerte:
2.2
Note que la estacionariedad fuerte compromete todos los momentos de la distribucin, en
tanto que la estacionariedad dbil se limita a dos de ellos (media y covarianzas). En realidad, la
denominacin de estacionariedad dbil es simplemente coloquial. Uno podra definir estacionariedad
para cualquier momento de la funcin de distribucin; as, el proceso sera estacionario de primer
orden si la media es constante, estacionario de segundo orden si la covarianza es constante, etc.
Por otro lado, el que un proceso cumpla con estacionariedad fuerte no implica que cumpla
con estacionariedad dbil. Por ejemplo, datos generados segn la distribucin de Cauchy cumplirn
con la propiedad de ser estacionarios en el sentido fuerte, pero no con ser estacionarios en el sentido
dbil. Sin embargo, estacionariedad dbil ms normalidad implican estacionariedad fuerte.
Cuando una variable aleatoria es estacionaria dbil, su funcin de autocovarianzas puede ser
escrita, y eventualmente estimada, como:
j =E [ y t][ y t j ]
(2.2)
La importancia que tiene el que una variable sea estacionaria queda graficada en la reduccin
en el nmero de parmetros necesarios para describirla como se desprende al comparar la ecuacin
(2.1) con (2.2). Si la distribucin fuese normal pero no estacionaria, en cada instante de tiempo
habra que parametrizar su media, varianza y covarianzas. En una muestra de tamao n, ello equivale
a estimar n n n1 / 2 parmetros. Si la variable, por otro lado, es estacionaria, basta con
parametrizar la media y la funcin de autocovarianzas, con slo n+1 parmetros.
Cmo sabemos si la serie es estacionaria? Esta es una pregunta compleja, a la cual le
dedicaremos bastante anlisis en el Captulo 4. Por el momento baste decir que el problema que ella
plantea es el siguiente: es posible usar la muestra {yt} y calcular los momentos E[y] y Cov[y]? Con la
excepcin de las series estacionarias, ello sera incorrecto porque los estimadores de esos momentos
seran obtenidos en el tiempo y no entre muestras.
Un concepto relacionado, pero no igual, es el de ergodicidad.1 En series de tiempo se usa
para designar aquellos procesos en los cuales una secuencia o muestra de ste es igualmente
representativa del proceso completo. Una coleccin de secuencias forma un conjunto ergdico si la
estructura de comportamiento del proceso observado en distintos intervalos de tiempo reproduce la
que se observa en cualquier otro instante de tiempo escogido al azar. Una muestra permite la
estimacin.
De esta manera, una serie estacionaria en covarianza es ergdica en la media si
lim T
1
T
y t =E y t
(2.3)
t =1
1 Ludwig Boltzmann (1844-1906) invent en 1884 el trmino ergdico a partir de las palabras griegas erg (trabajo) y ode
(forma) (ber einige Fragen der Kinetische Gastheorie, Wiener Berichte, 96: 891-918). Inicialmente el trmino se us
para designar la probabilidad que algn estado de un sistema mecnico vuelva a suceder y, en particular, a la
probabilidad cero que algn estado nunca vuelva a recurrir.
2.3
En la prctica, y como demostraremos formalmente ms adelante, lo que se requiere es que
las autocovarianzas tiendan a cero cuando j.2 La intuicin es que para que la serie sea
estacionaria el pasado remoto (j) no debe contener informacin til para hacer predicciones
sobre las realizaciones contemporneas o futuras del proceso estocstico. Esto exige:
| j|
(2.4)
j=0
lim T
1
y y t j j
T j t = j1 t
(2.5)
FUNCIN DE AUTOCORRELACIN3
j
0
(2.6)
2 Hay un concepto que es el corruptor y desatinador de los otros. No hablo del Mal cuyo limitado imperio es la tica; hablo
del infinito. Jorge Luis Borges, Avatares de la Tortuga, en Discusin, 1932.
3 La nocin de correlograma analtico fue desarrollada por A. Wold en 1938 (A Study in the Analysis of Stationary Time
Series). Sin embargo, Yule ya haba usado grficos con correlaciones empricas en su trabajo de 1926 "Why Do We
Sometimes Get Nonsense Correlations between Time-series", Journal of the Royal Statistical Society, 89, (1926), 1-69.
2.4
2.04
Este proceso, que es la base del anlisis de series de tiempo, se describe como aquel que
satisface las siguientes propiedades:
E [t ]=E t | t1 ,t2 ,=0
(2.7)
2
(2.8)
V [t ]=V t | t1 , t2 ,=
E [t t j ]= E t t j | t 1 , t 2 ,=0
j0
(2.9)
j=0
j0
(2.10)
2.5
Ms all de su aplicabilidad directa para representar series econmicas, el valor del ruido
blanco es que se utiliza para la construccin de otros procesos estocsticos como se describe a
continuacin.
La Figura 1 presenta 1.000 realizaciones de un proceso tipo ruido blanco Gaussiano estndar
(es decir, con 2 =1 ) hechas usando Gauss y su correlograma emprico.7 Note que, aunque el proceso
por construccin es ruido blanco, las correlaciones mayores a cero estimadas sobre la base de una
muestra no son exactamente cero. Esto se debe a que las correlaciones muestrales estn estimadas
con informaccin limitada y, por ello, son susceptibles de depender de la conformacin de la
muestra. Si realiza el experimento con 10,000 observaciones ver como las correlaciones muestrales
son ms parecidas a las tericas.
Figura 2.1
Proceso Ruido Blanco
Serie y Correlograma
7 El correlograma emprico depende, de manera natural, de la muestra {xt} y su tamao, por lo que no resulta extrao
que tenga correlaciones medidas distintas de cero cuando j es grande. El programa de Gauss est en el Apndice
B.
2.6
2.05
Este proceso se contruye usando una combinacin de ruidos blancos. El proceso media
mvil de orden finito q, MA(q), se define como:
y t=t 1 t12 t2 q t q
(2.11)
donde y el vector son parmetros constantes y distintos de infinito. La media del proceso (2.11)
es E [ y t ]= , obviamente, y su varianza es 0 = 2 121 22 2q . La funcin de
autocovarianzas es:
2
j = j j1 1 j2 2 q q j j=1, q
=0
jq
(2.12)
j=
j j1 1 j2 2...q q j
10 ... q
0
j=0,1,... , j
jq
(2.13)
con 0=1. Como se deduce de la ecuacin (2.13) los modelos de media mvil tienen q
autocorrelaciones distintas de cero. Es decir, la memoria se les acaba en el rezago q y la informacin
del pasado distante mayor a q no influye en la prediccin de yt ni en su varianza. En la jerga de
series de tiempo se dice que el correlograma muere sbito en q.9 Ntese que no es posible
identificar de manera nica un proceso MA(q) a partir del correlograma. Por ejemplo, los siguientes
procesos tienen el mismo correlograma:
a y t= t 1t
1
b y t = t 1t
(2.14)
2.7
summable), entonces la secuencia de autocovarianzas es sumable absoluta y el proceso es estacionario. Consideremos
la varianza del proceso (2.11), recordando que las innovaciones son independientes, cuando q
q
j=0
j =0
V [ y t ]=lim q 2j 2 = 2 lim q 2j
(2.15)
Este lmite ser finito es decir, la varianza de la serie ser finita slo si la secuencia de
coeficientes del MA es sumable cuadrtica (square summability). Las series estacionarias cumplen una
condicin un poco ms estricta llamada sumable en valor absoluto (absolute summability):
| j |
(2.16)
j=0
Naturalmente, si el MA(q) tiene coeficientes que son sumables en valor absoluto, la serie ser
ergdica en la media. Si, adems, t es Gaussiano entonces el proceso ser ergdico en todos los
momentos. Esto lo vamos a usar ms adelante para construir funciones de verosimilitud.
En la Figura 2.2 se presentan 1.000 realizaciones del siguiente proceso MA(2)
y t=0.2t 10.4 t 2 t , incluyendo su correlograma emprico. Como se puede ver, la memoria
del proceso se acaba en el segundo rezago.
Figura 2.2
Proceso Media Mvil MA(2)
Serie y Correlograma
2.8
2.06
PROCESOS AUTOREGRESIVOS
Los procesos autoregresivos tienen una lgica distinta de los modelos MA porque no se
construyen a partir de la historia de las innovaciones sino la de la misma variable (ms la innovacin
contempornea).
Tomemos el ms simple de los procesos autoregresivos, un AR(1) del tipo
y t= y t1t
(2.17)
(2.18)
(2.19)
es decir, es un MA(). Para que el proceso sea estacionario la secuencia tiene que ser sumable en
valor absoluto, lo que a su vez requiere que ||< 1.
La media del proceso (2.17) es cero, pero si el proceso fuese y t= y t1t , su media
no-condicional sera:
E [ y t ]=
(2.20)
la implicacin de este resultado es que si en cualquier modelo autoregresivo incluimos una constante,
sta dar cuenta de la media de la serie.
La varianza del proceso AR(1) es 0=
2
y su funcin de autocovarianzas es;
1 2
2
j =
1 2
j
(2.21)
2.9
1. Si <0, el correlograma tiene ciclos, i.e., valores positivos alternados con negativos. La
magnitud de los ciclos, sin embargo, es decreciente.
2. La propiedad de estacionariedad de la serie implica que Cov [ y t , y t j ]=Cov [ y t , y t j ] .
Mecnicamente esto sucede porque podemos hacer la recursin hacia atrs o hacia adelante.
Conceptualmente, la razn es que siendo estacionaria la serie lo nico que determina una
covarianza es el largo del rezago, es decir, la distancia entre yt e yt-j y no t .
En la Figura 2.3 se presentan 1.000 realizaciones del proceso y t=0.85 y t 1t donde las
innovaciones son ruido blanco Gaussiano estndar y y0=0. Se incluye, adems, el autocorrelograma
emprico en el que se puede ver claramente el patrn suavemente declinante de las
autocorrelaciones.
Figura 2.3
Proceso Autoregresivo AR(1)
Serie y Correlograma
2.10
El manejo de modelos de serie de tiempo es ms fcil si se usa el operador de rezagos, L,
que permite operar con los rezagos de manera cmoda y algebricamente.10 Se define el operador
como L y t = y t1 . As, L 2 y t = y t2 y L2 y t = y t2 .
El modelo AR(1) se puede re-escribir como:
1 L y t=t
(2.22)
de donde se desprenden las ecuaciones (2.19) y (2.20) directamente. Note que si por simplicidad se
reduce =0, entonces de (2.22) se deduce:
1 L yt =t
yt =
t
2 2
=t 1 L L ...
1 L
(2.23)
es decir, obtenemos nuevamente el resultado anterior que todo AR(1) tiene una representacin
MA() pero adems queda en evidencia que, para que el proceso sea invertible, se requiere
imponer restricciones sobre . Note que la ecuacin (2.23) se obtiene usando una expansin de
Taylor.
Si extendemos el modelo anterior a un caso general que llamaremos AR(p) tenemos:
y t= 1 y t 1 2 y t 2... p y t p t
(2.24)
(2.25)
(2.26)
(2.27)
(2.28)
2.11
es decir
y t=11 L 12 L t=[ 1 L ] [ 2 L ]t
1
j=0
(2.29)
j=0
j=0
j=0
[ 1j L j ] [ 2j L j ]= [ 1j 2jk ] L j
(2.30)
j=0 k =0
es decir, nuevamente encontramos que el AR(p) puede ser escrito como un proceso MA de orden
infinito.
Resulta evidente que el operador de rezagos puede ser usado tambin en los procesos MA(q)
directamente. En particular,
2
y t=1 1 L2 L ...q L t
q 1
11 L 2 L ...q L y t=t
(2.31)
es decir, todo MA(q) puede ser representado como un AR(). Este resultado, y su contraparte para
procesos AR(p), puede ser interpretado como que en la prctica todo proceso MA(AR) puede ser
aproximado arbitrariamente cerca por un proceso AR(MA) con un nmero suficientemente largo de
rezagos.
Para el AR(p) es directo aunque tedioso demostrar que la funcin de autocorrelacin
obedece al siguiente sistema de ecuaciones (llamado ecuaciones de Yule-Walker).
0 =1 1 2 2... p p 2
1= 1 0 2 1... p p1
=
p= 1 p1 2 p2 ... p 0
(2.32)
2.12
Figura 2.4
Proceso Autoregresivo AR(2)
Serie y Correlograma
Vamos a tener que usar una funcin adicional para identificar el orden del AR. Esta funcin
es llamada funcin de autocorrelacin parcial. La identificacin del orden del AR(p) se har sobre la
base de ambos correlogramas.
La intuicin funcin de autocorrelacin parcial es simple. Suponga que el verdadero proceso
es AR(p). Pero parametrizamos (estimamos) los datos usando un modelo AR(p-1). Sin demasiada
formalidad escribimos:
y t= AR p1 y t 1 t
(2.33)
Como sera t en este caso? Obviamente, no podra ser ruido blanco porque contiene tanto
las verdaderas innovaciones t como el trmino p yt p que no hemos incluido en el modelo. Por
lo tanto, t va a estar correlacionado con yt-p. Vamos a usar exactamente esta observacin para
construir la funcin de correlacin parcial y para determinar el orden p del modelo autoregresivo.
Estudiemos la siguiente covarianza:
*
j =cov [ y t E [ yt | y t 1 , y t 2 ... y t j 1] , y t j ]
(2.34)
donde E es la mejor prediccin lineal de yt hecha con sus propios j rezagos. El primer trmino de la
covarianza es el error de prediccin de yt que se comete al usar un modelo lineal basado en j rezagos.
Cuando no hay covarianza, significa que el error de prediccin no contiene informacin til para
2.13
predecir yt porque no queda trminos del tipo yt-p omitidos del modelo. As, cuando *j es cero, ese
es el orden del modelo AR. Naturalmente, normalizamos la covarianza parcial por la varianza para
evitar problemas de unidades de medida.
Un ejemplo del uso de ambos correlogramas se muestra en la Figura 2.5. El correlograma
total presenta un patrn de cada suave aunque cclico. Ello identifica un modelo tipo AR(p). El
correlograma parcial muere sbitamente en la segunda correlacin. Ello identifica el modelo como
un AR(2).
Figura 2.5
Correlograma Total y Parcial AR(2)
2.14
2.07
Nada le impide a un proceso estocstico tener ambos componentes (AR y MA), reflejando
distintas fuerzas que determinan la evolucin de la variable, en cuyo caso los llamamos proceso
ARMA(p,q). Naturalmente, es posible interpretar un modelo AR o MA como un caso particular del
modelo ARMA. En trminos genricos el ARMA(p,q) es:
y t= 1 y t 1 2 y t 2... p y t p t 1 t 1 2 t2...q t q
(2.35)
Respecto del correlograma total, ste tiene ambos componentes hasta el rezago q cuando la
parte MA deja de operar y slo queda la parte AR que decae suavemente con o sin
oscilaciones.
Respecto del correlograma parcial, ste tiene ambos componentes hasta el rezago p cuando
la parte AR deja de operar y slo queda la parte MA que decae suavemente con o sin
oscilaciones.
Proceso
Ruido Blanco
Cuadro 2.1
Reglas de identificacin de procesos estacionarios
Autocorrelacin Total
Autocorrelacin Parcial
Muere sbito en 0
Muere sbito en 0
MA(q)
Muere sbito en q
AR(p)
Muere sbito en p
ARMA(p,q)
2.15
2.09
Antes de avanzar hacia la parte emprica de este tipo de modelos univariados (llamada
tcnica de Box-Jenkins), debemos preguntarnos si es legtimo modelar una variable usando esta
metodologa. Hay tres preguntas que debemos responder: (1) qu nos permite asegurar que
representar una serie usando modelos ARMA(p,q) es adecuado?, (2) qu nos hace pensar que al
estudiar una funcin de autocorrelacin podremos encontrar el verdadero modelo? y (3) cmo
sabemos que una secuencia de nmeros efectivamente es una realizacin de la funcin de
autocorrelacin de algn proceso estocstico de inters?
Funciones de autocorrelacin admisibles
No toda secuencia de nmeros {1, 1 , 2 , 3, ... } corresponde a una funcin de
autocorrelacin de un proceso estocstico. Obviamente debemos restringir los valores de para que
cumplan |i|1. Pero ello no es necesariamente suficiente. Adems se debe exigir que las varianzas
0 sean positivas. Consideremos un caso particular pero ilustrativo:
V [0 y t1 y t1 ]=0 [0 1 ]
[ ][ ]
1 1 0
0
1 1 1
(2.36)
restriccin necesaria es que |1|1 (ntese que no hay restricciones sobre los coeficientes).
Si el modelo tuviese un segundo rezago, su varianza quedara descrita de manera anloga a
(2.36), excepto que la matriz de correlaciones sera ahora
[ ]
1 1 2
1 1 1
2 1 1
definida positiva, se debe cumplir que el determinante y los subdeterminantes sean positivos. Esto
ltimo requiere que |1|1 y |2|1, en tanto que el primero exige
12 21 22 212 22 0
22 211 21 0
(2.37)
2 2 1 0
2 2 1
2
1
221
121
(2.38)
esto impone restricciones a los valores de 2 dado los valores de 1. Por ejemplo si este ltimo es 0.9,
entonces 0.62 2 1.
11 Ver la prueba del teorema en Thomas Sargent, Dynamic Macroeconomics, 1987. La demostracin requiere conocer la
mecnica de los espacios de Hilbert, pero es relativamente intuitivo.
2.16
Teorema de Wold
An si contamos con una secuencia de valores que pueda ser congruente con una funcin de
autocorrelacin y, por necesidad, con una funcin de autocovarianzas de algn proceso estocstico,
qu nos permite asegurar que es posible representar variables econmicas con modelos ARMA? El
siguiente teorema es la base del anlisis de series de tiempo:
Cualquier proceso con media cero y estacionaria en covarianza {yt} puede ser representado de
manera nica por un componente lineal determinstico y un componente lineal no determinstico.
y t= P* [ y t | y t 1 , y t 2 ... y t p ] i ti
i=0
(2.39)
*
t= y t P [ yt | y t 1 , yt 2 , ...] es un error de prediccin.
t es ruido blanco, es decir tiene media cero, varianza constante, no covara con
*
P [ y t | y t 1 , y t 2 , ...] ni con los rezagos de yt.
0=1 y se cumple
2j (sumabilidad cuadrtica)
j=0
Cul es el mejor predictor lineal de yt? Podemos aproximar este problema usando un
modelo AR con p rezagos.
p
i=1
i=0
y t= i yt i i t i
(2.40)
Este es un modelo ARMA. El primer trmino es un AR(p) pero el segundo es una media
mvil de orden infinito. Obviamente, ste no puede ser estimado con muestras aleatorias de tamao
finito. Usamos como solucin de compromiso buscar el mejor ajuste con rezagos finitos.
p
i=1
i=0
y t= i y ti i t i
(2.41)
2.17
Algunas observaciones importantes respecto del Teorema de Wold.
1. No se requiere que los errores se distribuyan normal o sean i.i.d.
2. No se requiere que E y t ,t =0 sino que P * y t ,t =0 . La diferencia radica en que P*()
es una proyeccin lineal, en tanto que E() considera todas las posibles formas de proyeccin
de yt, tanto lineales como no lineales.
3. Los errores t no tienen por qu ser las verdaderas innovaciones del proceso.
4. La representacin de la serie como un MA() es una posible representacin del DGP de los
datos que captura el segundo momento, no es la representacin de la serie. Otras
representaciones pueden capturar, adems, momentos de orden superior.
5. La representacin de la serie segn la ecuacin (2.39) es nica entre modelos lineales en que
los errores de proyeccin son lineales.
2.10
METODOLOGA DE BOX-JENKINS
La metodologa de Box y Jenkins12 para modelar series de tiempo apareci como una
alternativa al fracaso de los modelos economtricos de gran escala (basados en gran nmero de
ecuaciones simultneas tradicionales, ver Klein y Evans13) durante los aos 1970-1975. Esta
metodologa considera seis pasos, que discutimos a continuacin:
1. Como se aplica a series estacionarias, primero debe hacerse estacionaria la variable aleatoria.
Para ello usualmente se aplica algn filtro.
2. Se retiran, adems, los componentes determinsticos (p.e., estacionalidad, constante).
3. Se computan los correlogramas muestrales y se hace una identificacin preliminar del modelo, es
decir se determina el tipo y orden del modelo subyacente (AR, MA, ARMA).
4. Se estiman los parmetros del modelo propuesto.
5. Se hacen tests de especificacin y se evalua si la identificacin preliminar es adecuada. Si no
lo es, se modifica la especificacin.
6. Se hacen predicciones del modelo estimado dentro y fuera de la muestra.
12 Box, G. E. P., and Jenkins, G. Time Series Analysis: Forecasting and Control, Holden-Day, 1976.
13 L. Klein and G. Evans, The Wharton Econometric Forecasting Model, 1967.
2.18
2.11
(2.42)
donde y son dos parmetros y (L) es la representacin media mvil de un modelo ARMA(p,q)
para las innovaciones t . La remocin de tendencia correspondera a obtener y t
t . Esto
puede ser hecho usando tcnicas de mnimos cuadrados para filtrar la serie.
Si la variable no es estacionaria lo que se verifica cuando el correlograma muestral no cae o
lo hace demasiado lento se debe tomar la primera diferencia de la serie. Es decir,
1L y t =* Lt
(2.43)
Exactamente cundo se debe usar cada mtodo es lo que nos preocupar ms adelante
cuando se estudie el tema de races unitarias (ver Captulo 4). En esta seccin supondremos que el
econometrista sabe a-priori cundo usar primeras diferencias o diferencias con respecto a una
tendencia lineal.
Tambin es necesario remover los componentes determinsticos, tales como los efectos
estacionales, usando algn tipo de filtro. Soto (2002)15 demuestra que los mtodos ms populares de
ajuste estacional (p.e., ARIMA X-11) no pueden ser considerados una simplificacin inocente de los
datos sin prdidas sustanciales de informacin valiosa. El tratamiento estndar para remover la
estacionalidad supone que la variable es estacionaria. Si este supuesto es correcto, Sims (1974)
demuestra que la remocin de componentes estacionales usando un proceso de filtrado comn para
todas las series mantiene las condiciones de congruencia del modelo original. Ghysels y Perron
(1993)16, por otro lado, demuestran que la conclusin anterior no puede ser extendida a modelos
dinmicos en los cuales se incluyen variables endgenas rezagadas. Soto (2002) demuestra que si el
supuesto de estacionariedad de la estacionalidad no se cumple, la remocin de componentes
estacionales con mtodos tipo ARIMA X-11 es inadecuada porque induce correlacin serial an si
sta no existe en los datos originales.
14 Como de costumbre, consideramos todas las variables en logaritmos, de modo tal que cambios en la variable
corresponden a su tasa de crecimiento.
15 Ajuste Estacional e Integracin en Variables Macroeconmicas, Cuadernos de Economa, 39:135-155, 2002.
16 Sims, C. A. (1974). Seasonality in regression, Journal of the American Statistical Association, 69, 618-627. Ghysels, E.
and P. Perron (1993). The effect of seasonal adjustment filters on tests for a unit root, Journal of Econometrics (55)12. pp. 57-98
2.19
2.12
En las secciones anteriores hemos identificado los distintos tipos de modelos (AR, MA,
ARMA) mediante el uso de correlogramas tericos. Si tenemos una muestra finita, sin embargo,
tendremos estimadores de las correlaciones. Es decir, tendremos que hacer inferencias basados en la
evidencia muestral, para lo cual es necesario determinar la distribucin del correlograma muestral.
Si los datos son de un MA(q) con innovaciones Gaussianas, entonces a partir del rezago q las
correlaciones muestrales debieran ser cero en valor esperado, pero como stas son una variable
estocstica podran ser numricamente distintas de cero. Como dichas estimaciones tienen varianza
ello nos permite hacer intervalos de confianza para la hiptesis nula H 0 : j=0 . La varianza de las
correlaciones es:
1
Var j 12 i2
T
i=1
j =q1, q2. ..
(2.44)
(2.45)
entonces, el ltimo coeficiente m debiese ser 0 en valor esperado si m>p. Su varianza es:
Var m m
1
T
(2.46)
por lo que el intervalo de confianza para el test de la hiptesis nula m =0 de tamao 95% es
2/ T . Esto soluciona el problema de inferencia.
La figura 2.6 presenta grficamente dos simulaciones hechas para un AR(2) con parmetros
comunes, pero cambiando el tamao de muestra. El panel de la izquierda corresponde a una muestra
de 100 observaciones, el de la derecha corresponde a 1.000 observaciones. Hay dos elementos
destacables. Primero, la reduccin de la incertidumbre en el estimador de la correlacin. Segundo, la
mayor precisin de la estimacin de las correlaciones. No obstante, ambos grficos sugieren que el
modelo es un AR(2).
2.20
Figura 2.6
Efecto del Tamao de Muestra en Identificacin en un AR(2)
Tamao de Muestra 100
Debe reconocerse que la identificacin por correlogramas es, en la prctica, algo difcil
porque los correlogramas empricos son menos ntidos que los correlogramas tericos, sobre todo
en muestras pequeas. Por ello, la siguiente etapa del mtodo de Box y Jenkins (estimacin de
modelos ARMA) es crucial. Estimar el modelo ARMA es relativamente directo por mxima
verosimilitud, pero lo vamos a ver paso por paso.
Algunos autores sealan que se deben usar los correlogramas muestrales slo para tener
una idea del tipo de proceso y su largo, pero que la clave consiste en asegurar que los innovaciones
sean ruido blanco usando tests de diagnstico adecuados.
2.13
c
1
V [ y 1 ]=
2
1 2
(2.47)
2.21
f y 1 ; =
1
1
2
2 /12
[
e
y1c /1
2
2 / 1
(2.48)
1
f y 2 | y 1 ; =
e
2 2
y 2c y1
2
(2.49)
Note que para la densidad de y2 condicional en y1, el valor observado de y1 es una constante
no una variable aleatoria. Entonces, E [ y 2 ]=c y1 y la nica varianza es la del error t, por lo que
y2 se distribuye N c y 1 , 2 ). En general, las densidades condicionales para los datos desde 2 a
n se pueden escribir como:
1
f y t | y t1 , y t2 ... y1 ; = f y t | yt 1 ; =
e
2 2
yt c y t1
2
(2.50)
Dado que los yi son independientes, la densidad conjunta de la muestra es el producto de las
marginales. Para la primera y segunda observacin es:
f y 2, y 1 ; = f y 2 | y1 ; f y 1 ;
(2.51)
Podemos hacer esto para todas las observaciones yi de la muestra y obtener la funcin de
verosimilitud exacta:
T
= f y t | y t 1 ; f Y y 1 ;
1
t =2
(2.52)
Tomando logaritmos:
T
(2.53)
t =2
o, lo que es equivalente:
2
y 1 c /12
1
1
log 2 log
2
2
2
2
2
1
2 /1
T
y t c y t 12
T 1
T 1
2
log 2
log
2
2
2
2
t =2
log =
(2.54)
2.22
Esta funcin se optimiza por clculo numrico18. Hay que reconocer, no obstante, que la
estimacin puede ser engorrosa, en particular porque los mtodos de optimizacin directa de la
funcin de verosimilitud son sensibles a los puntos de partida y al algoritmo de estimacin. Una
alternativa prctica es optimizar la densidad condicional en y1
T
f y t , y t 1 , y t 2 ...| y 1 ; = f y t | y t1 ;
(2.55)
t =2
entonces
T
log =
y t c y t 12
T 1
T 1
2
t =2
log 2
log
2
2
(2.56)
La ecuacin (2.56) tiene tres componentes, de los cuales los primeros dos son constantes.
Por ello, maximizar log () es equivalente a minimizar el ltimo trmino. Pero esto ltimo es
equivalente a hacer una regresin de mnimos cuadrados ordinarios. As, la maximizacin de la
densidad condicional en y1 de la muestra produce estimadores de los parmetros que son
equivalentes a los obtenidos por una regresin OLS de yt en sus rezagos. Este resultado se extiende
directamente a un proceso AR(p).
2.14
(2.57)
2.23
Podemos formar entonces la densidad conjunta condicional y la funcin de verosimilitud
condicional:
log =
T 1
T 1
1
log 2
log 2 2 t2
2
2
2 t =1
(2.58)
2.16
T
T
1
log =
log 2 log 2 2 2t
2
2
2 t =1
(2.59)
t = y t c 1 y t 1 2 y t 2... p y t p 1 t 1 2 t 2 ...q t q
(2.60)
La prediccin de una variable econmica envuelve dos dimensiones: el valor que se espera
que la variable tome en el perodo t+j y, debido a la aleatoriedad de los modelos economtricos, la
imprecisin o varianza de la prediccin. Es decir, queremos:
E [ y t j ]=E[ y t j | y t j 1 , y t j 2 , ... ,t ,t 1 ,...]
V [ y t j ]=V [ y t j | y t j1 , y t j2 ,... ,t ,t 1 ,...]
19 La prediccin es algo muy difcil, sobre todo acerca del futuro, Niels Bohr.
(2.61)
2.24
Prediccin de un modelo AR(1)
Consideremos el modelo y t = y t 1t , entonces
Et [ y t 1 ]=E t [ y t t 1 ]= y t
Et [ y t 2 ]=E t [ y t 1t 2]= 2 y t
Et [ y t 3 ]=E t [ y t 2t 3]=3 y t
Et [ y t j ]=E t [ y t j 1t j ]= j y t
(2.62)
Ntese que la prediccin del AR(1) es su representacin de media mvil de orden infinito.
Adems, si tomamos la prediccin en el infinito (es decir, el lmite cuando j), vemos que es cero,
lo que es razonable en un proceso estacionario con media no condicional cero:
lim j E t y t j =0=E [ y t ]
(2.63)
recuerde que los momentos no-condicionales son los lmites de los momentos condicionales.
Por otro lado la varianza de la prediccin es:
V t [ y t 1 ]=V t [ y t t 1 ]= 2
V t [ y t 2 ]=V t [ y t 1 t 2 ]=12 2
V t [ y t 3 ]=V t [ y t 2 t 3 ]=1 2 4 2
(2.64)
1
2 =V [ y t ]
2
1
(2.65)
Este anlisis puede extenderse tediosamente aunque sin dificultades analticas para el AR(p).
Existe una tcnica que estudiaremos ms adelante que permite escribir un AR(p) como si fuese un
AR(1) de modo de computar las predicciones y sus varianzas de acuerdo a las ecuaciones (2.64) y
(2.65) fcilmente.
2.25
Prediccin de un modelo MA(q)
Como hemos visto, la prediccin de un modelo AR(p) es equivalente a obtener su
representacin MA() y tomar esperanza y varianza de la prediccin. En el caso del MA(q) esto es
directo. Si consideramos el modelo y t =t 1 t 1 2 t 2...q t q , entonces:
E[ y t j ]=E [t j 1 t j 12 t j 2...q t j q ]
= j t j1 t 1... q t j q
(2.66)
donde nuevamente en el lmite, la prediccin condicional equivale a la no-condicional. Por otro lado
la varianza de la prediccin es:
V [ y t j ]=V [ t j 1 t j 1...q t j q ]=12j 2j1...2q 2
(2.67)
2.17
(2.68)
(A)
podremos predecir usando los p regazos de yt y los q regazos de t . Este tipo de simulacin
se llama prediccin esttica. Ver Figura 2.7.
(B)
podremos predecir usando los p regazos de yt y los q regazos de t ya predichos por el
modelo en iteraciones anteriores. Este tipo de simulacin se llama prediccin dinmica. Ver Figura 2.8.
2.26
Figura 2.7
Prediccin Esttica
Figura 2.8
Prediccin Dinmica
.20
.15
.15
.10
.10
.05
.05
.00
.00
-.05
-.05
-.10
-.10
-.15
-.15
-.20
1980
2.18
1985
1990
1995
2000
1980
1985
1990
1995
2000
Una vez estimado el modelo, tenemos que estar seguros que ste tenga sentido
economtrico. Algunas reglas tiles al respecto son:
Los residuos deben ser ruido blanco (sin estructura). Existen numerosos test de verificacin
que los residuos son no correlacionados (p.e., Ljung-Box, Box-Pierce, etc).
El ajuste del modelo debe ser "razonable". Considere que, como lo que un modelo ARMA
explota es la memoria de las series, la bondad de ajuste debe ser alta.
Hay que tener cuidado con el problema de sobreparametrizar (overfitting). Debido a que
estamos trabajando con polinomios, mientras ms polinomios usemos el R tender a crecer.
Un criterio ms preciso que la identificacin visual de los correlogramas son los tests de
largo de regazos. Entre los ms comunes estn aquellos de "contenido informacional", que
consisten en hacer un trade-off entre ajuste (medido por la suma de residuos al cuadrado) y
exceso de parmetros (k) respecto del tamao de muestra (T):
Test de Akaike:
min
Test de Schwartz
min
Test de Hannan-Quinn
min
log 2k
T
T
log k log T
2
T
T
log 2k log log T
2
T
T
2
2.27
APNDICE A:
1.
OPERADOR DE REZAGOS
2.
Si se aplica repetidamente
p
L y t =L L L ... L = y t p .
el
operador
la
variable
yt
3.
4.
El operador es lineal, L 1 y t = L 1 Ly t = y t1 .
5.
se
obtiene:
6.
Se puede usar el operador para definir un operador similar que se utiliza en modelos
multivariados, llamado el operador de rezagos polinomial. Este se define como
L =1 1 L 2 L 2... ppL . Al igual que en el caso anterior, este operador tiene inversa
L L 1 y t =L 1 L y t = y t .
7.
Multiplicacin:
a L b L =a 0 a 1 L ...b 0b 1 L ...
b.
Propiedad conmutativa:
a L b L =b L a L
c.
a L 2=a L a L
d.
Inversin:
a L =1 11 2 a L 1=1 1 1 1 21
2.28
APNDICE B:
endif;
";;
data=rndn(len+50,1);
/* nombre serie */
/* quita 50 datos extra */
/* nombre serie */
/* crea data AR(p) */
2.29
field=1;fmat="%*.*lf";
lbp=ftos(p,fmat,field,0);
lbq=ftos(q,fmat,field,0);
tit="ARMA(" $+lbp$+","$+lbq$+")";
ar=ones(len+50,1)*0;
i=maxc(p|q)+1;
do while i<=len+50;
j=1;
auxp=zeros(p,1);
do while j<=p;
auxp[j,1]=phi[j,1]*ar[i-j,1];
j=j+1;
endo;
k=1;
auxq=zeros(q,1);
do while k<=q;
auxq[k,1]=theta[k,1]*data[i-k,1];
k=k+1;
endo;
ar[i,1]=sumc(auxp)+sumc(auxq)+data[i,1];
i=i+1;
endo;
serie=trimr(ar,50,0);
/* nombre serie */
/* crea data AR(p) */
endif;
{rhot,rhop,inter}=myauto(serie);
mono(serie,ones(1,1)|rhot,ones(1,1)|rhop,inter[1,1]|inter);
end;
proc(0)=mono(serie,rhot,rhop,inter);
local z,zz,linea;
graphset;
/* Procedimiento de Graficos */
fonts("simplex simgrma");
_pnumht={0.25};
_pnum=2;
_pdate="";
_plwidth = 3;
_pltype={6};
_ptitlht={0.35};
_protate=0;
begwind;
window(3,1,0);
setwind(1);
_protate=0;
z="Serie ";
title(z$+tit);
xy(seqa(0,1,rows(serie)),serie);
nextwind;
z="Correlograma Total de ";
title(z$+tit);
_pltype={6,6,1,1};
xtics(0,rows(rhot)-1,1,1);
_pcolor={1,2,3,4};
linea=zeros(rows(rhot),1);
xy(seqa(0,1,rows(rhot)),rhot~linea~inter~(-1*inter));
nextwind;
z="Correlograma Parcial de ";
title(z$+tit);
xy(seqa(0,1,rows(rhot)),rhop~linea~inter~(-1*inter));
endwind;
/*
/*
/*
/*
/*
/*
/*
/* Resetea opciones */
define letras */
tamano de numeros */
tipo de numeros */
omite fecha */
ancho de lineas */
tipo de lineas */
tamano titulo */
2.30
endp;
proc(3)=myauto(data);
local z,data,vardata,i,autoc,autop,inter,bhat;
z=minc((trunc(rows(data)/4)|24));
data=data-meanc(data);
vardata=data'data;
autoc=zeros(z,1);
autop=autoc;
i=1;
do while i<=z;
autoc[i,1]=trimr(data,i,0)'packr(lagn(data,i))/vardata;
i=i+1;
endo;
inter=ones(rows(autoc),1)*2/sqrt(rows(data));
/* max autocorrelaciones */
/* quita media */
/* varianza series */
/* autocorrelacion total */
/* intervalos de confianza */
i=1;
do while i<=z;
data=packr(data~shiftr(data[.,cols(data)]',1,(miss(0,0))')');
bhat=data[.,1]/(ones(rows(data),1)~data[.,2:cols(data)]); /*autocorrelacion parcial */
autop[i,1]=bhat[rows(bhat),1];
i=i+1;
endo;
retp(autoc,autop,inter);
endp;
2.31
APNDICE C:
EJERCICIOS
6. Suponga que R 2 tal que es i.i.d N [0, ] , donde es una matriz de 2x2 positiva y
definida. Suponga que z t =[x t , y t ] . La solucin estacionaria del modelo primitivo
(estructural) es
A0 z t = A 1 z t1t
donde z0 = 0. Los coeficientes de las matrices son:
[ ]
A0 = 1 0
1
[ ]
A 1=
2.32
b) Suponga ahora que = 1. Es un estimador consistente de ? Encuentre la distribucin
lmite del estimador.
2.33
APENDICE D:
Entre los mtodos ms comunes para remover la estacionalidad estn el uso de variables
mudas estacionales y el mtodo de promedios mviles, que incluye desde la variacin en xperiodos hasta el ARIMA X-11. Esta ltima es la metodologa ms popular tanto porque su nivel
de desarrollo analtico es superior, como porque viene implementada como una opcin sencilla de
usar en muchos programas economtricos.
En esta seccin consideramos las dos principales metodologas de remocin de la
estacionalidad que parten de la base que las series son estacionarias: el mtodo de las variables
mudas (dummies) y la metodologa X-1120. Estas son las metodologas ms antiguas y, pese a ser an
populares, son limitadas e imponen fuertes restricciones a la naturaleza estocstica de las series y de
la estacionalidad.
Mtodo de Regresin
Esta es, probablemente, la manera ms simple de remover componentes estacionales. No
obstante es la que impone mayores restricciones sobre las caractersticas que debe cumplir el
fenmeno de estacionalidad. En el mtodo de regresin se utiliza una serie de variables mudas para
capturar los efectos estacionales:
y t =01 D1 2 D 2 k D k x t t
donde cada variable Di toma valores 1 en el periodo que sta representa (p.e., enero de cada ao) y
cero en cualquier otro periodo. El modelo (1) puede ser extendido para incluir otras variables
explicativas o un proceso ms complejo aunque estacionario para el error (p.e., un ARMA).
En la medida que los coeficientes i sean estadsticamente significativos, habrn componentes
estacionales. Consecuentemente, la serie desestacionalizada y *t se calcula como:
y *t = y t 1 D1 2 D 2 k D k
donde i son los parmetros estimados para cada componente estacional que resulten
significativos.
Como resulta evidente, al modelar la estacionalidad de esta manera se asume que el efecto
estacional sea determinstico (o constante en valor esperado), es decir que en cada ao el cambio en
la variable por razones estacionales sea exactamente el mismo. Ello no es un supuesto adecuado para
muchas de las variables econmicas debido a que el comportamiento estacional se determina por
numerosas y muy heterogneas fuentes, lo que sugiere que ste sea modelado como una variable
aleatoria.
20 La metodologa de la variacin en x-periodos implcitamente supone que la serie es no estacionaria al menos en el
componente estacional por lo que su descripcin se incorpora en la seccin 4.2.
2.34
El uso de variables mudas para modelar estacionalidad en un anlisis de regresin presenta el
problema de inducir correlaciones espreas entre las variables (Abeysinghe, 1994a), en tanto que su
uso para predecir variables en modelos de series de tiempo (p.e., ARIMA, VAR) produce
predicciones fuera de muestra que son de peor calidad que las que se obtienen de otros mtodos (X11 o la variacin en x-periodos), en especial en modelos multivariados (Abeysinghe, 1994b).
No obstante, este mtodo satisface algunas caractersticas que son deseables en cualquier
mtodo de remocin de estacionalidad: que se preserve el promedio de la serie original, que los
componentes estacionales sean ortogonales entre s, y que al aplicar el mtodo a la serie
desestacionalizada no se obtengan nuevos factores estacionales (idempotencia).
Pese a su popularidad, las metodologas tradicionales tienen grandes limitaciones.
Implcitamente, ellas suponen que la variable que se desea desestacionalizar cumple determinadas
propiedades estadsticas, las que usualmente no son verificadas previamente en los datos. Algunas
tcnicas suponen que los factores estacionales son determinsticos en tanto que otras asumen que
stos son estocsticos y estacionarios. En general, estas metodologas requieren que las series
originales sean estacionarias para estimar adecuadamente los componentes estacionales.
Inadvertidamente, algunos mtodos imponen estructuras dinmicas que las variables no
necesariamente poseen (p.e., la variacin en x-periodos). Cuando dichas propiedades no se verifican,
las metodologas de remocin del componente estacional entregan series filtradas que presentan
fuertes distorsiones y que pueden llevar a mala especificacin en modelos o a conclusiones
equivocadas cuando stas se usan para hacer tests de hiptesis.
Ms all de las limitaciones tcnicas de los distintos mtodos de desestacionalizacin, existe
una razn ms profunda para investigar el comportamiento estacional de las principales variables
macroeconmicas y que se relaciona con nuestro conocimiento de las fuentes y efectos de las
fluctuaciones de la economa. Beaulieu y Miron (1995) sealan que, en ocasiones, el estudio de los
componentes estacionales puede convertirse en una herramienta til para comprender la estructura
de los ciclos econmicos. La razn fundamental para ello es que el estudio de ciclos requiere
imponer condiciones de identificacin sobre los shocks (transitorios, permanentes) que afectan a la
variable de inters, de la misma manera que se hace para distinguir en un mercado cualquiera los
shocks de oferta y demanda. Segn estos autores, resulta ms creble imponer dichas restricciones
sobre los componentes estacionales que sobre los componentes fundamentales.
2.35
cambios de niveles de las series (quiebres), tendencia y un conjunto de variables mudas que operan
como estimadores preliminares de la estacionalidad. El modelo ARIMA se escoge de modo tal que
satisfaga varios requisitos, entre ellos un bajo error de prediccin fuera de muestra, ausencia de
correlacin y estacionariedad de residuos. Una vez estimado el modelo ARIMA se realizan dos
transformaciones a la serie original: (1) se reemplazan los valores extremos por valores filtrados
eliminndose la posible distorsin, y (2) se predice un cierto nmero de periodos (tpicamente 2
aos) fuera de cada extremo de la muestra y se aaden los valores predichos a la serie original. El
objetivo de esto ltimo se describe a continuacin.
En la segunda etapa se estiman los componentes estacionales por medio de promedios
mviles. En una primera parte, se estima el componente de tendencia de la serie transformada en la
etapa anterior utilizando los llamados promedios mviles de Henderson. El promedio mvil de
Henderson es un promedio ponderado de manera decreciente de 3, 5, 7, ... observaciones centrado
en la observacin de inters, por lo que considera valores pasados y futuros. El nmero de
observaciones es frecuentemente seleccionado de modo automtico por el programa. En la segunda
etapa, se estiman los componentes estacionales de la serie ajustada en la primera etapa a la cual se le
han eliminado adicionalmente los componentes de tendencia. El papel que cumplen las
observaciones aadidas en la primera etapa es mejorar el clculo de los componentes estacionales
usando promedios mviles en los extremos de la muestra donde la informacin est truncada.
El procedimiento para datos trimestrales es el siguiente (para datos mensuales el
procedimiento es anlogo):
Se obtiene la serie
r t=
[ 0.5
y t 2 y t 1 y t y t 1 0.5 y t 2 ]
4
yt
xt
Se calculan los ndices estacionales, i, como el promedio de los valores de r estimados para
cada trimestre (por ejemplo, para el primer trimestre se usan r1, r5, r9, ...).
y *t =
Aunque el mtodo ARIMA X-11 es muy popular no est exento de limitaciones. En primer
lugar, el mtodo produce en la mayor parte de las aplicaciones prcticas un filtro no lineal, porque en
2.36
los subfiltros se utilizan promedios de Henderson con distinto nmero de rezagos determinados de
manera endgena en funcin de la presencia de valores extremos en los datos (Ghysels y Perron,
1993). Ello distorsiona las propiedades dinmicas de las series. Segundo, el filtro induce correlacin
en datos distantes producto del uso de promedios mviles de Henderson que no necesariamente
existe en las series originales. Tercero, para varias clases de modelos el uso de un ARIMA para la
prediccin en las puntas de la muestra utilizando variables expresadas en logartmos produce un
sesgo sistemtico hacia abajo en las series ajustadas por estacionalidad (Franses, 1997). La magnitud
y sentido del sesgo son desafortunadamente, desconocidos porque dependen de la estructura
particular de cada muestra y modelo. Cuarto, el tratamiento de los componentes irregulares (por
ejemplo, Semana Santa que cae en distintos das del mes de abril de cada ao) no es necesariamente
ptimo en esta metodologa, favorecindose su remocin por mtodos indirectos previos al filtrado
de los datos con X-11 (Lee, 1998).
2.37
Contenidos
Captulo 2..................................................................................................................................................1
Modelos de Series de Tiempo ..............................................................................................................1
Estacionarias Univariados......................................................................................................................1
2.01 Primera Representacin Fundamental de un Proceso Estocstico.......................................1
2.02 Estacionariedad y Ergodicidad.....................................................................................................1
2.03 Funcin de Autocorrelacin.........................................................................................................3
2.04 Proceso Ruido Blanco..................................................................................................................4
2.06 Procesos Autoregresivos..............................................................................................................8
2.07 Procesos Autoregresivos y de Media Mvil.............................................................................14
2.08 Identificacin de Procesos Estocsticos Estacionarios........................................................14
2.09 Funciones de Correlacin Admisibles y el Teorema de Wold............................................15
2.10 Metodologa de Box-Jenkins.....................................................................................................17
2.11 Cmo Volver Estacionaria una Variable?...............................................................................18
2.12 Identificacin del Tipo de Modelo ARMA..............................................................................19
2.17 Simulacin Histrica con Modelos ARMA............................................................................25
2.18 Validacin del Modelo Economtrico ARMA.......................................................................26
Apndice A: Operador de Rezagos.................................................................................................27
Apndice B: Cdigo Gauss para simulacin de modelos ARMA..............................................28
Apndice C: Ejercicios.......................................................................................................................31
Apendice D: Metodologas de Remocin de Estacionalidad para Variables Estacionarias... 33
Ultima correccin:
28/05/07