You are on page 1of 37

2.

CAPTULO 2
MODELOS DE SERIES DE TIEMPO
ESTACIONARIAS UNIVARIADOS
En esta seccin discutimos las herramientas bsicas del anlisis de series de tiempo para
modelos con una sola variable. Ciertamente, modelar una variable puede parecer una propuesta
modesta; la mayora de los problemas en economa se refieren a la interaccin entre variables
econmicas y, en particular, en la influencia que unas tienen sobre otras.
Existen dos razones para enfocarse en modelos univariados. La primera es de tipo
pedaggico y se refiere a que los conceptos que se desarrollan en este captulo pueden ser extendidos
a modelos multivariados directamente, pero resulta ms fcil entenderlos en un contexto univariado.
Segundo, y ms importante, los modelos univariados proveen una importante fuente de
conocimiento en dos dimensiones: primero, para identificar las caractersticas propias de cada serie
de tiempo (tamao de sus innovaciones, persistencia, dinmica hacia el equilibrio) y, segundo, para
predecir el comportamiento futuro de una variable econmica con confianza y economa de medios.
2.01

PRIMERA REPRESENTACIN FUNDAMENTAL DE UN PROCESO ESTOCSTICO

Gran parte del anlisis de modelos univariados de series de tiempo estacionarias lo haremos
sobre la base de la funcin de autocovarianzas (jt) del proceso {yt}, que se define como:

jt =E [ y t t ][ y t j t j ]

(2.1)

donde t es la media de la serie en el instante t y E es la esperanza matemtica condicional en la


infomacin disponible hasta el instante t-1. Naturalmente, 0t es la varianza de la serie en el instante t.
La funcin de autocovarianza es la primera representacin fundamental de un proceso
estocstico. El concepto de fundamental se refiere a que dicha funcin identifica y caracteriza el
proceso estocstico completamente. Si dos variables tienen la misma funcin de autocovarianzas,
entonces son el mismo proceso estocstico.
2.02

ESTACIONARIEDAD Y ERGODICIDAD

Se define la estacionariedad como aquella propiedad de la funcin generadora de los datos


(DGP) que da origen a la muestra, tal que:

Estacionariedad dbil:
Estacionariedad fuerte:

cuando la media y covarianzas no dependen del tiempo (slo de j).


cuando la funcin de probabilidad conjunta de las realizaciones de xt no depende
del tiempo y slo depende de j .

2.2
Note que la estacionariedad fuerte compromete todos los momentos de la distribucin, en
tanto que la estacionariedad dbil se limita a dos de ellos (media y covarianzas). En realidad, la
denominacin de estacionariedad dbil es simplemente coloquial. Uno podra definir estacionariedad
para cualquier momento de la funcin de distribucin; as, el proceso sera estacionario de primer
orden si la media es constante, estacionario de segundo orden si la covarianza es constante, etc.
Por otro lado, el que un proceso cumpla con estacionariedad fuerte no implica que cumpla
con estacionariedad dbil. Por ejemplo, datos generados segn la distribucin de Cauchy cumplirn
con la propiedad de ser estacionarios en el sentido fuerte, pero no con ser estacionarios en el sentido
dbil. Sin embargo, estacionariedad dbil ms normalidad implican estacionariedad fuerte.
Cuando una variable aleatoria es estacionaria dbil, su funcin de autocovarianzas puede ser
escrita, y eventualmente estimada, como:
j =E [ y t][ y t j ]

(2.2)

La importancia que tiene el que una variable sea estacionaria queda graficada en la reduccin
en el nmero de parmetros necesarios para describirla como se desprende al comparar la ecuacin
(2.1) con (2.2). Si la distribucin fuese normal pero no estacionaria, en cada instante de tiempo
habra que parametrizar su media, varianza y covarianzas. En una muestra de tamao n, ello equivale
a estimar n n n1 / 2 parmetros. Si la variable, por otro lado, es estacionaria, basta con
parametrizar la media y la funcin de autocovarianzas, con slo n+1 parmetros.
Cmo sabemos si la serie es estacionaria? Esta es una pregunta compleja, a la cual le
dedicaremos bastante anlisis en el Captulo 4. Por el momento baste decir que el problema que ella
plantea es el siguiente: es posible usar la muestra {yt} y calcular los momentos E[y] y Cov[y]? Con la
excepcin de las series estacionarias, ello sera incorrecto porque los estimadores de esos momentos
seran obtenidos en el tiempo y no entre muestras.
Un concepto relacionado, pero no igual, es el de ergodicidad.1 En series de tiempo se usa
para designar aquellos procesos en los cuales una secuencia o muestra de ste es igualmente
representativa del proceso completo. Una coleccin de secuencias forma un conjunto ergdico si la
estructura de comportamiento del proceso observado en distintos intervalos de tiempo reproduce la
que se observa en cualquier otro instante de tiempo escogido al azar. Una muestra permite la
estimacin.
De esta manera, una serie estacionaria en covarianza es ergdica en la media si
lim T

1
T

y t =E y t

(2.3)

t =1

1 Ludwig Boltzmann (1844-1906) invent en 1884 el trmino ergdico a partir de las palabras griegas erg (trabajo) y ode
(forma) (ber einige Fragen der Kinetische Gastheorie, Wiener Berichte, 96: 891-918). Inicialmente el trmino se us
para designar la probabilidad que algn estado de un sistema mecnico vuelva a suceder y, en particular, a la
probabilidad cero que algn estado nunca vuelva a recurrir.

2.3
En la prctica, y como demostraremos formalmente ms adelante, lo que se requiere es que
las autocovarianzas tiendan a cero cuando j.2 La intuicin es que para que la serie sea
estacionaria el pasado remoto (j) no debe contener informacin til para hacer predicciones
sobre las realizaciones contemporneas o futuras del proceso estocstico. Esto exige:

| j|

(2.4)

j=0

Igualmente, una serie estacionaria en covarianza es ergdica en los segundos momentos si


T

lim T

1
y y t j j
T j t = j1 t

(2.5)

Usualmente ergodicidad y estacionariedad son equivalentes. No obstante, considere el


proceso y it=i t , donde i es la media de cada secuencia y se extrae de una N(0,). El proceso es
estacionario porque E [ y it ]= E [i ]=0 y V [ y it ]=2 2 , pero no es ergdico porque el promedio
de una secuencia dada computado usando (2.3) no es cero sino i.
2.03

FUNCIN DE AUTOCORRELACIN3

En la prctica, la funcin de autocovarianzas no se utiliza para el anlisis de series de tiempo


porque depende de unidades de medida que hacen compleja su interpretacin. La funcin de
autocorrelacin definida como la funcin de autocovarianzas normalizada por la varianza tiene la
ventaja de ser adimensional (sin unidades) y estar acotada al intervalo [-1,1].
j=

j
0

(2.6)

La representacin grfica de las correlaciones para distintos valores de j, llamados rezagos, es


llamado correlograma. En las secciones siguientes usaremos la funcin de autocorrelacin y su
correlograma asociado como la base para identificar el tipo de modelo de serie de tiempo que mejor
representa una variable aleatoria.

2 Hay un concepto que es el corruptor y desatinador de los otros. No hablo del Mal cuyo limitado imperio es la tica; hablo
del infinito. Jorge Luis Borges, Avatares de la Tortuga, en Discusin, 1932.

3 La nocin de correlograma analtico fue desarrollada por A. Wold en 1938 (A Study in the Analysis of Stationary Time
Series). Sin embargo, Yule ya haba usado grficos con correlaciones empricas en su trabajo de 1926 "Why Do We
Sometimes Get Nonsense Correlations between Time-series", Journal of the Royal Statistical Society, 89, (1926), 1-69.

2.4
2.04

PROCESO RUIDO BLANCO4

Este proceso, que es la base del anlisis de series de tiempo, se describe como aquel que
satisface las siguientes propiedades:
E [t ]=E t | t1 ,t2 ,=0

(2.7)
2

(2.8)

V [t ]=V t | t1 , t2 ,=

E [t t j ]= E t t j | t 1 , t 2 ,=0

j0

(2.9)

Las condiciones (2.8) y (2.9) se refieren a la inexistencia de correlacin serial o predecibilidad


de la variable. Es decir, condicional en la informacin disponible en el instante t no es posible
predecir el valor futuro condicional del proceso { }. La condicin (2.9) seala que el proceso tiene
varianza condicional constante (homocedasticidad condicional). Si, adems, se tiene que las
innovaciones t N 0, 2 , entonces este proceso se llama Ruido Blanco Gaussiano.5
Evidentemente, este es un proceso estacionario en media y covarianza. Como stas son
constantes, no dependen del tiempo.
El correlograma terico del ruido blanco es bastante simple:
j =1
j =0

j=0
j0

(2.10)

lo que indica que el proceso no tiene memoria del pasado.


Como representacin de series econmicas este proceso es limitado porque no da cuenta de
una de sus principales caractersticas: la persistencia. En el ruido blanco, una innovacin grande
positiva o negativa no tiende a ser seguida por una innovacin de tamao o direccin similar.
Aunque el proceso parece poco atractivo, est en la base de muchos modelos econmicos modernos
(considere el tipo de perturbacin de un modelo de expectativas racionales) y de todos los modelos
economtricos (considere el papel del residuo en el modelo clsico de regresin y t = x t t ).
Ms an, algunos modelos econmicos predicen que el comportamiento de variables claves de la
economa debe ser el de un ruido blanco (p.e., las ganancias extraordinarias de las acciones, segn el
modelo de Fama, 19706).
4 Originalmente, el trmino ruido blanco se refera a interferencia radial o elctrica y fue acuado por L. D. Carson, W.
R. Miles & S. S. Stevens en 1943. Ellos sealan que Inside the plane ... we hear all frequencies added together at once, producing
a noise which is to sound what white light is to light. La luz blanca es aquella que combina todos las otras luces que existen
en distintas frecuencias ("Vision, Hearing and Aeronautical Design," Scientific Monthly, 56, (1943), 446-451).
5 Es posible generalizar el proceso ruido blanco. Por ejemplo, puede asumirse que las innovaciones no son
independientes. Si solo se cumple la primera condicin, entonces t corresponde a una martingale difference sequence.
6 E. Fama, 1970, Efficient capital market: a review of theory and empirical work, Journal of Finance 25:2 (May), 383-417

2.5
Ms all de su aplicabilidad directa para representar series econmicas, el valor del ruido
blanco es que se utiliza para la construccin de otros procesos estocsticos como se describe a
continuacin.
La Figura 1 presenta 1.000 realizaciones de un proceso tipo ruido blanco Gaussiano estndar
(es decir, con 2 =1 ) hechas usando Gauss y su correlograma emprico.7 Note que, aunque el proceso
por construccin es ruido blanco, las correlaciones mayores a cero estimadas sobre la base de una
muestra no son exactamente cero. Esto se debe a que las correlaciones muestrales estn estimadas
con informaccin limitada y, por ello, son susceptibles de depender de la conformacin de la
muestra. Si realiza el experimento con 10,000 observaciones ver como las correlaciones muestrales
son ms parecidas a las tericas.

Figura 2.1
Proceso Ruido Blanco
Serie y Correlograma

7 El correlograma emprico depende, de manera natural, de la muestra {xt} y su tamao, por lo que no resulta extrao
que tenga correlaciones medidas distintas de cero cuando j es grande. El programa de Gauss est en el Apndice
B.

2.6
2.05

PROCESOS MEDIA MVIL8

Este proceso se contruye usando una combinacin de ruidos blancos. El proceso media
mvil de orden finito q, MA(q), se define como:
y t=t 1 t12 t2 q t q

(2.11)

donde y el vector son parmetros constantes y distintos de infinito. La media del proceso (2.11)
es E [ y t ]= , obviamente, y su varianza es 0 = 2 121 22 2q . La funcin de
autocovarianzas es:
2

j = j j1 1 j2 2 q q j j=1, q
=0
jq

(2.12)

La funcin de autocorrelacin correspondiente es muy similar:

j=

j j1 1 j2 2...q q j
10 ... q
0

j=0,1,... , j
jq

(2.13)

con 0=1. Como se deduce de la ecuacin (2.13) los modelos de media mvil tienen q
autocorrelaciones distintas de cero. Es decir, la memoria se les acaba en el rezago q y la informacin
del pasado distante mayor a q no influye en la prediccin de yt ni en su varianza. En la jerga de
series de tiempo se dice que el correlograma muere sbito en q.9 Ntese que no es posible
identificar de manera nica un proceso MA(q) a partir del correlograma. Por ejemplo, los siguientes
procesos tienen el mismo correlograma:
a y t= t 1t

1
b y t = t 1t

(2.14)

Adicionalmente, resulta obvio que el MA(q) es estacionario porque su funcin de


autocovarianza no depende del tiempo y es finita. La suma de los j es siempre menor que infinito,
lo que vuelve estacionario el proceso.
Qu sucede si el MA es de orden infinito, es decir si q=? Esta pregunta es bastante
compleja pues nos lleva a pensar en lmites de secuencias. Por el momento usaremos un resultado
que demostraremos ms adelante: Si la secuencia de coeficientes del MA() es sumable absoluta (absolute
8 El primer econometrista en estudiar seriamente procesos de media mvil fue G.U. Yule en un trabajo de 1909 que
utilizaba promedios instantneos(Journal of the Royal Statistical Society, 72, 721-730). El trmino se populariz con el
texto de W. I. King's Elements of Statistical Methods (1912). No obstante, el uso de promedios mviles para suavizar
datos se haba popularizado varias dcadas antes de los trabajos de Yule.
9 Una disciplina no puede ser enseada sin su jerga, pero no siempre es necesario ensear dicha disciplina, Adolfo Bioy Casares, De
Jardines Ajenos, Bruguera.

2.7
summable), entonces la secuencia de autocovarianzas es sumable absoluta y el proceso es estacionario. Consideremos
la varianza del proceso (2.11), recordando que las innovaciones son independientes, cuando q
q

j=0

j =0

V [ y t ]=lim q 2j 2 = 2 lim q 2j

(2.15)

Este lmite ser finito es decir, la varianza de la serie ser finita slo si la secuencia de
coeficientes del MA es sumable cuadrtica (square summability). Las series estacionarias cumplen una
condicin un poco ms estricta llamada sumable en valor absoluto (absolute summability):

| j |

(2.16)

j=0

Naturalmente, si el MA(q) tiene coeficientes que son sumables en valor absoluto, la serie ser
ergdica en la media. Si, adems, t es Gaussiano entonces el proceso ser ergdico en todos los
momentos. Esto lo vamos a usar ms adelante para construir funciones de verosimilitud.
En la Figura 2.2 se presentan 1.000 realizaciones del siguiente proceso MA(2)
y t=0.2t 10.4 t 2 t , incluyendo su correlograma emprico. Como se puede ver, la memoria
del proceso se acaba en el segundo rezago.
Figura 2.2
Proceso Media Mvil MA(2)
Serie y Correlograma

2.8
2.06

PROCESOS AUTOREGRESIVOS

Los procesos autoregresivos tienen una lgica distinta de los modelos MA porque no se
construyen a partir de la historia de las innovaciones sino la de la misma variable (ms la innovacin
contempornea).
Tomemos el ms simple de los procesos autoregresivos, un AR(1) del tipo
y t= y t1t

(2.17)

ntense las diferencias entre este proceso y cualquier MA(q).


Por recursin, podemos escribir este proceso como:
y t=t [t 1 y t2 ]=t t1 2 y t2

(2.18)

continuando la recursin ad-infinitum obtenemos:


y t=t t1 2 t 2 3 t3 ...

(2.19)

es decir, es un MA(). Para que el proceso sea estacionario la secuencia tiene que ser sumable en
valor absoluto, lo que a su vez requiere que ||< 1.
La media del proceso (2.17) es cero, pero si el proceso fuese y t= y t1t , su media
no-condicional sera:
E [ y t ]=

(2.20)

la implicacin de este resultado es que si en cualquier modelo autoregresivo incluimos una constante,
sta dar cuenta de la media de la serie.
La varianza del proceso AR(1) es 0=

2
y su funcin de autocovarianzas es;
1 2

2
j =
1 2
j

lo que da origen a una funcin de autocorrelacin decreciente suave, del tipo j = j .


Hay dos elementos que se deben hacer notar:

(2.21)

2.9
1. Si <0, el correlograma tiene ciclos, i.e., valores positivos alternados con negativos. La
magnitud de los ciclos, sin embargo, es decreciente.
2. La propiedad de estacionariedad de la serie implica que Cov [ y t , y t j ]=Cov [ y t , y t j ] .
Mecnicamente esto sucede porque podemos hacer la recursin hacia atrs o hacia adelante.
Conceptualmente, la razn es que siendo estacionaria la serie lo nico que determina una
covarianza es el largo del rezago, es decir, la distancia entre yt e yt-j y no t .
En la Figura 2.3 se presentan 1.000 realizaciones del proceso y t=0.85 y t 1t donde las
innovaciones son ruido blanco Gaussiano estndar y y0=0. Se incluye, adems, el autocorrelograma
emprico en el que se puede ver claramente el patrn suavemente declinante de las
autocorrelaciones.

Figura 2.3
Proceso Autoregresivo AR(1)
Serie y Correlograma

2.10
El manejo de modelos de serie de tiempo es ms fcil si se usa el operador de rezagos, L,
que permite operar con los rezagos de manera cmoda y algebricamente.10 Se define el operador
como L y t = y t1 . As, L 2 y t = y t2 y L2 y t = y t2 .
El modelo AR(1) se puede re-escribir como:
1 L y t=t

(2.22)

de donde se desprenden las ecuaciones (2.19) y (2.20) directamente. Note que si por simplicidad se
reduce =0, entonces de (2.22) se deduce:
1 L yt =t

yt =

t
2 2
=t 1 L L ...
1 L

(2.23)

es decir, obtenemos nuevamente el resultado anterior que todo AR(1) tiene una representacin
MA() pero adems queda en evidencia que, para que el proceso sea invertible, se requiere
imponer restricciones sobre . Note que la ecuacin (2.23) se obtiene usando una expansin de
Taylor.
Si extendemos el modelo anterior a un caso general que llamaremos AR(p) tenemos:
y t= 1 y t 1 2 y t 2... p y t p t

(2.24)

La media y funcin de autocovarizanzas del proceso AR(p) son bastante ms difciles de


obtener. Vamos a usar un modelo autoregresivo de segundo orden y el operador de rezagos para
estudiar los procesos generales. Re-escribiendo (2.24) como un AR(2) tenemos:
y t= 1 y t 1 2 y t 2t

(2.25)

usamos el operador de rezagos


y t 11 L 2 L2 =t

(2.26)

si factorizamos el trmino en L como un cuadrado de binomio tenemos:


11 L2 L2 =11 L1 2 L

(2.27)

Usando (2.26) y (2.27) tenemos las siguientes restricciones


1 2= 2
12 =1
10 Ver el Apndice A para una descripcin ms completa de este operador.

(2.28)

2.11
es decir

y t=11 L 12 L t=[ 1 L ] [ 2 L ]t
1

j=0

(2.29)

j=0

El ltimo trmino puede ser escrito como

j=0

j=0

[ 1j L j ] [ 2j L j ]= [ 1j 2jk ] L j

(2.30)

j=0 k =0

es decir, nuevamente encontramos que el AR(p) puede ser escrito como un proceso MA de orden
infinito.
Resulta evidente que el operador de rezagos puede ser usado tambin en los procesos MA(q)
directamente. En particular,
2

y t=1 1 L2 L ...q L t

q 1

11 L 2 L ...q L y t=t

(2.31)

es decir, todo MA(q) puede ser representado como un AR(). Este resultado, y su contraparte para
procesos AR(p), puede ser interpretado como que en la prctica todo proceso MA(AR) puede ser
aproximado arbitrariamente cerca por un proceso AR(MA) con un nmero suficientemente largo de
rezagos.
Para el AR(p) es directo aunque tedioso demostrar que la funcin de autocorrelacin
obedece al siguiente sistema de ecuaciones (llamado ecuaciones de Yule-Walker).
0 =1 1 2 2... p p 2
1= 1 0 2 1... p p1
=
p= 1 p1 2 p2 ... p 0

(2.32)

de donde se desprende que, conociendo las autocorrelaciones, se puede hacer un sistema de


ecuaciones para obtener los parmetros del modelo. Ello resulta usualmente demasiado engorroso y
ms adelante se propone un mtodo ms eficiente y asintticamente equivalente.
La Figura 2.4 se presentan 1.000 realizaciones del proceso y t=0.85 y t 10.15 y t 1t
donde las innovaciones son ruido blanco Gaussiano y y0=0. Se incluye, adems, el autocorrelograma
emprico en el que se puede ver claramente que, al igual que en el caso del AR(1), las
autocorrelaciones tienen un patrn suavemente declinante. De hecho, esa es la caracterstica de todo
modelo AR.
Por ello, la observacin del correlograma no es suficiente para identificar el orden del
modelo AR, por que no sabemos si p es 1, 2, 3 ...

2.12
Figura 2.4
Proceso Autoregresivo AR(2)
Serie y Correlograma

Vamos a tener que usar una funcin adicional para identificar el orden del AR. Esta funcin
es llamada funcin de autocorrelacin parcial. La identificacin del orden del AR(p) se har sobre la
base de ambos correlogramas.
La intuicin funcin de autocorrelacin parcial es simple. Suponga que el verdadero proceso
es AR(p). Pero parametrizamos (estimamos) los datos usando un modelo AR(p-1). Sin demasiada
formalidad escribimos:
y t= AR p1 y t 1 t

(2.33)

Como sera t en este caso? Obviamente, no podra ser ruido blanco porque contiene tanto
las verdaderas innovaciones t como el trmino p yt p que no hemos incluido en el modelo. Por
lo tanto, t va a estar correlacionado con yt-p. Vamos a usar exactamente esta observacin para
construir la funcin de correlacin parcial y para determinar el orden p del modelo autoregresivo.
Estudiemos la siguiente covarianza:
*

j =cov [ y t E [ yt | y t 1 , y t 2 ... y t j 1] , y t j ]

(2.34)

donde E es la mejor prediccin lineal de yt hecha con sus propios j rezagos. El primer trmino de la
covarianza es el error de prediccin de yt que se comete al usar un modelo lineal basado en j rezagos.
Cuando no hay covarianza, significa que el error de prediccin no contiene informacin til para

2.13
predecir yt porque no queda trminos del tipo yt-p omitidos del modelo. As, cuando *j es cero, ese
es el orden del modelo AR. Naturalmente, normalizamos la covarianza parcial por la varianza para
evitar problemas de unidades de medida.
Un ejemplo del uso de ambos correlogramas se muestra en la Figura 2.5. El correlograma
total presenta un patrn de cada suave aunque cclico. Ello identifica un modelo tipo AR(p). El
correlograma parcial muere sbitamente en la segunda correlacin. Ello identifica el modelo como
un AR(2).
Figura 2.5
Correlograma Total y Parcial AR(2)

Ya que hemos derivado la funcin de autocorrelacin parcial, conviene preguntarse por la


forma que toma sta en el caso de un proceso de media mvil. Recordando que todo MA puede ser
escrito como una AR() se deduce que el correlograma parcial tendr infinitos trminos distintos de
cero. Adems, como debe cumplirse la sumabilidad absoluta, el correlograma ser decreciente.

2.14
2.07

PROCESOS AUTOREGRESIVOS Y DE MEDIA MVIL

Nada le impide a un proceso estocstico tener ambos componentes (AR y MA), reflejando
distintas fuerzas que determinan la evolucin de la variable, en cuyo caso los llamamos proceso
ARMA(p,q). Naturalmente, es posible interpretar un modelo AR o MA como un caso particular del
modelo ARMA. En trminos genricos el ARMA(p,q) es:
y t= 1 y t 1 2 y t 2... p y t p t 1 t 1 2 t2...q t q

(2.35)

Calcular la funciones de correlacin total y parcial es directo pero tedioso. Apelamos a


nuestros conocimientos de modelos AR y MA para intuir cmo son dichas funciones:

Respecto del correlograma total, ste tiene ambos componentes hasta el rezago q cuando la
parte MA deja de operar y slo queda la parte AR que decae suavemente con o sin
oscilaciones.

Respecto del correlograma parcial, ste tiene ambos componentes hasta el rezago p cuando
la parte AR deja de operar y slo queda la parte MA que decae suavemente con o sin
oscilaciones.

La combinacin de ambos correlogramas nos permite determinar la naturaleza del proceso


ARMA y el largo de rezagos de cada componente.
2.08

IDENTIFICACIN DE PROCESOS ESTOCSTICOS ESTACIONARIOS


Las reglas de pulgar para identificar procesos estocsticos se presentan en el Cuadro 2.1:

Proceso
Ruido Blanco

Cuadro 2.1
Reglas de identificacin de procesos estacionarios
Autocorrelacin Total
Autocorrelacin Parcial
Muere sbito en 0

Muere sbito en 0

MA(q)

Muere sbito en q

Muere suave (con o sin ciclos)

AR(p)

Muere suave (con o sin ciclos)

Muere sbito en p

Muere suave desde q (con o sin ciclos)

Muere suave desde p (con o sin ciclos)

ARMA(p,q)

2.15
2.09

FUNCIONES DE CORRELACIN ADMISIBLES Y EL TEOREMA DE WOLD11

Antes de avanzar hacia la parte emprica de este tipo de modelos univariados (llamada
tcnica de Box-Jenkins), debemos preguntarnos si es legtimo modelar una variable usando esta
metodologa. Hay tres preguntas que debemos responder: (1) qu nos permite asegurar que
representar una serie usando modelos ARMA(p,q) es adecuado?, (2) qu nos hace pensar que al
estudiar una funcin de autocorrelacin podremos encontrar el verdadero modelo? y (3) cmo
sabemos que una secuencia de nmeros efectivamente es una realizacin de la funcin de
autocorrelacin de algn proceso estocstico de inters?
Funciones de autocorrelacin admisibles
No toda secuencia de nmeros {1, 1 , 2 , 3, ... } corresponde a una funcin de
autocorrelacin de un proceso estocstico. Obviamente debemos restringir los valores de para que
cumplan |i|1. Pero ello no es necesariamente suficiente. Adems se debe exigir que las varianzas
0 sean positivas. Consideremos un caso particular pero ilustrativo:
V [0 y t1 y t1 ]=0 [0 1 ]

[ ][ ]

1 1 0
0
1 1 1

Dado que 0 es positiva, entonces

(2.36)

[ ] tiene que ser positiva semi-definida. As, la nica


1 1
1 1

restriccin necesaria es que |1|1 (ntese que no hay restricciones sobre los coeficientes).
Si el modelo tuviese un segundo rezago, su varianza quedara descrita de manera anloga a
(2.36), excepto que la matriz de correlaciones sera ahora

[ ]
1 1 2
1 1 1
2 1 1

. Para que dicha matriz sea

definida positiva, se debe cumplir que el determinante y los subdeterminantes sean positivos. Esto
ltimo requiere que |1|1 y |2|1, en tanto que el primero exige
12 21 22 212 22 0

22 211 21 0

(2.37)

pero como |2|1, entonces se debe cumplir que


2
1

2 2 1 0

2 2 1
2
1

221
121

(2.38)

esto impone restricciones a los valores de 2 dado los valores de 1. Por ejemplo si este ltimo es 0.9,
entonces 0.62 2 1.
11 Ver la prueba del teorema en Thomas Sargent, Dynamic Macroeconomics, 1987. La demostracin requiere conocer la
mecnica de los espacios de Hilbert, pero es relativamente intuitivo.

2.16
Teorema de Wold
An si contamos con una secuencia de valores que pueda ser congruente con una funcin de
autocorrelacin y, por necesidad, con una funcin de autocovarianzas de algn proceso estocstico,
qu nos permite asegurar que es posible representar variables econmicas con modelos ARMA? El
siguiente teorema es la base del anlisis de series de tiempo:
Cualquier proceso con media cero y estacionaria en covarianza {yt} puede ser representado de
manera nica por un componente lineal determinstico y un componente lineal no determinstico.

y t= P* [ y t | y t 1 , y t 2 ... y t p ] i ti
i=0

(2.39)

donde P+ es un predictor lineal y se cumple:

*
t= y t P [ yt | y t 1 , yt 2 , ...] es un error de prediccin.

t es ruido blanco, es decir tiene media cero, varianza constante, no covara con
*
P [ y t | y t 1 , y t 2 , ...] ni con los rezagos de yt.

0=1 y se cumple

2j (sumabilidad cuadrtica)
j=0

Todas las races de (L) estn fuera del crculo unitario.

Cul es el mejor predictor lineal de yt? Podemos aproximar este problema usando un
modelo AR con p rezagos.
p

i=1

i=0

y t= i yt i i t i

(2.40)

Este es un modelo ARMA. El primer trmino es un AR(p) pero el segundo es una media
mvil de orden infinito. Obviamente, ste no puede ser estimado con muestras aleatorias de tamao
finito. Usamos como solucin de compromiso buscar el mejor ajuste con rezagos finitos.
p

i=1

i=0

y t= i y ti i t i

(2.41)

2.17
Algunas observaciones importantes respecto del Teorema de Wold.
1. No se requiere que los errores se distribuyan normal o sean i.i.d.
2. No se requiere que E y t ,t =0 sino que P * y t ,t =0 . La diferencia radica en que P*()
es una proyeccin lineal, en tanto que E() considera todas las posibles formas de proyeccin
de yt, tanto lineales como no lineales.
3. Los errores t no tienen por qu ser las verdaderas innovaciones del proceso.
4. La representacin de la serie como un MA() es una posible representacin del DGP de los
datos que captura el segundo momento, no es la representacin de la serie. Otras
representaciones pueden capturar, adems, momentos de orden superior.
5. La representacin de la serie segn la ecuacin (2.39) es nica entre modelos lineales en que
los errores de proyeccin son lineales.

2.10

METODOLOGA DE BOX-JENKINS

La metodologa de Box y Jenkins12 para modelar series de tiempo apareci como una
alternativa al fracaso de los modelos economtricos de gran escala (basados en gran nmero de
ecuaciones simultneas tradicionales, ver Klein y Evans13) durante los aos 1970-1975. Esta
metodologa considera seis pasos, que discutimos a continuacin:
1. Como se aplica a series estacionarias, primero debe hacerse estacionaria la variable aleatoria.
Para ello usualmente se aplica algn filtro.
2. Se retiran, adems, los componentes determinsticos (p.e., estacionalidad, constante).
3. Se computan los correlogramas muestrales y se hace una identificacin preliminar del modelo, es
decir se determina el tipo y orden del modelo subyacente (AR, MA, ARMA).
4. Se estiman los parmetros del modelo propuesto.
5. Se hacen tests de especificacin y se evalua si la identificacin preliminar es adecuada. Si no
lo es, se modifica la especificacin.
6. Se hacen predicciones del modelo estimado dentro y fuera de la muestra.

12 Box, G. E. P., and Jenkins, G. Time Series Analysis: Forecasting and Control, Holden-Day, 1976.
13 L. Klein and G. Evans, The Wharton Econometric Forecasting Model, 1967.

2.18
2.11

CMO VOLVER ESTACIONARIA UNA VARIABLE?

La metodologa Box-Jenkins enfrenta el problema de remover la tendencia de las series


mediante dos tcnicas bsicas.14 Si la variable es estacionaria basta con hacer una regresin contra
una tendencia lineal y ocupar los residuos de dicha estimacin. Considere la ecuacin (2.42)
y t= t L t

(2.42)

donde y son dos parmetros y (L) es la representacin media mvil de un modelo ARMA(p,q)
para las innovaciones t . La remocin de tendencia correspondera a obtener y t
t . Esto
puede ser hecho usando tcnicas de mnimos cuadrados para filtrar la serie.
Si la variable no es estacionaria lo que se verifica cuando el correlograma muestral no cae o
lo hace demasiado lento se debe tomar la primera diferencia de la serie. Es decir,
1L y t =* Lt

(2.43)

Exactamente cundo se debe usar cada mtodo es lo que nos preocupar ms adelante
cuando se estudie el tema de races unitarias (ver Captulo 4). En esta seccin supondremos que el
econometrista sabe a-priori cundo usar primeras diferencias o diferencias con respecto a una
tendencia lineal.
Tambin es necesario remover los componentes determinsticos, tales como los efectos
estacionales, usando algn tipo de filtro. Soto (2002)15 demuestra que los mtodos ms populares de
ajuste estacional (p.e., ARIMA X-11) no pueden ser considerados una simplificacin inocente de los
datos sin prdidas sustanciales de informacin valiosa. El tratamiento estndar para remover la
estacionalidad supone que la variable es estacionaria. Si este supuesto es correcto, Sims (1974)
demuestra que la remocin de componentes estacionales usando un proceso de filtrado comn para
todas las series mantiene las condiciones de congruencia del modelo original. Ghysels y Perron
(1993)16, por otro lado, demuestran que la conclusin anterior no puede ser extendida a modelos
dinmicos en los cuales se incluyen variables endgenas rezagadas. Soto (2002) demuestra que si el
supuesto de estacionariedad de la estacionalidad no se cumple, la remocin de componentes
estacionales con mtodos tipo ARIMA X-11 es inadecuada porque induce correlacin serial an si
sta no existe en los datos originales.

14 Como de costumbre, consideramos todas las variables en logaritmos, de modo tal que cambios en la variable
corresponden a su tasa de crecimiento.
15 Ajuste Estacional e Integracin en Variables Macroeconmicas, Cuadernos de Economa, 39:135-155, 2002.
16 Sims, C. A. (1974). Seasonality in regression, Journal of the American Statistical Association, 69, 618-627. Ghysels, E.
and P. Perron (1993). The effect of seasonal adjustment filters on tests for a unit root, Journal of Econometrics (55)12. pp. 57-98

2.19
2.12

IDENTIFICACIN DEL TIPO DE MODELO ARMA

En las secciones anteriores hemos identificado los distintos tipos de modelos (AR, MA,
ARMA) mediante el uso de correlogramas tericos. Si tenemos una muestra finita, sin embargo,
tendremos estimadores de las correlaciones. Es decir, tendremos que hacer inferencias basados en la
evidencia muestral, para lo cual es necesario determinar la distribucin del correlograma muestral.
Si los datos son de un MA(q) con innovaciones Gaussianas, entonces a partir del rezago q las
correlaciones muestrales debieran ser cero en valor esperado, pero como stas son una variable
estocstica podran ser numricamente distintas de cero. Como dichas estimaciones tienen varianza
ello nos permite hacer intervalos de confianza para la hiptesis nula H 0 : j=0 . La varianza de las
correlaciones es:

1
Var j 12 i2
T
i=1

j =q1, q2. ..

(2.44)

Por ello, si el MA tiene innovaciones Gaussianas el intervalo de confianza para un test de la


hiptesis nula j =0 de tamao 95% es 2/ T .17
Si los datos provienen de un AR(p), y considerando que la funcin de autocorrelacin parcial
es:
y t=
1 m y t12 m y t2...m m y tm*t

(2.45)

entonces, el ltimo coeficiente m debiese ser 0 en valor esperado si m>p. Su varianza es:
Var m m

1
T

(2.46)

por lo que el intervalo de confianza para el test de la hiptesis nula m =0 de tamao 95% es
2/ T . Esto soluciona el problema de inferencia.
La figura 2.6 presenta grficamente dos simulaciones hechas para un AR(2) con parmetros
comunes, pero cambiando el tamao de muestra. El panel de la izquierda corresponde a una muestra
de 100 observaciones, el de la derecha corresponde a 1.000 observaciones. Hay dos elementos
destacables. Primero, la reduccin de la incertidumbre en el estimador de la correlacin. Segundo, la
mayor precisin de la estimacin de las correlaciones. No obstante, ambos grficos sugieren que el
modelo es un AR(2).

17 Note que sta no es la varianza asinttica estimada, la que requiere un estimador de 2.

2.20
Figura 2.6
Efecto del Tamao de Muestra en Identificacin en un AR(2)
Tamao de Muestra 100

Tamao de muestra 1.000

Debe reconocerse que la identificacin por correlogramas es, en la prctica, algo difcil
porque los correlogramas empricos son menos ntidos que los correlogramas tericos, sobre todo
en muestras pequeas. Por ello, la siguiente etapa del mtodo de Box y Jenkins (estimacin de
modelos ARMA) es crucial. Estimar el modelo ARMA es relativamente directo por mxima
verosimilitud, pero lo vamos a ver paso por paso.
Algunos autores sealan que se deben usar los correlogramas muestrales slo para tener
una idea del tipo de proceso y su largo, pero que la clave consiste en asegurar que los innovaciones
sean ruido blanco usando tests de diagnstico adecuados.
2.13

ESTIMACIN DE MODELOS AUTOREGRESIVOS


El caso del AR(1)

Sea y t=c y t1t . Queremos construir la funcin de verosimilitud de la muestra que


incluye {y1, y2, ... , yn}. Como el modelo de yt depende de la observacin anterior, tendremos
problemas computando para t=1 porque no hay observacin en t=0. Por eso, necesitamos computar
la esperanza y la varianza no condicionales para la primera observacin (y1):
E [ y 1]=

c
1

V [ y 1 ]=

2
1 2

La funcin de densidad no-condicional de y1, si la innovacin es Gaussiana, es:

(2.47)

2.21
f y 1 ; =

1
1
2
2 /12

[
e

y1c /1
2

2 / 1

(2.48)

La funcin de densidad de y2 condicional en haber observado y1 es:

1
f y 2 | y 1 ; =
e
2 2

y 2c y1
2

(2.49)

Note que para la densidad de y2 condicional en y1, el valor observado de y1 es una constante
no una variable aleatoria. Entonces, E [ y 2 ]=c y1 y la nica varianza es la del error t, por lo que
y2 se distribuye N c y 1 , 2 ). En general, las densidades condicionales para los datos desde 2 a
n se pueden escribir como:

1
f y t | y t1 , y t2 ... y1 ; = f y t | yt 1 ; =
e
2 2

yt c y t1
2

(2.50)

Dado que los yi son independientes, la densidad conjunta de la muestra es el producto de las
marginales. Para la primera y segunda observacin es:
f y 2, y 1 ; = f y 2 | y1 ; f y 1 ;

(2.51)

Podemos hacer esto para todas las observaciones yi de la muestra y obtener la funcin de
verosimilitud exacta:
T

= f y t | y t 1 ; f Y y 1 ;
1

t =2

(2.52)

Tomando logaritmos:
T

log =log f y 1 ; log f y t | y t 1 ;

(2.53)

t =2

o, lo que es equivalente:
2
y 1 c /12
1
1

log 2 log

2
2
2
2
2
1
2 /1
T
y t c y t 12
T 1
T 1
2
log 2
log
2
2
2
2
t =2

log =

(2.54)

2.22
Esta funcin se optimiza por clculo numrico18. Hay que reconocer, no obstante, que la
estimacin puede ser engorrosa, en particular porque los mtodos de optimizacin directa de la
funcin de verosimilitud son sensibles a los puntos de partida y al algoritmo de estimacin. Una
alternativa prctica es optimizar la densidad condicional en y1
T

f y t , y t 1 , y t 2 ...| y 1 ; = f y t | y t1 ;

(2.55)

t =2

entonces
T

log =

y t c y t 12

T 1
T 1
2
t =2
log 2
log
2
2

(2.56)

La ecuacin (2.56) tiene tres componentes, de los cuales los primeros dos son constantes.
Por ello, maximizar log () es equivalente a minimizar el ltimo trmino. Pero esto ltimo es
equivalente a hacer una regresin de mnimos cuadrados ordinarios. As, la maximizacin de la
densidad condicional en y1 de la muestra produce estimadores de los parmetros que son
equivalentes a los obtenidos por una regresin OLS de yt en sus rezagos. Este resultado se extiende
directamente a un proceso AR(p).
2.14

ESTIMACIN DE MODELOS MEDIA MVIL

Estimacin de un Modelo MA(1)


Sea y t =t t 1 . Como vimos en el caso del modelo AR, maximizar la densidad
condicional es ms simple que hacerlo sobre la densidad exacta. En el caso del MA(1)
condicionamos sobre t-1.
y t |t 1 N [t 1 ,

(2.57)

Lamentablemente, no es posible estimar este proceso por mnimos cuadrados ordinarios. De


hecho, el problema es ms complejo de lo que parece: para estimar se necesitan los residuos pero
para determinar los residuos se necesita estimar . Por ello necesitamos un algoritmo iterativo:

Si sabemos que 0=0, entonces, y t |0=0 N [ , 2 ] . Entonces y1= 1.


Si conocemos y1, entonces podemos conocer 1 = y1- .
Si conocemos y2 y 1, obtenemos 2 = y2 - 1
Si conocemos y3 y 2, obtenemos 3 = y3 - 2,
etc.
De esta forma, tenemos toda la secuencia de t condicional en 0 = 0.

18 Captulo 6 de Notas de Clases EAE-350

2.23
Podemos formar entonces la densidad conjunta condicional y la funcin de verosimilitud
condicional:
log =

T 1
T 1
1
log 2
log 2 2 t2
2
2
2 t =1

(2.58)

El problema de la ecuacin (2.58) es que no podemos estimarla. La nica solucin es darle


0, computar las innovaciones t, obtener y optimizar log () determinando un nuevo conjunto de
parmetros 1 e iterar hasta que la funcin de verosimilitud converja. Si || es pequeo, el efecto de
suponer 0= 0 es poco importante y desaparece luego. Si ||>1, el algoritmo diverge.
Este mismo algoritmo se utiliza para estimar un MA(q), slo que deberemos darle q
parmetros iniciales.
2.15

ESTIMACIN DE UN MODELO ARMA

La aproximacin a la funcin de verosimilitud en el caso de los AR fue condicionada a los yp


iniciales. La aproximacin a la funcin de verosimilitud en el caso de los MA fue condicionada a los
q iniciales. La aproximacin a la funcin de verosimilitud de los ARMA, naturalmente, condiciona
respecto de los yp y q iniciales.
T

2.16

T
T
1
log =
log 2 log 2 2 2t
2
2
2 t =1

(2.59)

t = y t c 1 y t 1 2 y t 2... p y t p 1 t 1 2 t 2 ...q t q

(2.60)

PREDICCIONES CON MODELOS ARMA19

La prediccin de una variable econmica envuelve dos dimensiones: el valor que se espera
que la variable tome en el perodo t+j y, debido a la aleatoriedad de los modelos economtricos, la
imprecisin o varianza de la prediccin. Es decir, queremos:
E [ y t j ]=E[ y t j | y t j 1 , y t j 2 , ... ,t ,t 1 ,...]
V [ y t j ]=V [ y t j | y t j1 , y t j2 ,... ,t ,t 1 ,...]

19 La prediccin es algo muy difcil, sobre todo acerca del futuro, Niels Bohr.

(2.61)

2.24
Prediccin de un modelo AR(1)
Consideremos el modelo y t = y t 1t , entonces
Et [ y t 1 ]=E t [ y t t 1 ]= y t
Et [ y t 2 ]=E t [ y t 1t 2]= 2 y t
Et [ y t 3 ]=E t [ y t 2t 3]=3 y t

Et [ y t j ]=E t [ y t j 1t j ]= j y t

(2.62)

Ntese que la prediccin del AR(1) es su representacin de media mvil de orden infinito.
Adems, si tomamos la prediccin en el infinito (es decir, el lmite cuando j), vemos que es cero,
lo que es razonable en un proceso estacionario con media no condicional cero:
lim j E t y t j =0=E [ y t ]

(2.63)

recuerde que los momentos no-condicionales son los lmites de los momentos condicionales.
Por otro lado la varianza de la prediccin es:
V t [ y t 1 ]=V t [ y t t 1 ]= 2
V t [ y t 2 ]=V t [ y t 1 t 2 ]=12 2
V t [ y t 3 ]=V t [ y t 2 t 3 ]=1 2 4 2

V t [ y t j ]=V t [ y t j 1t j ]=1 2...2 j 1 2

(2.64)

De la ecuacin (2.64) se desprende que la imprecisin de la prediccin es creciente en el


tiempo. Nuevamente, tomamos el lmite de la varianza para descubrir que la incertidumbre en el
proceso estacionario crece con j pero est acotada:
lim j V t y t j =

1
2 =V [ y t ]
2
1

(2.65)

Este anlisis puede extenderse tediosamente aunque sin dificultades analticas para el AR(p).
Existe una tcnica que estudiaremos ms adelante que permite escribir un AR(p) como si fuese un
AR(1) de modo de computar las predicciones y sus varianzas de acuerdo a las ecuaciones (2.64) y
(2.65) fcilmente.

2.25
Prediccin de un modelo MA(q)
Como hemos visto, la prediccin de un modelo AR(p) es equivalente a obtener su
representacin MA() y tomar esperanza y varianza de la prediccin. En el caso del MA(q) esto es
directo. Si consideramos el modelo y t =t 1 t 1 2 t 2...q t q , entonces:
E[ y t j ]=E [t j 1 t j 12 t j 2...q t j q ]
= j t j1 t 1... q t j q

(2.66)

donde nuevamente en el lmite, la prediccin condicional equivale a la no-condicional. Por otro lado
la varianza de la prediccin es:
V [ y t j ]=V [ t j 1 t j 1...q t j q ]=12j 2j1...2q 2

(2.67)

donde es evidente que en el lmite (j ) la varianza es una constante.


Las predicciones de modelos ARMA son llamadas a menudo las "funciones impulsorespuesta". La razn es que si pensamos en el efecto de una innovacin que toma valor 1 en el
instante 0 y cero en adelante, lo que obtenemos es exactamente lo descrito por las ecuaciones de
prediccin del AR(p) o del MA(q).
Recordemos, sin embargo, que hemos usado modelos sin tendencia, sin estacionalidad, sin
media y a veces en diferencias, por lo que las predicciones de estos modelos en realidad
corresponden ms bien a simulaciones de los modelos que a predicciones "realistas" (se pueden
obtener estas ltimas aadiendo los componentes que hemos removido). No obstante, podemos
entender bastante de la dinmica de las variables econmicas estudiando su respuesta frente a
innovaciones.

2.17

SIMULACIN HISTRICA CON MODELOS ARMA


Una vez estimado el ARMA(p,q), predecir es relativamente simple. Dado el modelo:
y t =1 y t 1 2 y t 2 ... p y t p t 1 t 1 2 t 2...q tq

(2.68)

(A)
podremos predecir usando los p regazos de yt y los q regazos de t . Este tipo de simulacin
se llama prediccin esttica. Ver Figura 2.7.
(B)
podremos predecir usando los p regazos de yt y los q regazos de t ya predichos por el
modelo en iteraciones anteriores. Este tipo de simulacin se llama prediccin dinmica. Ver Figura 2.8.

2.26
Figura 2.7
Prediccin Esttica

Figura 2.8
Prediccin Dinmica

.20

.15

.15

.10

.10

.05

.05

.00

.00

-.05

-.05

-.10

-.10

-.15

-.15

-.20
1980

2.18

1985

1990

1995

2000

1980

1985

1990

1995

2000

VALIDACIN DEL MODELO ECONOMTRICO ARMA

Una vez estimado el modelo, tenemos que estar seguros que ste tenga sentido
economtrico. Algunas reglas tiles al respecto son:

Los residuos deben ser ruido blanco (sin estructura). Existen numerosos test de verificacin
que los residuos son no correlacionados (p.e., Ljung-Box, Box-Pierce, etc).

El ajuste del modelo debe ser "razonable". Considere que, como lo que un modelo ARMA
explota es la memoria de las series, la bondad de ajuste debe ser alta.

La significancia de los parmetros individuales es irrelevante, porque va a haber colinealidad.


No obstante, la significancia de los parmetros en bloque es relevante (test con F).

Hay que tener cuidado con el problema de sobreparametrizar (overfitting). Debido a que
estamos trabajando con polinomios, mientras ms polinomios usemos el R tender a crecer.
Un criterio ms preciso que la identificacin visual de los correlogramas son los tests de
largo de regazos. Entre los ms comunes estn aquellos de "contenido informacional", que
consisten en hacer un trade-off entre ajuste (medido por la suma de residuos al cuadrado) y
exceso de parmetros (k) respecto del tamao de muestra (T):

Test de Akaike:

min

Test de Schwartz

min

Test de Hannan-Quinn

min

log 2k

T
T
log k log T
2

T
T
log 2k log log T
2

T
T
2

2.27
APNDICE A:

1.

OPERADOR DE REZAGOS

El operador de rezagos L es definido como: Ly t = y t 1 .

2.
Si se aplica repetidamente
p
L y t =L L L ... L = y t p .

el

operador

la

variable

yt

3.

El operador tiene funcin inversa L-1, de modo tal que LL1 y t =L 1 Ly t = y t

4.

El operador es lineal, L 1 y t = L 1 Ly t = y t1 .

5.

Note que 1 L 1=1 L 2 L 2 ... .

se

obtiene:

6.
Se puede usar el operador para definir un operador similar que se utiliza en modelos
multivariados, llamado el operador de rezagos polinomial. Este se define como
L =1 1 L 2 L 2... ppL . Al igual que en el caso anterior, este operador tiene inversa
L L 1 y t =L 1 L y t = y t .
7.

Propiedades del operador polinomial de rezagos:


a.

Multiplicacin:

a L b L =a 0 a 1 L ...b 0b 1 L ...

b.

Propiedad conmutativa:

a L b L =b L a L

c.

Potencias enteras positivas:

a L 2=a L a L

d.

Inversin:

a L =1 11 2 a L 1=1 1 1 1 21

2.28
APNDICE B:

CDIGO GAUSS PARA SIMULACIN DE MODELOS ARMA

/* PROGRAMA QUE SIMULA CUALQUIER TIPO DE ARMA(p,q) y COMPUTA AUTOCORRELACIONES TOTALES Y


PARCIALES */
new;
cls;
library pgraph;
"Largo de la serie (50+)
" ;;
len=con(1,1);
p=0;q=0;
"Coeficientes del proceso ARMA(p,q)
";
"Orden de p:
";;
p=con(1,1);
if p ne 0;
"Ingresa coeficientes de la parte AR:
phi=con(p,1);
endif;
"Orden de q:
";;
q=con(1,1);
if q ne 0;

endif;

"Ingresa coeficientes de la parte MA:


theta=con(q,1);
theta=1|theta;

/* pide largo de datos desde la consola */


/* pide largo del AR desde la consola */
";;
/* pide largo del MA desde la consola */

";;

data=rndn(len+50,1);

/* crea white noise, con 50 observaciones extra */

if p==0 and q==0;


tit="Ruido Blanco";
serie=trimr(data,50,0);

/* nombre serie */
/* quita 50 datos extra */

elseif p==0 and q>0;


field=1;fmat="%*.*lf";lb=ftos(q,fmat,field,0);
/* convierte numero de rezagos en strings */
tit="MA(" $+lb$+")";
/* nombre serie */
i=1;
do while i<=q;
/* crea rezagos de residuos */
data=packr(data~shiftr(data[.,cols(data)]',1,(miss(0,0))')');
i=i+1;
endo;
maq=data*theta;
/* crea data MA(q) */
serie=trimr(maq,50-q,0);
/* quita 50 datos extra */
elseif p>0 and q==0;
field=1;fmat="%*.*lf";lb=ftos(p,fmat,field,0);
tit="AR(" $+lb$+")";
ar=ones(len+50,1)*100;
i=p+1;
do while i<=len+50;
j=1;
aux=zeros(p,1);
do while j<=p;
aux[j,1]=phi[j,1]*ar[i-j,1];
j=j+1;
endo;
ar[i,1]=sumc(aux)+data[i,1];
i=i+1;
endo;
serie=trimr(ar,50,0);
else;

/* nombre serie */
/* crea data AR(p) */

/* crea rezagos variables */

/*quita 50 datos extra */

2.29
field=1;fmat="%*.*lf";
lbp=ftos(p,fmat,field,0);
lbq=ftos(q,fmat,field,0);
tit="ARMA(" $+lbp$+","$+lbq$+")";
ar=ones(len+50,1)*0;
i=maxc(p|q)+1;
do while i<=len+50;
j=1;
auxp=zeros(p,1);
do while j<=p;
auxp[j,1]=phi[j,1]*ar[i-j,1];
j=j+1;
endo;
k=1;
auxq=zeros(q,1);
do while k<=q;
auxq[k,1]=theta[k,1]*data[i-k,1];
k=k+1;
endo;
ar[i,1]=sumc(auxp)+sumc(auxq)+data[i,1];
i=i+1;
endo;
serie=trimr(ar,50,0);

/* nombre serie */
/* crea data AR(p) */

/* crea rezagos variables de la serie*/

/* crea rezagos variables de residuos */

/*quita 50 datos extra */

endif;
{rhot,rhop,inter}=myauto(serie);
mono(serie,ones(1,1)|rhot,ones(1,1)|rhop,inter[1,1]|inter);

/* calcula correlaciones e intervalos de confianza */


/* ejecuta el grafico */

end;
proc(0)=mono(serie,rhot,rhop,inter);
local z,zz,linea;
graphset;

/* Procedimiento de Graficos */

fonts("simplex simgrma");
_pnumht={0.25};
_pnum=2;
_pdate="";
_plwidth = 3;
_pltype={6};
_ptitlht={0.35};
_protate=0;
begwind;
window(3,1,0);
setwind(1);
_protate=0;
z="Serie ";
title(z$+tit);
xy(seqa(0,1,rows(serie)),serie);
nextwind;
z="Correlograma Total de ";
title(z$+tit);
_pltype={6,6,1,1};
xtics(0,rows(rhot)-1,1,1);
_pcolor={1,2,3,4};
linea=zeros(rows(rhot),1);
xy(seqa(0,1,rows(rhot)),rhot~linea~inter~(-1*inter));
nextwind;
z="Correlograma Parcial de ";
title(z$+tit);
xy(seqa(0,1,rows(rhot)),rhop~linea~inter~(-1*inter));
endwind;

/*
/*
/*
/*
/*
/*
/*

/* Resetea opciones */
define letras */
tamano de numeros */
tipo de numeros */
omite fecha */
ancho de lineas */
tipo de lineas */
tamano titulo */

2.30
endp;
proc(3)=myauto(data);
local z,data,vardata,i,autoc,autop,inter,bhat;
z=minc((trunc(rows(data)/4)|24));
data=data-meanc(data);
vardata=data'data;
autoc=zeros(z,1);
autop=autoc;
i=1;
do while i<=z;
autoc[i,1]=trimr(data,i,0)'packr(lagn(data,i))/vardata;
i=i+1;
endo;
inter=ones(rows(autoc),1)*2/sqrt(rows(data));

/* max autocorrelaciones */
/* quita media */
/* varianza series */

/* autocorrelacion total */

/* intervalos de confianza */

i=1;
do while i<=z;
data=packr(data~shiftr(data[.,cols(data)]',1,(miss(0,0))')');
bhat=data[.,1]/(ones(rows(data),1)~data[.,2:cols(data)]); /*autocorrelacion parcial */
autop[i,1]=bhat[rows(bhat),1];
i=i+1;
endo;
retp(autoc,autop,inter);
endp;

2.31
APNDICE C:

EJERCICIOS

1. Explique en qu consiste la estacionariedad de un proceso estocstico. Cul es la diferencia


entre estacionariedad dbil y fuerte? Qu es ergodicidad? Por qu el siguiente proceso no
es estacionario (demuestre)? y t = y t 1 t con t i.i.d.
2. Para cules valores de y son estacionarios los siguientes procesos? Demuestre.
y t =11.4L L 2 t
t i.i.d.0,1
2
z t 1.4LL =t
t i.i.d. 0,1
3. Por qu la funcin de autocorrelacin parcial de AR(p) muere sbitamente?
4. Demuestre que la funcin de autocorrelacin parcial de un MA(q) cae suavemente.
5. Demuestre que 1 L 1=1L 2 L 2 ... usando una expansin de Taylor.

6. Suponga que R 2 tal que es i.i.d N [0, ] , donde es una matriz de 2x2 positiva y
definida. Suponga que z t =[x t , y t ] . La solucin estacionaria del modelo primitivo
(estructural) es
A0 z t = A 1 z t1t
donde z0 = 0. Los coeficientes de las matrices son:

[ ]

A0 = 1 0
1

[ ]

A 1=

a) encuentre la forma reducida de zt. Exprese la matriz de varianzas de residuos de la forma


reducida que usted llamar en funcin de , A 0 y A1. Exprese la matriz de
parmetros de la forma reducida que usted llamar en funcin de , A0 y A1.
b) escriba la funcin de verosimilitud del problema y encuentre los estimadores de la forma
reducida.
c) haga el test =0.
d) Suponiendo que tiene estimados los parmetros de la forma reducida y computados los
residuos, cmo puede imponer restricciones para identificar los parmetros de la forma
primitiva?
7. Suponga que x t = x t 1t t1 donde ||<1 y x0=0. Considere la regresin de xt en
xt-1 y el estimador:
a) Suponga que ||<1. Es un estimador consistente de ? Demuestre y encuentre la
distribucin lmite del estimador.

2.32
b) Suponga ahora que = 1. Es un estimador consistente de ? Encuentre la distribucin
lmite del estimador.

2.33
APENDICE D:

METODOLOGAS DE REMOCIN DE ESTACIONALIDAD PARA VARIABLES ESTACIONARIAS

Entre los mtodos ms comunes para remover la estacionalidad estn el uso de variables
mudas estacionales y el mtodo de promedios mviles, que incluye desde la variacin en xperiodos hasta el ARIMA X-11. Esta ltima es la metodologa ms popular tanto porque su nivel
de desarrollo analtico es superior, como porque viene implementada como una opcin sencilla de
usar en muchos programas economtricos.
En esta seccin consideramos las dos principales metodologas de remocin de la
estacionalidad que parten de la base que las series son estacionarias: el mtodo de las variables
mudas (dummies) y la metodologa X-1120. Estas son las metodologas ms antiguas y, pese a ser an
populares, son limitadas e imponen fuertes restricciones a la naturaleza estocstica de las series y de
la estacionalidad.

Mtodo de Regresin
Esta es, probablemente, la manera ms simple de remover componentes estacionales. No
obstante es la que impone mayores restricciones sobre las caractersticas que debe cumplir el
fenmeno de estacionalidad. En el mtodo de regresin se utiliza una serie de variables mudas para
capturar los efectos estacionales:
y t =01 D1 2 D 2 k D k x t t
donde cada variable Di toma valores 1 en el periodo que sta representa (p.e., enero de cada ao) y
cero en cualquier otro periodo. El modelo (1) puede ser extendido para incluir otras variables
explicativas o un proceso ms complejo aunque estacionario para el error (p.e., un ARMA).
En la medida que los coeficientes i sean estadsticamente significativos, habrn componentes
estacionales. Consecuentemente, la serie desestacionalizada y *t se calcula como:
y *t = y t 1 D1 2 D 2 k D k
donde i son los parmetros estimados para cada componente estacional que resulten
significativos.
Como resulta evidente, al modelar la estacionalidad de esta manera se asume que el efecto
estacional sea determinstico (o constante en valor esperado), es decir que en cada ao el cambio en
la variable por razones estacionales sea exactamente el mismo. Ello no es un supuesto adecuado para
muchas de las variables econmicas debido a que el comportamiento estacional se determina por
numerosas y muy heterogneas fuentes, lo que sugiere que ste sea modelado como una variable
aleatoria.
20 La metodologa de la variacin en x-periodos implcitamente supone que la serie es no estacionaria al menos en el
componente estacional por lo que su descripcin se incorpora en la seccin 4.2.

2.34
El uso de variables mudas para modelar estacionalidad en un anlisis de regresin presenta el
problema de inducir correlaciones espreas entre las variables (Abeysinghe, 1994a), en tanto que su
uso para predecir variables en modelos de series de tiempo (p.e., ARIMA, VAR) produce
predicciones fuera de muestra que son de peor calidad que las que se obtienen de otros mtodos (X11 o la variacin en x-periodos), en especial en modelos multivariados (Abeysinghe, 1994b).
No obstante, este mtodo satisface algunas caractersticas que son deseables en cualquier
mtodo de remocin de estacionalidad: que se preserve el promedio de la serie original, que los
componentes estacionales sean ortogonales entre s, y que al aplicar el mtodo a la serie
desestacionalizada no se obtengan nuevos factores estacionales (idempotencia).
Pese a su popularidad, las metodologas tradicionales tienen grandes limitaciones.
Implcitamente, ellas suponen que la variable que se desea desestacionalizar cumple determinadas
propiedades estadsticas, las que usualmente no son verificadas previamente en los datos. Algunas
tcnicas suponen que los factores estacionales son determinsticos en tanto que otras asumen que
stos son estocsticos y estacionarios. En general, estas metodologas requieren que las series
originales sean estacionarias para estimar adecuadamente los componentes estacionales.
Inadvertidamente, algunos mtodos imponen estructuras dinmicas que las variables no
necesariamente poseen (p.e., la variacin en x-periodos). Cuando dichas propiedades no se verifican,
las metodologas de remocin del componente estacional entregan series filtradas que presentan
fuertes distorsiones y que pueden llevar a mala especificacin en modelos o a conclusiones
equivocadas cuando stas se usan para hacer tests de hiptesis.
Ms all de las limitaciones tcnicas de los distintos mtodos de desestacionalizacin, existe
una razn ms profunda para investigar el comportamiento estacional de las principales variables
macroeconmicas y que se relaciona con nuestro conocimiento de las fuentes y efectos de las
fluctuaciones de la economa. Beaulieu y Miron (1995) sealan que, en ocasiones, el estudio de los
componentes estacionales puede convertirse en una herramienta til para comprender la estructura
de los ciclos econmicos. La razn fundamental para ello es que el estudio de ciclos requiere
imponer condiciones de identificacin sobre los shocks (transitorios, permanentes) que afectan a la
variable de inters, de la misma manera que se hace para distinguir en un mercado cualquiera los
shocks de oferta y demanda. Segn estos autores, resulta ms creble imponer dichas restricciones
sobre los componentes estacionales que sobre los componentes fundamentales.

Mtodo de los Promedios Mviles


El ms conocido de los mtodos de promedios mviles es el X-11 (y su versin ms
moderna, el ARIMA X-12) popularizado por el U.S. Bureau of the Census. El punto de partida de la
metodologa es el teorema de Wold que demuestra que cualquier serie de tiempo estacionaria puede
ser descompuesta en tres componentes bsicos: una tendencia determinstica, un componente
estacional, y un conjunto de innovaciones (Hamilton, 1994).
En lneas genricas, la metodologa se compone de dos etapas que funcionan de manera
independiente. El objetivo de la primera etapa es eliminar de la serie aquellas observaciones
"extremas" que, de no ser eliminadas, podran distorsionar la medicin de los componentes
estacionales. Para ello, se estima un modelo ARIMA que incluye regresores (dummies) para capturar
efectos de eventos especiales (feriados, aos bisiestos, etc.), observaciones atpicas (outliers),

2.35
cambios de niveles de las series (quiebres), tendencia y un conjunto de variables mudas que operan
como estimadores preliminares de la estacionalidad. El modelo ARIMA se escoge de modo tal que
satisfaga varios requisitos, entre ellos un bajo error de prediccin fuera de muestra, ausencia de
correlacin y estacionariedad de residuos. Una vez estimado el modelo ARIMA se realizan dos
transformaciones a la serie original: (1) se reemplazan los valores extremos por valores filtrados
eliminndose la posible distorsin, y (2) se predice un cierto nmero de periodos (tpicamente 2
aos) fuera de cada extremo de la muestra y se aaden los valores predichos a la serie original. El
objetivo de esto ltimo se describe a continuacin.
En la segunda etapa se estiman los componentes estacionales por medio de promedios
mviles. En una primera parte, se estima el componente de tendencia de la serie transformada en la
etapa anterior utilizando los llamados promedios mviles de Henderson. El promedio mvil de
Henderson es un promedio ponderado de manera decreciente de 3, 5, 7, ... observaciones centrado
en la observacin de inters, por lo que considera valores pasados y futuros. El nmero de
observaciones es frecuentemente seleccionado de modo automtico por el programa. En la segunda
etapa, se estiman los componentes estacionales de la serie ajustada en la primera etapa a la cual se le
han eliminado adicionalmente los componentes de tendencia. El papel que cumplen las
observaciones aadidas en la primera etapa es mejorar el clculo de los componentes estacionales
usando promedios mviles en los extremos de la muestra donde la informacin est truncada.
El procedimiento para datos trimestrales es el siguiente (para datos mensuales el
procedimiento es anlogo):

Se transforman los datos usando la tcnica de Box y Cox (1964).

Se filtran las series de la siguiente manera: x t =

Se obtiene la serie

r t=

[ 0.5

y t 2 y t 1 y t y t 1 0.5 y t 2 ]
4

yt
xt

Se calculan los ndices estacionales, i, como el promedio de los valores de r estimados para
cada trimestre (por ejemplo, para el primer trimestre se usan r1, r5, r9, ...).

Se normalizan los ndices estacionales para preservar la media de la serie original de la


iq
siguiente manera: s i =
i1 i 2 i3 i4
yt
y se verifica que la modelacin es
si
adecuada haciendo tests de especificacin y de estacionalidad residual.

Se obtiene la seria desestacionalizada como

y *t =

Aunque el mtodo ARIMA X-11 es muy popular no est exento de limitaciones. En primer
lugar, el mtodo produce en la mayor parte de las aplicaciones prcticas un filtro no lineal, porque en

2.36
los subfiltros se utilizan promedios de Henderson con distinto nmero de rezagos determinados de
manera endgena en funcin de la presencia de valores extremos en los datos (Ghysels y Perron,
1993). Ello distorsiona las propiedades dinmicas de las series. Segundo, el filtro induce correlacin
en datos distantes producto del uso de promedios mviles de Henderson que no necesariamente
existe en las series originales. Tercero, para varias clases de modelos el uso de un ARIMA para la
prediccin en las puntas de la muestra utilizando variables expresadas en logartmos produce un
sesgo sistemtico hacia abajo en las series ajustadas por estacionalidad (Franses, 1997). La magnitud
y sentido del sesgo son desafortunadamente, desconocidos porque dependen de la estructura
particular de cada muestra y modelo. Cuarto, el tratamiento de los componentes irregulares (por
ejemplo, Semana Santa que cae en distintos das del mes de abril de cada ao) no es necesariamente
ptimo en esta metodologa, favorecindose su remocin por mtodos indirectos previos al filtrado
de los datos con X-11 (Lee, 1998).

2.37

Contenidos
Captulo 2..................................................................................................................................................1
Modelos de Series de Tiempo ..............................................................................................................1
Estacionarias Univariados......................................................................................................................1
2.01 Primera Representacin Fundamental de un Proceso Estocstico.......................................1
2.02 Estacionariedad y Ergodicidad.....................................................................................................1
2.03 Funcin de Autocorrelacin.........................................................................................................3
2.04 Proceso Ruido Blanco..................................................................................................................4
2.06 Procesos Autoregresivos..............................................................................................................8
2.07 Procesos Autoregresivos y de Media Mvil.............................................................................14
2.08 Identificacin de Procesos Estocsticos Estacionarios........................................................14
2.09 Funciones de Correlacin Admisibles y el Teorema de Wold............................................15
2.10 Metodologa de Box-Jenkins.....................................................................................................17
2.11 Cmo Volver Estacionaria una Variable?...............................................................................18
2.12 Identificacin del Tipo de Modelo ARMA..............................................................................19
2.17 Simulacin Histrica con Modelos ARMA............................................................................25
2.18 Validacin del Modelo Economtrico ARMA.......................................................................26
Apndice A: Operador de Rezagos.................................................................................................27
Apndice B: Cdigo Gauss para simulacin de modelos ARMA..............................................28
Apndice C: Ejercicios.......................................................................................................................31
Apendice D: Metodologas de Remocin de Estacionalidad para Variables Estacionarias... 33

Ultima correccin:

28/05/07

You might also like