You are on page 1of 41

UNIVERSIDAD NACIONAL AGRARIA LA

MOLINA
FACULTAD DE ECONOMIA Y PLANIFICACIN

MODELOS ARIMA
6

-2
10

20

30

40

50

60

70

80

90

00

Econ. Juan Pichihua Serna, M.A.

Profesor Principal del Departamento Acadmico de Economa y Planificacin

Modelos ARIMA

Juan Pichihua Serna

INDICE
1. Naturaleza de las Series de Tiempo
1.1 Definiciones Preliminares
1.2 Instrumentos de identificacin
a) La funcin de autocorrelacin simple
b) La funcin de autocorrelacin parcial

2
2
5
5
6

2. Modelos ARIMA
2.1 Procesos Autorregresivos
a) Proceso AR(q)
b) Proceso AR(1)
c) Proceso AR(2)
2.2 Procesos de Media Mvil
a) Proceso MA(q)
b) Proceso MA(1)
c) Proceso MA(2)
2.3 Procesos Autorregresivos de Media Mvil
a) Proceso ARMA(p,q)
b) Proceso ARMA(1,1)
2.4 Procesos Autorregresivos de Media Mvil Integrados

6
7
7
8
11
15
15
16
19
22
22
22
23

3. Proceso Box-Jenkins
3.1 Identificacin
3.2 Estimacin
3.3 Control
a) Caractersticas de un buen modelo para pronstico
b) Criterios para la seleccin de un modelo ARIMA

26
26
29
29
30
30

4. Problemas Comunes en la Estimacin de Modelos ARIMA


4.1 Sobrediferenciacin
4.2 Subdiferenciacin
4.3 Sobreparametrizacin

31
31
31
32

5. Estacionalidad en Modelos ARIMA


5.1 Estacionalidad en los trminos AR
5.2 Estacionalidad en los trminos MA
5.3 Estacionalidad en los trminos AR y MA

32
32
33
33

6. Reglas para la Identificacin de Modelos ARIMA

34

7. Aplicaciones de los Modelos ARIMA

38

8. Bibliografa

43

Modelos ARIMA

Juan Pichihua Serna

MODELOS ARIMA
Cuenta la historia que dos papers publicados por Yule1 en 1927 que dieron el inicio al
anlisis de las series de tiempo. Diez aos despus Slutsky2 encuentra que los ciclos
econmicos tienen en su origen procesos puramente aleatorios. En ambos casos se
rechazan, proponiendo modelos cuya raz son procesos puramente aleatorios. En su
presentacin Yule invita a sus lectores a imaginar un pndulo que va de un lado a otro
en movimientos armnicos, luego, cualquier desviacin que se observa puede ser
atribuido a errores de observacin y por lo tanto, podra ser eliminada sin ninguna
consecuencia sobre el proceso estacionario armnico que representa, sin embargo, si el
pndulo fuera interrumpido por alguien comienza a golpear el pndulo con arvejas hacia
uno y hacia otro lado, entonces el movimiento estar afectado por factores disturbantes.
La idea es que hay muchas series de tiempo que tienen un comportamiento regular, pero
que, debido a factores aleatorios pueden tomar valores por encima o por debajo de su
valor regular tal como se puede observar en el grfico 1.
4
2
0
-2
-4
-6
-8
10

20

30

40

50

60

70

80

90

00

Grfico 1: Yt = 1.343Yt-1 - 0.655Yt-2 + t

1.

NATURALEZA DE LAS SERIES DE TIEMPO

1.1

DEFINICIONES PRELIMINARES

Definicin 1: Un proceso estocstico es una secuencia de variables aleatorias


Y1 , Y2 , Y3 , Yt , cuyo valor se realiza en cada instante de tiempo, para
t ,.....,2,1,0,1,2,....., . Cada una de estas variables aleatorias, Yt , puede tener su
propia distribucin de probabilidad, cuyos momentos satisfacen algunas propiedades
especficas. Por ejemplo:

Yule, G. U. (1927), On a Method of Investigating Periodicities in Disturbed Series with Special Reference toWolfer's
Sunspot Numbers. Philosophical Transactions of the Royal Society, No. 89, pags. 1-64.
2

Slutsky, E. (1937), \The Summation of Random Causes as the Source of Cyclical Processes." Econometrica, 5,
105{146

Modelos ARIMA

Ejemplo 1:

Y1 , Y2 , Y3 , es

Juan Pichihua Serna

una secuencia de variables aleatorias independientes

normalmente distribuidas con media cero y varianza 2 para cualquier momento t. Yt

N( 0 ; 2 ) .
Ejemplo 2: Y1 , Y2 , Y3 , , Yt , es una secuencia de variables aleatorias donde Y1
N ( 0 ; 1 ) , para t = 1, y donde Yt Yt 1 u t , cualquier momento t >1, siendo u t
N ( 0 ; 1) , para cualquier momento t.
Ejemplo 3: La tasa de desempleo durante el segundo semestre del ao 2001 puede ser
considerada como una variable aleatoria (aunque slo observemos una realizacin de
esta variable aleatoria), pero, la secuencia de tasas de desempleo trimestral en el Per es
un proceso estocstico.
Definicin 2: Una serie de tiempo y1 , y 2 , y 3 , , y n es una muestra de realizaciones
de un proceso estocstico. Por supuesto una serie de tiempo puede estar compuesta por
una sola realizacin de cada variable aleatoria Yt .
Note que mientras el Proceso Estocstico se refiere a la poblacin, una serie de tiempo
es un concepto utilizado para referirse a la muestra. Por ejemplo:
Ejemplo 4: Sea el proceso estocstico Yt N ( 0 ; 2 ) , una serie de tiempo asociada a
dicho proceso estocstico puede ser: {1.1, 2.3, 4.6, 3.5}.
Ejemplo 5: Observe la tasa de desempleo en el Per entre el primer trimestre de 1990 y
el cuarto trimestre del 2000.

Definicin 3: Un proceso estocstico es estacionario en sentido estricto si cualquier


conjunto de n observaciones de la variable aleatoria Y (t1 ), Y (t2 ), Y (t3 ),...., Y (tn ) mantiene
la misma distribucin de probabilidad conjunta que otro conjunto de n observaciones
medido en otro momento de tiempo k perodos ms adelante o ms atrs
Y (t1 k ), Y (t2 k ), Y (t3 k ),...., Y (tn k ) .
Esto significa que un proceso estocstico ser estacionario si la distribucin de
probabilidad de diferentes variables aleatorias es independientemente del momento de
tiempo en que se mide. Se dice que un proceso estocstico, Yt , ser estrictamente
estacionario si su media, varianza y autocovarianzas son constantes (primeros y
segundos momentos), as mismo sern constantes todos sus otros momentos de orden
superior. Por ejemplo.
Ejemplo 6: El proceso estocstico Yt N ( 0 ; 2 ) del ejemplo 1, es un proceso
estacionario, pues tiene sus primeros, segundos, terceros y cuartos momentos
constantes, esto es:
Primer Momento:
3

Modelos ARIMA

Juan Pichihua Serna

La media: (t ) E (Yt ) .

Segundo Momento:
La varianza: 2 (t ) Var (Yt ) E (Yt E (Yt )) 2 E (Yt ) 2 2 0 .

Las covarianzas: (t , t k ) Cov(Yt , Yt k ) E(Yt )(Yt k ) k k

Tercer Momento:

Y 3
0
Skewness (sesgo): skw(t ) E t

Cuarto Momento:

Y 4
3.
Kurtosis: kur(t ) E t

Ejemplo 7: El proceso estocstico del ejemplo 2, es un proceso no estacionario, pues, Yt


es un paseo aleatorio (random walk) con Yt N ( 0 ; t ) . Se puede demostrar que la
varianza de Yt est asociada al momento en el que se mide.
Definicin 4: Un proceso estocstico Yt ser dbilmente estacionario (o de covarianza
estacionaria) si para cualquier momento del tiempo t, sus primeros y segundos
momentos son independientes del tiempo. Esto es, tendrn media, varianza y covarianza
constantes.

La media: E (Yt ) .

La varianza: Var (Yt ) E (Yt ) 2 0 .


Las covarianzas: Cov(Yt , Yt k ) E(Yt )(Yt k ) k k ; k 0 .

Una serie, yt , es de covarianza estacionaria si:


1) Exhibe reversin hacia la media, esto es, sus valores en el largo plazo fluctuan
alrededor de una media constante. E(yt) = E(yt-k) = , una constante para todo t y t-k.
2) Tiene una varianza finita e invariante en el tiempo. E(yt-)2 = E(yt-s-)2=2. Una
constante para todo t y k, y
3) Sus autocovarianzas no estn afectadas por el cambio en el origen,
E[(yt -
t-k -
t-j -
t-j-k - ) = k
Cov (yt,yt-k) = Cov(yt-j,yt-j-k) = k .
Las covarianzas dependen nicamente de la distancia k y no del origen t o t-j.

Modelos ARIMA

Juan Pichihua Serna

Definicin 5: Un proceso estocstico ser independiente e identicamente distribuido


i.i.d. si es un proceso dbilmente estacionario y si para cada par de momentos de
tiempo t , t k con k 0 , Yt y Yt k son independientes, luego, tienen covarianza
nula, k 0 .
El proceso estocstico Yt del ejemplo 1 es un iid porque:
La media: E (Yt )

La varianza: Var (Yt ) E[(Yt ) ] 0


Las covarianzas: Cov(Yt , Yt k ) E[(Yt )(Yt k )] 0 ; k 0 .
2

Si es un proceso estocstico Yt i.i.d. puede ser denotado como: Yt iid ( 0 ; 2 ) .


Definicin 6: Un proceso es estocstico estacionario es el Ruido Blanco (white-noise),
si sus valores son producto nicamente del azar, es decir, tienen media cero, varianza
constante y covarianza cero, por lo tanto, es un caso especial de proceso estocstico
i.i.d. con media cero.
El proceso estocstico Yt del ejemplo 1 es un ruido blanco, si:
La media: E (Yt ) 0

La varianza: Var (Yt ) E[(Yt ) ] 0


Las covarianzas: Cov(Yt , Yt k ) E[Yt Yt k ] k 0 ; k 0 .
2

Ejemplo 8: Se dice que los cambios en las cotizaciones de la Bolsa de Valores o los
premios de la lotera son producto del azar, por lo tanto son ruido blanco.

1.2

INSTRUMENTOS DE IDENTIFICACIN

Para identificar la estructura de un proceso estocstico especfico, se prefiere no utilizar


la varianza y las autocovarianzas de la variable aleatoria Yt , debido a que estn influidas
por sus unidades de medida, en este caso se utiliza la funcin de autocorrelacin simple
y la funcin de autocorrelacin parcial, pues sus medidas estn libres de unidades.
a)

La funcin de autocorrelacin simple

La funcin de autocorrelacin simple, AC(j), de un proceso estocstico Yt es la


coleccin de los coeficientes de autocorrelacin lineal simple de la variable aleatoria Yt ,
medido entre en el momento t y el momento t-j..
AC(j): j

Cov(Yt , Yt j )
V (Yt ) . V (Yt j )

j
0 . 0

j
0

Las medidas muestrales de la funcin de autocorrelacin de una serie de tiempo es la


siguiente:

Modelos ARIMA

Juan Pichihua Serna

(Yt Y )(Yt j Y )
j 1

(Yt Y )

b)

yt yt j
j 1
t

yt

La funcin de autocorrelacin parcial

La funcin de autocorrelacin parcial, PAC(j), de un proceso estocstico Yt es la


coleccin de los coeficientes de autocorrelacin parcial de la variable aleatoria en el
momento t, Yt , y la variable aleatoria en el momento t-j, Yt j , luego de eliminar el
efecto que tienen los rezagos intermedios Y1 , Y2 , Y3 ,, Yt j 1 sobre Yt .
Las medidas muestrales de la funcin de autocorrelacin parcial, jj se obtienen del
coeficiente asociado a la variable t-j en una regresin de y t contra sus rezagos hasta
y t j donde la variable aleatoria y t se mide en desviaciones con respecto a su media,
esto es, yt Yt Y .
En este esquema la primera autocorrelacin simple ser igual a la primera
autocorrelacin parcial, PAC(1)=AC(1)= 11 1 ,en cambio la segunda autocorrelacin
parcial ser el coeficiente asociado a y t 2 en una regresin de y t contra yt 1 y yt 2 . La
tercera autocorrelacin parcial ser el coeficiente asociado a y t 3 en una regresin de y t
contra yt 1 , yt 2 y yt 3 , el resto de coeficientes PAC se obtienen a travs de las
siguientes regresiones:
t-(t-j)
1

PAC

Regresin

PAC(1)

PAC(2)

3
............
p

PAC(3)

11
22
33

PAC(P)

........
pp

yt 11 yt 1 t
yt 21 yt 1 22 yt 2 t
yt 31 yt 1 32 yt 2 33 yt 3 t
.......................................................
yt 31 yt 1 32 yt 2 33 yt 3 pp yt p t

2. MODELOS ARIMA
Los procesos ARIMA son modelos matemticos utilizados con fines de pronstico.
ARIMA es un acronismo de los Modelos AutoRegresivos Integrados y de Media Movil
(AutoRegressive, Integrated, Moving Average), donde cada parte de la frase describe la
parte del modelo matemtico que nos ocupar esta seccin.

Modelos ARIMA

Juan Pichihua Serna

Los procesos ARIMA fueron popularizados por George Box y Gwilym Jenkins a inicios
de los aos 1970s; motivo por el cual los procesos ARIMA son tambin conocidos
como Modelos Box-Jenkins. Cada proceso ARIMA tiene tres partes: la parte
autoregresiva(o AR); la parte integrada (o I); y la parte de las medias mviles (o MA)
part, de modo corto se lo escribe como ARIMA(p,d,q) donde p describe la parte AR , d
describe la parte integrada y q describe la parte MA.

2.1

PROCESOS AUTORREGRESIVOS

a) Proceso AR(p)
Un proceso Autorregresivo de orden p, AR(p), es un modelo ARIMA(p,0,0), puede ser
expresado como funcin de los p rezagos de la misma variable, de la siguiente manera:
Yt c 1Yt 1 2Yt 2 ...... pYt p t

Donde, c es una constante y t es ruido blanco, con media cero, E ( t ) 0 , varianza


constante e igual a V ( t ) 2 , y covarianzas igual a cero Cov( t , t j ) 0, j 0 . O
tambin:

t RB 0 ; 2 y E ( t t j ) 0, j 0
Utilizando operadores de rezago, el proceso AR(p) se puede expresar como:
Yt 1Yt 1 2Yt 2 ...... pYt p c t

(1 1 L 2 L2 ...... p Lp )Yt c t

O tambin

( L)Yt c t
Donde el polinomio (L) expresa las caractersticas del proceso autorregresivo, el
mismo que puede descubrirse hallando sus p races caractersticas L1 , L2 ,....Lq .
p

( L) 1 1 L 2 L2 ...... p L p (1 1 L)(1 2 L)......(1 p L) (1 j L)


j 1

Para que proceso AR(p) sea estacionario, es decir, tiene tener solucin convergente a
una media constante, si y solo si satisface la condicin de estacionariedad, es decir, si
las races caractersticas (L) caen fuera del circulo unitario, L j > 1,

Modelos ARIMA

Juan Pichihua Serna

El polinomio (L) tambin puede ser expresado como ( ) :

p 1 p1 2 p2 .... p1 p 0
Cuyas races caractersticas del polinomio ( ) deben caer dentro del circulo unitario,
es decir, j 1, dado que j

1
.
Lj

El efecto de un shock aleatorio en el perodo t sobre un proceso estocstico del tipo


AR(p) se mide por la secuencia:

dYt

1
1 1 L 2 L ...... p L p
2

d t

Luego, el efecto de largo plazo de un shock unitario se mide por:


1
dYt
1 1 2 ...... p

b) Proceso AR(1)
Un proceso autorregresivo de primer orden, AR(1), se representa de la siguiente
manera:

Yt c Yt 1 t .
Donde t es ruido blanco con E ( t ) 0 , V ( t ) 2 , y Cov( t , t j ) 0, j 0 .
Utilizando operadores de rezago, el proceso AR(1) puede expresarse como:

(1 L)Yt c t
Para que un proceso AR(1) sea estacionario ser necesario que 1, es decir que
cumpla con la condicin de estacionariedad. De acuerdo a esto, el proceso AR(1)
puede ser expresado como un proceso MA().
Demostracin:
c
1
c
Yt

t
t t 1 2 t 2 3 t 3
1 (1 L)
1

c
j t j
1
j 0
c
Yt
MA()
1

Yt

Modelos ARIMA

Juan Pichihua Serna

De modo que la media de Yt es:


c
E (Yt )

La varianza de Yt es:
2

2
2 2
4 2
Var (Yt ) 0 E[Yt ] E t j E[ t t 1 t 2 ..... 2.crossprod]
j 0

2
2
4
Var (Yt ) 0 (1 .....)
2

2
1 2

Var (Yt ) 0

y las covarianzas de Yt se obtienen de operar:

Yt j t j
j 0

Yt j j t j 1
j 0

2
.
Cov(Yt , Yt 1 ) 1 E(Yt )(Yt 1 )
1 2

j
2
. , j 2.
Cov(Yt , Yt j ) j E (Yt )(Yt j )
1 2

La funcin de autocorrelacin simple, AC, de un proceso AR(1) es:

1 1
0

2
.1 2
0
j
j
j 1 j . j 2.
0
2

La funcin de autocorrelacin parcial, PAC, de un proceso AR(1) es:


PAC(1)= 11 , se obtiene de la regresin: yt 11 yt 1 , donde yt Yt Y
PAC(2)= 22 = 0, se obtiene de la regresin: yt 21 yt 1 22 yt 2 .
PAC(2)= 33 = 0, se obtiene de la regresin: yt 31 yt 1 32 yt 2 33 yt 3 .
Note que en un AR(1) el PAC se hace cero luego del primer rezago.

Modelos ARIMA

Juan Pichihua Serna

PROCESOS AUTORREGRESIVOS: AR(1)


4

2
2

1
0

0
-2

-1
-4

-2
-3

Y= 0.85*Y(-1)+
05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

c)

Y= - 0.85*Y(-1)+
-6
05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

Proceso AR(2)

Un proceso autorregresivo de segundo orden, AR(2), se representa de la siguiente


manera:

Yt c 1Yt 1 2Yt 2 t
Donde t es ruido blanco con E ( t ) 0 , V ( t ) 2 , y Cov( t , t j ) 0, j 0 .
Utilizando operadores de rezago, el proceso AR(2) se puede expresar como:
Yt 1Yt 1 2Yt 2 c t
(1 1 L 2 L2 )Yt c t

Para que se cumpla con la condicin de estacionariedad, es decir, para que el proceso
AR(2), pueda ser expresado como un MA() es necesario que las dos races del
polinomio en L, 1 1 L 2 L2 0 , caigan fuera del crculo unitario,
(1 1 L)(1 2 L) 0 , esto es: Li 1
.
Operando se obtiene:
2
2
1 (1 2 ) L 12 L 1 1 L 2 L 0

10

Modelos ARIMA

Juan Pichihua Serna

1 2 1

Luego:

12 2

Equivalentemente, si hacemos L 1 / , obtenemos:

2 1 2 0
Para que se cumpla la condicin de invertibilidad es necesario que, las dos races
caractersticas del polinomio en , 2 1 2 0 , sean menores que uno, i 1 ,
esto es:

1 12 4 2

1.

Es decir, resolviendo las races del polinomio se obtiene:

1 12 4 2
2

1 12 4 2
2

En ambos casos las races caractersticas Li 1 y i 1 ocurren si y solo si:

2 1 1;

2 1 1;

2 1.

Por lo tanto, si se cumplen estas condiciones un proceso AR(2) es un proceso


estacionario y por lo tanto puede ser expresado como un proceso MA().
Por ejemplo, el proceso estacionario cuya representacin es un AR(2),
2 0.8
es
estacionaria
porque:
1;
Yt 10 0.7Yt 1 0.8Yt 2 t ,

2 1 0.8 0.7 0.1 1; y

2 1 0.8 0.7 1.5 1.

Pero, si la representacin AR(2) fuera: Yt 10 0.7Yt 1 0.8Yt 2 t , no es


estacionaria porque, 2 1 0.8 0.7 1.5 1, por lo tanto no cumple con una
condicin necesaria de estacionariedad.
De igual manera, si la representacin AR(2) fuera: Yt 10 0.7Yt 1 1.3Yt 2 t ,
tampoco es estacionaria, porque 2 1.3 >1; Sin embargo, si la representacin AR(2)
fuera: Yt 10 1.3Yt 1 0.7Yt 2 t , si es estacionaria, porque 2 0.7 1;

2 1 0.7 1.3 2.0 1; y

2 1 0.7 1.3 0.6 1.

Los momentos de un proceso AR(2) se obtienen de adecuar la ecuacin original:

Yt c 1Yt 1 2Yt 2 t
(1 1 L 2 L2 )Yt c t

11

Modelos ARIMA

Yt

c
1 1 2

Juan Pichihua Serna

1
1 1 L 2 L2

De modo que la media de Yt es:


c
E (Yt )
;
1 1 2
Para obtener la varianza y las covarianzas de Yt se obtienen de realizar los siguientes
arreglos:
De la media de Yt se obtiene:

c 1 1 2 1 2

Luego,
c 1 2
Restando la media, c 1 2 , a ambos miembros del proceso AR(2) se
obtiene:
Yt c 1Yt 1 2Yt 2 t c 1 2 1 (Yt 1 ) 2 (Yt 2 ) t .
Haciendo a Yt yt , Yt 1 yt 1 , y as sucesivamente, tenemos:
yt 1 . yt 1 2 . yt 2 t
Multiplicando por y t , y t 1 y y t 2 tenemos:
yt2 1 . yt . yt 1 2 . yt . yt 2 t . yt
yt . yt 1 1 . yt21 2 . yt 1 . yt 2 t . yt 1

yt . yt 2 1 . yt 1 . yt 2 2 . yt22 t . yt 2

Tomando el valor esperado tenemos:


0 1 . 1 2 . 2 2

1 1 . 0 2 . 1

2 1 . 1 2 . 0
De modo que la varianza de Yt es:

2 (1 2 )
Var (Yt ) 0
(1 2 )(1 1 2 )(1 1 2 )
Las autocovarianzas se obtienen de la relacines anteriores:
Cov(Yt , Yt 1 ) 1

21
(1 2 )(1 1 2 )(1 1 2 )

12

Modelos ARIMA

Cov(Yt , Yt 2 ) 2

Juan Pichihua Serna

2 (1 2 ) 2 12
, y as sucesivamente.
(1 2 )(1 1 2 )(1 1 2 )

La funcin de autocorrelacin simple, AC, de un proceso AR(2) es:

1
0 1 2

2
12
2

2
0 1 2
Para las autocorrelaciones mayores a 2 se debe utilizar la ecuacin de Yule Walker3,
sera:
1 1 . 2 .1
2 1 .1 2 , y en general
j 1 . j 1 2 . j 2 .

PROCESOS AUTORREGRESIVOS: AR(2)


4

Y=0.8*Y(-1)-0.25*Y(-2)+

Y=-0.8*Y(-1)-0.25*Y(-2)+

4
2

1
0

-1

-2
-2
-3

-4
05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

Las ecuaciones de Yule-Walker para un AR(p) se obtienen de:


j 1. j 1 2 . j 2 ..... p . j p . Para todo j = 1, 2, 3, ., p. Donde

j j
13

Modelos ARIMA

2.2

Juan Pichihua Serna

Procesos de Media MVIL

a) Proceso MA(q)
Un proceso MA(q), es una representacin de un ARIMA(0,0,q). La media movil es la
representacin de un proceso estocstico expresado solamente en trminos de valores
corrientes y rezagados de un ruido blanco, en ese sentido, todo proceso estacionario
tiene asegurado una representacin de Mdia Mvil.
Un proceso de media mvil de orden q, MA(q), puede ser expresado de la siguiente
manera:
Yt c t 1 t 1 2 t 2 .... q t q
Donde, c es una constante y t es ruido blanco, con media cero, E ( t ) 0 , varianza
constante e igual a V ( t ) 2 , y covarianzas igual a cero Cov( t , t j ) 0, j 0 . O
tambin:
t RB 0 ; 2 y E ( t t j ) 0, j 0

Utilizando operadores de rezago, el MA(q) se puede expresar tambin como:


Yt c (1 1 L 2 L2 .... q Lq ) t

Yt c q ( L) t

De modo que la media, la varianza y las covarianzas de un proceso de media mvil en


Yt , sern:
E (Yt ) E (c t 1 t 1 2 t 2 ..... q t q ) c
q

2
2
Var (Yt ) 0 i . Donde 0 1 .
i 0

q j

2
Cov(Yt , Yt j ) j i i j , j 1,2,3,...., q. Donde 0 1 .
i 0

Cov(Yt ,Yt j ) j 0, j q .

Por lo tanto, las funciones de autocorrelacin de un proceso MA(q) son:


q j

i i j

i 0

i 0

. Para j = 1, 2, 3, ., q. Donde 0 1 .

2
i

j 0 . Para j q.

14

Modelos ARIMA

Juan Pichihua Serna

Por lo tanto, para determinar el orden q de la media movil bastar con observar los
coeficientes de autocorrelacin simple, AC(j), distintas de cero, j 0 . Pues para un
orden mayor a q las AC(j) sern cero.
Un proceso MA(q) puede ser expresado como un proceso autorregresivo de orden
infinito, AR(), si cumple con la condicin de invertibilidad, para ello las races
caractersticas, en L, del polinomio q (L) deben caer fuera del crculo unitario, o
tambin la inversa de la raz debe caer dentro del crculo unitario. Esto es:
Si

Yt c t 1 t 1 2 t 2 ..... q t q c q ( L) t ,

entonces,

Yt c (1 1 L 2 L2 ..... q Lq ) t
Para hallar las races caractersticas del polinomio q (L) debemos igualarlo a cero y
resolverlo:
1 1 L 2 L2 ..... q Lq (1 1 L)(1 2 L).....(1 q L) 0
Para que el polinomio sea invertible sus q races caractersticas, en L, deben caer fuera
del circulo unitario, esto es: L j

1.

El polinomio q (L) , tambin puede expresarse como un polinomio q ( ) , esto es:

1 1 L 2 L2 ..... q Lq q 1q 1 2 q 2 .... q 1 q 0
Para que se cumpla la condicin de invertibilidad las q races caractersticas del
polinomio q ( ) deben caer dentro del circulo unitario, j 1 .
b) Proceso MA(1)
Una media mvil de primer orden se representa de la siguiente manera:

Yt c t t 1 c (1 L) t

Donde t RB 0 ; 2 y E ( t t j ) 0, j 0
De modo que la media de Yt , E (Yt ) , es:
E (Yt ) E (c t t 1 ) c .
La varianza de Yt , V (Yt ) 0 , es:

Var (Yt ) 0 E[Yt E (Yt )] E[Yt c] E[c t t 1 c]


2

15

Modelos ARIMA

Juan Pichihua Serna

Var (Yt ) 0 E[ t 2 t t 1 t 1 ] E[ t ] 2 .E[ t t 1 ] E[ t 1 ] (1 )


2

y sus autocovarianzas son:


2
Cov(Yt , Yt 1 ) 1 E[(Yt c)(Yt 1 c)] E[( t t 1 )( t 1 t 2 )] , para j=1
y
Cov(Yt , Yt j ) j E[(Yt c)(Yt j c)] E[( t t 1 )( t j t j 1 )] 0, j 2.
Para que un MA(1) cumpla con la condicin de invertibilidad basta que 1.
La funcin de autocorrelacin simple, AC, de un proceso MA(1) es:

. 2

AC(1): 1 1

2
2
0 (1 ).
1 2
0
AC(2) 2
0.
0
AC(j) j 0 . Para j 2.
Por ejemplo, supongamos un proceso estacionario con representacin MA(1):
Yt 10 t 2 t 1 , la varianza, las covarianzas y las autocorrelaciones simples son:
Rezagos
0
1

Varianzas y Covarianzas

Var (Yt ) 0 (1 2 ) 5
2

Cov(Yt , Yt 1 ) 1 2

Cov(Yt , Yt 2 ) 2 0

........
j

........
Cov(Yt , Yt j ) j 0

Autocorrelacin Simple

AC(1): 0 0 1
0

1 2. 2
AC(1): 1

0.4
2
0
5.

0
AC(2): 2 2
0
0 0

........
AC(j): j 0 .

Sin embargo, supongamos otro proceso estacionario MA(1), Yt 10 t 0.5 t 1 , que


produce la misma funcin de autocorrelacin simple4.
Rezagos
0
1
2
........
j

Varianzas y Covarianzas
2
2
2
Var (Yt ) 0 (1 0.5 ) 1.25

Cov(Yt , Yt 1 ) 1 0.5
Cov(Yt , Yt 2 ) 2 0
........
Cov(Yt , Yt j ) j 0

Autocorrelacin Simple
AC(1): 0 1

1 0.5 2

0.4
AC(1): 1
0 1.25. 2
AC(2): 2 0
........
AC(j): j 0 .

Se dice que estos modelos son ergdicos.

16

Modelos ARIMA

Juan Pichihua Serna

PROCESOS MEDIA MOVIL: MA(1)


4

2
2

-1
-2

-2
MA(1): Y=ERR+0.85*ERR(-1)

MA(1): Y=ERR-0.85*ERR(-1)

-4

-3
05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

c)

05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

Proceso MA(2)

Un proceso estocstico tiene representacin de media mvil de segundo orden si:


Yt c t 1 t 1 2 t 2 c (1 1 L 2 L2 ) t

Donde t RB 0 ; 2 y E ( t t j ) 0, j 0
La media de Yt es,
E (Yt ) c
La varianza de Yt es:

Var (Yt ) 0 2 (1 12 22 )
y las autocovarianzas de Yt son:

Cov(Yt , Yt 1 ) 1 1 (1 2 )
2

17

Modelos ARIMA

Juan Pichihua Serna

Cov(Yt , Yt 2 ) 2 2
2

Cov(Yt ,Yt j ) j 0, j 3.

Para que se cumpla con la condicin de invertibilidad, en el proceso estacionario


MA(2), Yt c (1 1 L 2 L2 ) t , es necesario que las dos races del polinomio en L,

1 1 L 2 L2 0 , caigan fuera del crculo unitario, (1 1L)(1 2 L) 0 , esto es:

Li 1 o i 1 , donde, L 1 / , . Resolviendo:
1 (1 2 ) L 12 L 1 1L 2 L 0
2

Equivalentemente, si L 1 / , para que se cumpla la condicin de invertibilidad es


necesario que, las dos races caractersticas del polinomio en , 2 1 2 0 ,
sean menores que uno, i 1 , esto es:

1 12 4 2
2

1.

Es decir,

1 12 4 2

1 12 4 2

1
2
2
En ambos casos las races caractersticas Li 1 y i 1 ocurren si y solo si:

2 1 1;

2 1 1;

y 2 1.

La funcin de autocorrelacin simple, AC, de un proceso MA(2) es:

1 1 (1 2 )

0 1 12 22

2
AC(2): 2 2
0 1 12 22
AC(j): j 0 . Para j 3.
AC(1): 1

Por ejemplo, el proceso estacionario cuya representacin es un MA(2),


2 0.8
Yt 10 t 0.7 t 1 0.8 t 2 ,
es
invertible
porque:
1;

2 1 0.8 0.7 0.1 1; y

2 1 0.8 0.7 1.5 1.

Pero, si la representacin MA(2) fuera: Yt 10 t 0.7 t 1 0.8 t 2 , no es invertible


porque, 2 1 0.8 0.7 1.5 1 , por lo tanto no cumple con una condicin
necesaria de invertibilidad.

18

Modelos ARIMA

Juan Pichihua Serna

De igual manera, si la representacin MA(2) fuera: Yt 10 t 0.7 t 1 1.3 t 2 ,


tampoco es invertible, porque 2 1.3 >1; Sin embargo, si la representacin MA(2)

Yt 10 t 1.3 t 1 0.7 t 2 , si es invertible, porque

fuera:

2 1 0.7 1.3 2.0 1; y

2 0.7 1;

2 1 0.7 1.3 0.6 1.

La varianza, las covarianzas y las autocorrelaciones simples de un proceso estacionario


cuya representacin es un MA(2): Yt 10 t 0.7 t 1 0.8 t 2 sern:
Rezagos
0

Varianzas y Covarianzas

Autocorrelacin Simple
AC(0): 0

Var (Yt ) 0 2 (1 0.7 2 (0.8) 2 ) 2.13 2

Cov(Yt , Yt 1 ) 1 2 (0.7)(1 0.8) 1.26 2

Cov(Yt , Yt 2 ) 2 0.8 2

Cov(Yt , Yt 3 ) 3 0

........
j

0
1
0

AC(1):
1 1.26 2
1
0.59
0 2.13 2
AC(2):

0.8 2
2 2
0.37
0 2.13 2
0
AC(3): 3
0.
3
........
AC(j): j 0 .

........
Cov(Yt , Yt j ) j 0

PROCESOS DE MEDIA MOVIL: MA(2)


4

2
2
1
0

-1
-2
-2
MA(2): Y=ERR-0.6*ERR(-1)-0.2*ERR(-2)
MA(2): Y=ERR+0.6*ERR(-1)+0.2*ERR(-2)

-4

-3
05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

19

Modelos ARIMA

2.3

Juan Pichihua Serna

PROCESOS AUTORREGRESIVOS DE MEDIA MVIL

a) Proceso ARMA(p,q)
Es un proceso que combina los modelos AR y MA. Un modelo ARMA(p,q) o un
ARIMA(p,0,q) se define como:
Yt c 1 .Yt 1 ... p .Yt p t 1 . t 1 ..... t q

Donde t es proceso puramente aleatorio, ruido blanco, con media 0 y varianza 2 .


Utilizando operadores de rezago, podemos escribir un modelo ARMA de la siguiente
manera:

Yt 1.Yt 1 ... p .Yt p c t 1. t 1 ..... t q

( L).Yt ( L) t
Donde (L). y (L) son polinomios de orden p y q, respectivamente, definidos como:
( L) 1 1 L 2 L2 ..... p Lp .

( L) 1 1 L 2 L2 ...... q Lq .
Para que se cumpla con la condicin de estacionariedad las races del polinomio (L).
deben caer fuera del crculo unitario (o dentro del crculo unitario si se define la funcin
inversa). Para que se cumpla con la condicin de invertibilidad del MA las races del
polinomio (L) deben caer fuera del crculo unitario (o dentro del crculo unitario si se
define la funcin inversa).
Si se cumplen estas condiciones, un ARMA (p, q) puede ser expresado como un modelo
AR() o un modelo MA (), esto es:

( L) 1 . ( L).Yt t , AR() , tambin o


Yt ( L) 1 . ( L). t , MA ().

b) Proceso ARMA (1,1)

Yt c .Yt 1 t 1. t 1
La varianza y las autocovarianzas de Yt son:

20

Modelos ARIMA

Juan Pichihua Serna

1 2. . 2 2

1 2
( )(1 . ) 2
1 . 0

1 2

2 . 1 , y en general
j . j 1 . Para todo j mayor o igual a 2.
Como resultado de esto, la funcin de actocorrelacin, AC, de un proceso ARMA (1,1)
es:

( )(1 . )
1 1
, en general,
0
1 2

j . j 1 . Para todo j mayor o igual a 2.

2.4

PROCESOS AUTORREGRESIVOS DE MEDIA MVIL INTEGRADOS

Es un proceso ARMA a una serie que ha sido diferenciada una cantidad necesaria de
veces hasta convertirla en estacionaria.

Yt Yt Yt 1
2Yt Yt Yt 1
d Yt d 1Yt d 1Yt 1
Luego un modelo ARIMA (p, d, q) se expresa de la siguiente manera:

d Yt c 1 .d Yt 1 ... p .d Yt p t 1 . t 1 ..... t q
Un modelo ARIMA(1,1,1) significa que la serie ha requerido una diferenciacin para
transformarse en una serie estacionaria, y esta serie diferenciada tiene una
representacin ARMA(1,1). Por ejemplo

Yt c 1.Yt 1 t 1. t 1
Desarrollando la diferencia se tiene:

Yt Yt 1 c 1.(Yt 1 Yt 2 ) t 1. t 1
Yt c (1 1 )Yt 1 1Yt 2 t 1. t 1

21

Modelos ARIMA

Juan Pichihua Serna

PROCESO AUTORREGRESIVO DE MEDIA MOVIL: ARMA(1,1)


4

y= 0.5*y(-1) + - 0.5*(-1)
2

-2

-2

y= -0.5*y(-1) + + 0.5*(-1)

-4

-4
1920

1940

1960

1980

1920

2000

1940

1960

1980

2000

PROCESO AUTORREGRESIVO INTEGRADO DE MEDIA MOVIL:


ARIMA(1,1,1)
10

-5

-10

-1

-15

-2

-20

-3

-25
1920

1940

1960

1980

2000

y= 0.5*y(-1) + - 0.5* (-1)

-4
1920

1940

1960

1980

2000

22

Modelos ARIMA

Juan Pichihua Serna

Proceso Box-Jenkins
La aproximacin de los modelos ARIMA mediante el procedimiento de Box & Jenkins
se basan en los siguientes principios:
1 El pronstico se supone que son producto de funciones lineales de las observaciones
muestrales.
2 El propsito es encontrar el modelo ms simple que proporcione una adecuada
descripcin de los datos observados. Este principio es conocido como el de la
parsimonia.
El procedimiento propuesto por Box & Jenkins para abordar los modelos
ARIMA(p,d,q) est compuesto de tres etapas: Identificacin, Estimacin y Control,
luego de los cuales puede utilizarse el modelo estimado con fines de pronstico. Si el
modelo no es satisfactorio debe regresar a evaluar su representacin mediante una
mejora en la identificacin.
PROCESO DE BOX - JENKINS

IDENTIFICACION

ESTIMACION

CONTROL

PRONOSTICO

2.5

IDENTIFICACIN

Si la serie de tiempo analizada, Yt , es estacionaria, se debe identificar las rdenes de los


procesos autorregresivo, p,

( L) 1 1 L p Lp

y de media movil, q,

( L) 1 1 L q L , que represente la serie de tiempo analizada.


q

23

Modelos ARIMA

Juan Pichihua Serna

Si la serie de tiempo Yt no es estacionaria, debe hallarse previamente, primero, el


nmero de diferencias d necesarias para que se transforme en una serie estacionaria,
d
esto es, zt Yt .
Si la serie de tiempo es estacionaria, pero con caractersticas estacionales, la serie debe
ser previamente desestacionalizada mediante una diferencia estacional, el valor de s
adecuado depende del ciclo estacional de la serie, para ello debe tenerse en cuenta la
frecuencia
de
la
serie
(mensual,
trimestral
u
otra),
es
decir,
s
zt Yt Yt s (1 L )Yt sYt .
Si la serie de tiempo Yt no es estacionaria y adems tiene caractersticas estacionales
debe estacionarizarse y desestacionalizarse previamente, es decir, zt s Yt , antes de
efectuar la identificacin del proceso que la representa.
d

En todos estos casos los correlogramas para la funcin de autocorrelacin simple y la


funcin de autocorrelacin parcial permiten identificar los valores para p, d, q y s. En la
siguiente seccin veremos algunas reglas para identificar la representacin del modelo
ARIMA.
El estadstico de prueba en estos casos es el estadstico Q de Ljung-Box, que prueba la
hipotesis de las autocorrelaciones simples significativamente diferentes de cero.

Rezagos
Hiptesis
Estadstico
de prueba
Decisin

H 0 : 1 0
H a : 1 0

H 0 : 1 2 0
H a : k 0

......
k
...... H 0 : 1 2 k 0
H a : k 0

r j2
yt yt j
k2 gl . Donde:
Q n(n 2)
rj
2
j 1 n j
yt

Si se acepta la hiptesis nula E[ yt yt j ] 0 , indicara no correlacin de la


serie entre el perodo t y el perodo t-j. En otros caso habr autocorrelacin
en la serie.
k

Algunos puntos crticos para procesos estacionarios son:


1. La funcin AC de un proceso ARMA(p,q) decae al rezago q.
2. El funcin PAC de un proceso ARMA(p,q) decae al rezago p.

24

Modelos ARIMA

Juan Pichihua Serna

PROPIEDADES DE LAS FUNCIONES AC Y PAC


Proceso
Ruido Blanco White-noise
ARIMA(0,0,0)
AR(1): 1 > 1

Funcin AC

Funcin PAC

Todos los s = 0

Todos los ss = 0

Decae exponencialmente (s=1s )

11 = ss = 0, s 2
Solo es significativo en el rezago 1.

Posiblemente los dos primeros rezagos sean


significativos.
ARIMA (1,0,0)
1>>0

AR(1): 1 < 1

Decae oscilando: s =1s


Posiblemente los dos primeros rezagos sean
significativos pero con un pico negativo.

11 = ss = 0, s 2
Solo es significativo en el rezago 1
en el lado negativo.

ARIMA (1,0,0)
1 < < 0

AR(p)
MA(1): >0

Decae a 0, puede oscilar


Quiebre positivo en el rezago 1,
s = 0 para s 0

Quiebre en el rezago p
Todos los ss = 0, s p
Decae oscilando: 11 <0

Solo es significativo en el rezago 1 en el lado


negativo.

Posiblemente los dos primeros


rezagos sean significativos pero con
un pico negativo

Quiebre negativo en el rezago 1,


s = 0 para s 0

Decae:

Solo es significativo en el rezago 1.

Posiblemente los dos primeros


rezagos sean significativos pero con
un pico positivo.

ARIMA (0,0,1)
1>>0

MA(1):

ARIMA (0,0,1) 1< < 0

ARMA(1,1)

Decae exponencialmente empezando en el


rezago 1, signo del signo(1 +

ARMA(p,q)

Decae oscilante o directamente empezando en


el rezago q
Decae lentamente empezando en el rezago 1.

Decae exponencialmente
empezando en el rezago 1.
Signo(ss) = signo (11)
Decae oscilante o directamente
empezando en el rezago p.
Solo es significativo en el rezago 1.

ARIMA(0,1,0)

25

Modelos ARIMA

2.6

Juan Pichihua Serna

ESTIMACIN

Consiste en utilizar el mtodo adecuado para estimar los parmetros de la


representacin ARMA(p,q).
En el caso de los modelos autorregresivos, AR(p), Yt c 1.Yt 1 ... p .Yt p t , es
suficiente utilizar el mtodo de mnimos cuadrados ordinarios, toda vez que los
regresores no estan correlacionados con el error, E[ yt j . t ] 0 j 0 , esto porque el
error tiene caractersticas de ruido blanco. Sin embargo, en los modelos AR(p) puede
existir problemas de multicolinealidad, pero esto no afecta las propiedades de los
estimadores de MCO, que siguen siendo MELI, de igual modo, si el patrn de la
colinealidad se mantiene, las propiedades ptimas de los pronsticos utilizando dichos
resultados se mantiene.
En el caso de los modelos MA(q), Yt c t 1 . t 1 ..... t q , y de los modelos
ARMA(p,q),
requieren ser
Yt c 1 .Yt 1 ... p .Yt p t 1 . t 1 ..... t q ,
estimados por el mtodo de Mxima Verosimilitud o cualquier alternativa de estimacin
no lineal, esto porque si bien los errores no estn correlacionados, son desconocidos, lo
que obliga a un proceso de estimacin hacia atrs de los mismos, backforecasting, que
transforma en no lineal al modelo.

2.7

CONTROL

Consiste en encontrar la mejor representacin ARIMA para la serie de tiempo, esto pasa
por verificar los resultados del modelo y en especial consiste en verificar si los residuos,
et , de la estimacin se comportan como ruido blanco.
En el proceso de construccin de un modelo ARIMA(p, d, q) se exige de manera muy
particular que las funciones de autocorrelacin simple (AC)y de autocorrelacin parcial
(PAC) para los residuos expresen un comportamiento de ruido blanco, por lo tanto, es
preciso verificar la significancia de las autocorrelaciones de los residuos y comparado
con aproximadamente el lmite de dos desviaciones estndar, es decir, 2/ n .
El estadstico Q de Ljung-Box es una medida objetiva para verificar si una serie de
tiempo (el residuo) se comporta como un ruido blanco, tal como se viera en la etapa de
identificacin.
2
k rj
yt yt j

2 . Donde:
rj
Q n(n 2)
k
gl
2
j 1 n j
yt

Las hiptesis son:


Ho: ACs no son significantivamente diferentes de un ruido blanco, es decir, AC = 0.
H1: ACs no son de un ruido blanco, es decir, AC 0.
Si se rechaza la hiptesis nula se tiene que volver a identificar el modelo.

26

Modelos ARIMA

Juan Pichihua Serna

a) Caractersticas de un buen modelo para pronstico


1 Ajuste bien para los datos del pasado
El ploteo de los valores actuales y ajustados son buenos.
El R2 ajustado es alto.
La suma de cuadrados de los residuos es la ms baja con respeto a otros
modelos.
2 Pronostica valores razonables para la informacin disponible.
3 Es parsimonioso, simple pero efectivo, no tiene demasiados coeficientes.
4 Los coeficientes estimados de y son estadsticamente significativos.
5 No deja patrones en las funciones AC y PAC.
6 Los residuos son ruido blanco.
b) Criterios para la Seleccin de un modelo ARIMA
Cul es el valor de p y de q ptimo?. Por lo general, se presenta un trade-off entre el
deseo de minimizar la suma de cuadrado de los residuos (ee) y el criterio de la
parsimonia (maximizar los grados de libertad).
El trade-off planteado es resuelto por los Criterios de Informacin de Akaike y de
Schwartz, AIC y SBC, respectivamente. En ambos casos lo ptimo es elegir el modelo
que presente valor ms pequeo (puede ser el ms negativo).

pq
n
pq
2
SBC log 2
log( n)
n
AIC log 2
2

Si bien ambos estadsticos miden el costo del trade-off entre ajuste y parsimonia, el
SBC puede ser preferido en algunos casos dado que tiene propiedades asintticas
deseables.

27

Modelos ARIMA

4.

Juan Pichihua Serna

PROBLEMAS COMUNES EN LA ESTIMACIN DE MODELOS


ARIMA

4.1 SOBREDIFERENCIACIN DE SERIES DE TIEMPO


Supongamos que se tiene un proceso de media movil para una serie integrada, digamos
2
2
un ARIMA (0, 2, 2): Yt (1 1 L 2 L ) t (1 1 L)(1 2 L) t . Si algn i 1 ,
implicara que hay una raz unitaria en la media movil. Por ejemplo si:
2
2
Yt (1 1.48L 0.49L ) t .
ARIMA(0,2,2)

Yt Yt 1 (1 0.5L)(1 0.98L) t
(1 L)Yt (1 0.5L)(1 0.98L) t
Dado que 2 0.98 1.00
(1 L)Yt (1 0.5L)(1 L) t
Yt (1 0.5L) t
ARIMA(0,1,1)
Por lo tanto, un modelo ARIMA(0,2,2) se puede reducir a un ARIMA(0,1,1), esto
indica que si se evidencia una raz unitaria en la media movil, puede indicar una
sobrediferenciacin de la serie Yt , si esto es as se debe reducir una diferencia y se debe
reducir una media movil.

4.2 SUBDIFERENCIACIN DE SERIES DE TIEMPO


Supongamos que se tiene un proceso autorregresivo para una serie integrada, digamos
un ARIMA (1, 0, 1): Yt Yt 1 t t 1 . Si 1 , implicara que hay una raz
unitaria en el proceso autorregresivo. Por ejemplo si:

Yt 0.95Yt 1 t 0.6 t 1 .

ARIMA(1,0,1)

Yt 0.95Yt 1 (1 0.95L)Yt (1 0.6L) t


Dado que 0.95 1.00
(1 L)Yt (1 0.6L) t

Yt (1 0.6L) t

ARIMA(0,1,1)

Por lo tanto, un modelo ARIMA(1,0,1) se puede reducir a un ARIMA(0,1,1), esto


indica que si se evidencia una raz unitaria en el proceso autorregresivo, que indica una
sub diferenciacin de la serie Yt , si esto es as se debe aumentar una diferencia y se
reducir un AR.

28

Modelos ARIMA

Juan Pichihua Serna

4.3 SOBREPARAMETRIZACIN
Si las races del proceso AR es parecida a las races del proceso MA se puede
simplificar las races y reducir el nmero de trminos AR y de trminos MA. Por
ejemplo, sea el ARMA(2,1):

Yt 1.2Yt 1 0.35Yt 1 t 0.7 t 1

(1 1.2L 0.35L )Yt (1 0.5L)(1 0.7 L)Yt (1 0.7 L) t


AR(1)
(1 0.5L)Yt t .
2

En este ejemplo un ARMA(2,1) se reduce a un AR(1) si eliminamos las races comunes.

5.

ESTACIONALIDAD EN MODELOS ARIMA

5.1 ESTACIONALIDAD EN LOS TRMINOS AR


Supongamos que una serie estacionaria tiene evidencias de un ciclo estacional
autorregresivo cada s-perodos. El tratamiento en un modelo ARIMA se inicia por la
separacin de cada efecto, de la siguiente manera:

Yt c t
p ( L) t t

(1)
(2)

s ( L) t vt

(3)

p
Donde: p ( L) 1 1 L p L ; s ( L) 1 s L ; y vt es ruido blanco.

Reemplazando (2) en (3)


p ( L) s ( L) t vt

(4)

De (1) se tiene: Yt c t , luego reemplazndolo en (4) se tiene:


p ( L) s ( L)[Yt c] vt

(5)

Por ejemplo, un proceso AR(1) con estacionalidad cada 12 meses sera:


Yt c t
t 1 t 1 t
t 12t 12 vt

(1)
(2)
(3)

Dara como resultado un modelo ARIMA(p, d, q) x (s, 1, 0) AR(p)+SAR(s) o


ARIMA(1,0,0)(12,1,0) que se puede expresar as:
12
(1 1 L)(1 12 L )[Yt c] vt
Lo que equivale a una ecuacin:
12
13
(1 1 L 12 L 112 L )[Yt c] vt

29

Modelos ARIMA

Juan Pichihua Serna

Por lo tanto, Evt 0 , las proyecciones de Yt se obtienen de:


c
Yt
1Yt 1 12Yt 12 112Yt 13
1 1 12 112

5.2 ESTACIONALIDAD EN LOS TRMINOS MA


El tratamiento de una serie estacionaria con evidencias de un ciclo estacional en los
trminos de media mvil cada s-perodos es el siguiente:
(1)
Yt c t
(2)
t q ( L) t

t s ( L)vt

(3)

q
Donde: q ( L) 1 1 L q L ; s ( L) 1 s L ; y vt es ruido blanco.

Reemplazando (3) en (2) y esto en (1) se tiene:


Yt c q ( L) s ( L)vt
Por ejemplo, un proceso MA(1) con estacionalidad cada 4 trimestres sera:
Yt c t
t t 1t 1
t vt 4 vt 4

(1)
(2)
(3)

Dara como resultado un modelo ARIMA(p, d, q) x (0, 1, s) MA(q)+SMA(s) o


ARIMA(1,0,0)(12,1,0) que se puede expresar as:
4
Yt c (1 1 L)(1 4 L )vt
Lo que equivale a una ecuacin:
4
5
Yt c (1 1 L 4 L 1 4 L )vt
Por lo tanto, dado que E[vt ] 0 , las proyecciones de Yt se obtienen de:
Y c v v v
1 t 1

5.3

4 t 4

1 4 t 5

ESTACIONALIDAD EN LOS TRMINOS AR Y MA

El tratamiento de una serie estacionaria con evidencias de un ciclo estacional en los


trminos autorregresivos y de media mvil cada s-perodos es el siguiente:
Estacionario: Yt c t
AR(p):
p ( L) t t
SAR(s):
MA(q)
SMA(s)

s ( L) t vt
vt q ( L) wt
wt s ( L)t

(1)
(2)
(3)
(4)
(5)

30

Modelos ARIMA

Juan Pichihua Serna

Donde: t es ruido blanco.


Reemplazando (2) en (3) y (5) en (4) e igualando ambos trminos se tiene:
p ( L) s ( L) t vt q ( L) s ( L)t

(6)

De (1) se tiene: Yt c t , luego reemplazndolo en (6) se tiene:


p ( L) s ( L)Yt c vt q ( L) s ( L)t
Por ejemplo, la presencia de estacionalidad SAR(S) y SMA(S) cada 4 trimestres en una
ARMA(1,1) ser:
(1)
Yt c t
(2)
t 1 t 1 t
(3)
t 4 t 4 vt
(4)
vt wt 1wt 1
(5)
wt t 4t 4
Reemplazando (2) en (3) y (5) en (4) e igualando ambos trminos se tiene:
4
4
(1 1 L)(1 4 L ) t vt (1 1 L)(1 4 L )t

(6)

De (1) se tiene: Yt c t , luego reemplazndolo en (6) se tiene:

(1 1 L)(1 4 L )[Yt c] (1 1 L)(1 4 L )t


4

Lo que equivale a una ecuacin:


4
5
4
5
(1 1 L 4 L 1 4 L )[Yt c] (1 1 L 4 L 1 4 L )t
Por lo tanto, dado que, E[t ] 0 , las proyecciones de Yt se obtienen de:
Y c* Y Y Y
1 t 1

4 t 4

1 4 t 5

1 t 1

4 t 4

1 4 t 5

Donde:
c
*

c
1 1 4 1 4

6. REGLAS PARA LA IDENTIFICACIN DE MODELOS ARIMA


La primera y ms importante etapa de la eleccin de un modelo ARIMA es la
determinacin del orden de la diferencia necesaria para estacionarizar las series.
Normalmente la cantidad de diferencias adecuada es la que produce una serie de tiempo
que flucta alrededor de su valor promedio y cuya funcin de autocorrelacin (AC) se
va rpidamente a cero. Las reglas para identificar el orden d de diferenciacin a una
serie son:
Regla 1: Si la serie tiene autocorrelaciones positivas luego de un gran nmero de
rezagos, probablemente necesita de un orden mayor de diferenciacin.

31

Modelos ARIMA

Juan Pichihua Serna

Si la serie todava exhibe una tendencia de largo plazo o muestra una tendencia para
retornar a media, o si sus autocorrelaciones son todas positivas despus de un gran
nmero de rezagos, digamos 10 o ms, entonces, ser necesario diferencias de mayor
orden.
Las diferencias tienden a introducir correlaciones negativas. Si una serie inicialmente
muestra fuertes autocorrelaciones positivas, entonces una diferencia reducir la
autocorrelacin y quiz conduzca a que la primera autocorrelacin de la serie
diferenciada sea de valor negativo. Si se aplica una segunda diferencia, la cual es
raramente necesaria, la autocorrelacin de primer orden seguir la direccin contraria a
la autocorrelacin observada antes de la diferenciacin.
Regla 2: Si la primera autocorrelacin es cero o negativa, la serie no necesita una
diferencia de mayor orden. Si la primera autocorrelacin es negativa con tendencia a
acercarse a 1, la serie puede haber sido sobre diferenciada.
Si la primera autocorrelacin es muy negativa, digamos 0.5 o ms negativa con
tendencia a 1, significa que la serie est sobre diferenciada. Si la serie no ha sido
diferenciada entonces no ser necesario hacerle ninguna diferenciacin.
Regla 3: El orden ptimo de diferenciacin de una serie es aquel orden de
diferenciacin que reduce al mnimo la desviacin estndar de la serie.
Una serie sobre diferenciada, a simple vista, puede parecer completamente aleatoria,
pero si muestra demasiados cambios de signo de una observacin a otra, su varianza
crecer en vez de reducirse. En cambio una serie sub diferenciada puede corregirse
agregando trminos AR al modelo.
Regla 4: Un modelo sin diferenciacin supone que la serie original es estacionaria. Un
modelo con un diferencia supone que la serie original tiene una tendencia promedio
constante (es decir, es un random walk). Un modelo con dos diferencias supone que la
serie original tiene una tendencia que vara en el tiempo.
Otra consideracin que se debe tomar para determinar el orden de la diferencia de la
serie es el rol que juega la constante en el modelo, si esta fuera incluida. La constante
representa la media de una serie estacionaria, no diferenciada, I(0), integrada de orden
cero; pero, representa la tendencia promedio de la serie si se usara una primera
deferencia, es decir si la serie fuera integrada de orden 1 o I(1), asimismo, representa la
curvatura si la serie fuera doblemente diferenciada o integrada de orden 2, I(2).
Regla 5: Un modelo sin diferencias normalmente incluye un trmino constante, el cual
representa la media de la serie. Un modelo con un total de dos diferencias normalmente
no incluye un trmino constante.
Una vez que una serie ha sido estacionarizada por diferenciacin, la siguiente etapa es
identificar el proceso estocstico que mejor la representa en trminos autorregresivos,
AR, y de media movil, MA.
Para identificar los trminos AR y MA de la serie se utiliza su funcin de
autocorrelacin simple (AC) y la funcin de autocorrelacin parcial (PAC). La funcin

32

Modelos ARIMA

Juan Pichihua Serna

AC mide el coeficiente de correlacin simple entre una serie de tiempo y los rezagos de
si misma. La funcin PAC mide el coeficiente de correlacin parcial entre la serie de
tiempo y sus rezagos, esto es, luego de separar el impacto de los otros rezagos.
La autocorrelacin parcial de un rezago de k periodos es igual al valor del coeficiente
estimado para el AR(p) en un modelo con k trminos rezagados, es decir, t-1, t-2, ..., t-p.
De modo que si la autocorrelacin parcial es significativa al rezago p y no significativa
para rezagos mayores, estaremos frente a un modelo autorregresivo de orden p.
Regla 6: Si la PAC de una serie diferenciada muestra un rpido corte y/o la primera
autocorrelacin (simple) es positiva, esto es, si aparentemente la serie est sub
diferenciada, entonces agrege un trmino AR en el modelo. El rezago en el cual el
trmino PAC deja de ser significativo indica el nmero de trminos AR.
Algunas veces no es tan simple determinar la cantidad de trminos de la
autocorrelacin, algunas veces puede ser ms eficiente aadir trminos MA. En este
caso la funcin AC cumple el mismo rol para determinar el nmero de trminos MA,
como el PAC para determinar el nmero de trminos AR.
La funcin de autocorrelacin AC nos dice cuntos trminos MA probablemente sean
necesarios para eliminar los rasgos de autocorrelacin de una serie diferenciada. Si la
AC es significativa hasta el rezago q, pero no significativa para rezagos mayores que q,
entonces la AC indica que debemos agregar exactamente q trminos MA al modelo.
Una estructura MA comunmente est asociada a autocorrelaciones negativas en el
primer rezago y tiende a elevarse (acercarse a 1) frente a series ligeramente sobre
diferenciadas.
Regla 7: Si la AC de la serie diferenciada muestra un rpido corte y si al primer rezago
la autocorrelacin es negativa, que sugiere sobre diferenciacin de la serie que
puede ser corregida agregando trminos MA en el modelo. El rezago en el cual la AC
deja de ser significativa, indica el nmero de trmino MA.
Si el coeficiente de la media movil es igual a cero, 0 , el modelo se reduce a un
modelo tipo random walk. Si el coeficiente de MA(1) es mayor que cero, equivale a
cancelar solo parcialmente un orden de diferenciacin. Si la serie est sobre
diferenciada, esto es, si se ha producido una autocorrelacin negativa, se debe cancelar
una diferencia y un MA en la serie.
En la mayora de casos el mejor modelo utiliza nicamente trminos AR o nicamente
trminos MA, aunque en algunos casos un modelo mixto (con trminos AR y MA)
pueden proveer un mejor ajuste para los datos. Sin embargo, se debe tener mucho
cuidado al elegir un modelo mixto, pues, es posible que los trminos AR y MA pueden
anular sus efectos mutuamente, aun cuando en el modelo ambos trminos aparezcan
estadsticamente significativos (en trminos de sus estadsticos t-student).
Regla 8: Si se observa que la estimacin de parmetros requiere ms de 10 iteraciones
para converger, aunque hayan pocos trminos AR y MA, es posible que se est en el
camino incorrecto de especificar un modelo ARMA para representar a los datos.

33

Modelos ARIMA

Juan Pichihua Serna

Por esta razn en los modelos ARIMA es mejor ir agregando progresivamente trminos
AR o trminos MA hasta encontrar la especificacin adecuada, estimando y controlando
la funcin de autocorrelacin simple y parcial, AC y PAC, de los residuos, hasta que
estos se comporten como un ruido blanco.
Si una serie esta groseramente sub diferenciada a menudo tendr races unitarias en
los coeficientes AR y si est groseramente sobre diferenciada tendr races unitarias
en los coeficientes MA en el modelo estimado.
Se dice que un AR(1) tiene raz unitaria si el coeficiente AR(1) estimado no es
significativamente diferente de uno, cuando esto sucede significa que el trmino AR(1)
imita a una primera diferencia. En este caso se debe remover el AR(1) y agregar una
diferencia a la serie. En un modelo con un orden alto de AR, una raz unitaria existe en
la parte AR del modelo si la suma de los coeficientes es aproximadamente igual a uno
(estadsticamente significativo no diferente de uno). En este caso se debe reducir en uno
el orden del trmino AR y agregar simultneamente en uno el orden de la diferencia a la
serie. Una serie de tiempo con una raz unitaria en el coeficiente AR es no estacionario,
requiere ser corregida agregando una diferenciacin a la serie.
Regla 9: Si se evidencia una raz unitaria en la parte AR del modelo, es decir si la suma
de los coeficientes AR es casi igual a uno, se debe reducir el nmero de trminos AR y
simultneamente incrementar el orden de la diferencia en uno.
De igual modo, un modelo MA(1) se dice que tiene una raz unitaria si el coeficiente
MA(1) estimado es igual a 1. Cuando esto pasa, significa que se puede eliminar el
trmino MA(1) reduciendo (eliminando) una diferencia a la serie. En general, en
modelos con trminos MA de alto orden, existe raz unitaria si la suma de los
coeficientes MA son aproximadamente igual a uno.
Regla 10: Si hay una raz unitaria en la parte MA de un modelo, es decir, si la suma de
los coeficientes MA es casi exactamente igual a uno, se debe reducir el nmero de
trminos MA y reducir en uno el orden de la diferenciacin de la serie.
Por ejemplo, si en un ARIMA (1,1,2), se puede verificar que la suma de los coeficientes
de los dos trminos MA suman un valor cercano a uno. Si se reduce el orden del MA y
de la diferencia en uno, teniendo que estimarse solamente un modelo ARIMA (1,0,1).
En este caso la ecuacin de prediccin de un modelo MA con raz unitaria no es
invertible, lo que significa que los residuos del modelo no pueden ser considerados
como ruido blanco (aleatorio).
Otro sntoma de una raz unitaria es que las predicciones del modelo pueden explotar
blow up o comportarse de manera impredecible. Si se plotea una prediccin de largo
plazo para el modelo aparecen de manera extraa, se debera chequear si los
coeficientes estimados evidencian la presencia de raz unitaria.
Regla 11: Si la prediccin de largo plazo se comporta de manera errtica o inestable,
puede haber estar presentando raz unitaria en los coeficientes AR o MA.

34

Modelos ARIMA

7.

Juan Pichihua Serna

APLICACIONES DE LOS MODELOS ARIMA

El propsito es desarrollar la metodologa planteada por Box & Jenkins para el anlisis
de series de tiempo estacionarias, esto es, identificacin del proceso estocstico capaz
de generar los datos observados, estimar los parmetros de la representacin ARIMA
identificada, el diagnstico de los residuos, y el pronstico utilizando el modelo
ARIMA elegido.
Supongamos datos tericos del nmero de pasajes areos domsticos vendidos
mensualmente por una lnea area cualquiera entre enero de 1988 y Diciembre de 1999.
y

Jan

Feb

Mar

Apr

May

Jun

Jul

Aug

Sep

Oct

Nov

Dec

Promed

1988

112.0

118.0

132.0

129.0

121.0

135.0

148.0

148.0

136.0

119.0

104.0

118.0

126.7

1989

115.0

126.0

141.0

135.0

125.0

149.0

170.0

170.0

158.0

133.0

114.0

140.0

139.7

1990

145.0

150.0

178.0

163.0

172.0

178.0

199.0

199.0

184.0

162.0

146.0

166.0

170.2

1991

171.0

180.0

193.0

181.0

183.0

218.0

230.0

242.0

209.0

191.0

172.0

194.0

197.0

1992

196.0

196.0

236.0

235.0

229.0

243.0

264.0

272.0

237.0

211.0

180.0

201.0

225.0

1993

204.0

188.0

235.0

227.0

234.0

264.0

302.0

293.0

259.0

229.0

203.0

229.0

238.9

1994

242.0

233.0

267.0

269.0

270.0

315.0

364.0

347.0

312.0

274.0

237.0

278.0

284.0

1995

284.0

277.0

317.0

313.0

318.0

374.0

413.0

405.0

355.0

306.0

271.0

306.0

328.2

1996

315.0

301.0

356.0

348.0

355.0

422.0

465.0

467.0

404.0

347.0

305.0

336.0

368.4

1997

340.0

318.0

362.0

348.0

363.0

435.0

491.0

505.0

404.0

359.0

310.0

337.0

381.0

1998

360.0

342.0

406.0

396.0

420.0

472.0

548.0

559.0

463.0

407.0

362.0

405.0

428.3

1999

417.0

391.0

419.0

461.0

472.0

535.0

622.0

606.0

508.0

461.0

390.0

432.0

476.2

700

6.5

600
6.0

500
400

5.5
300
200

5.0

100
0

4.5
88 89 90 91 92 93 94 95 96 97 98 99
Y

88 89 90 91 92 93 94 95 96 97 98 99
LOG(Y)

Se puede observar en el grfico de la izquierda que la serie y presenta tres


caractersticas notorias: 1) evidencia estacionalidad cada doce meses (los datos son
mensuales), 2) mantiene una tendencia creciente ao a ao, y 3) la dispersin de la serie
aumenta ao a ao (varianza creciente). El grfico de la serie en logartmos, log(y),
muestra que este procedimiento reduce drsticamente la heterocedasticidad. Para
eliminar la tendencia se debe diferenciar la serie, dlog(y), y para corregir la
estacionalidad se debe hallar la primera diferencia estacional con respecto a t-12, esto
es, dlog(y,1,12).
En sntesis:
1 Para reducir la heterocedasticidad en una serie se debe trabajar en logaritmos y no
en niveles: log(y) vs y.
2 Para quitar una tendencia lineal se debe trabajar con la primera diferencia de la
serie, si la serie tiene tendencia exponencial ser necesario una segunda o una
diferencia
mayor
para
transformarla
en
estacionaria:
log yt log( yt ) log( yt 1 ) d log( y)
35

Modelos ARIMA

Juan Pichihua Serna

3 Para quitar la estacionalidad se debe trabajar con la primera diferencia estacional


(s=12):
1
12 log( yt ) d log( yt ) d log( yt 12 ) d log( yt / yt 12 ) d log( y,1,12)
Como se puede observar en el ltimo grfico, la serie desestacionalizada, dlog(y,1,12),
es notoriamente estacionaria alrededor de cero. Ntese tambin que la desviacin
estndar se reduce con respecto a la serie no desestacionalizada, dlog(y).
0.3

0.15

0.2

0.10

0.1

0.05

0.0

0.00

-0.1

-0.05

-0.2

-0.10

-0.3
88 89 90 91 92 93 94 95 96 97 98 99
DLOG(Y)

-0.15
88 89 90 91 92 93 94 95 96 97 98 99
DLOG(Y,1,12)

Identificacin
La tendencia (no estacionariedad, o identificacin del orden de integracin d) y la
estacionalidad de la serie (la frecuencia de repeticin estacional s) tambin pudo ser
detectado mediante el correlograma de la serie en logaritmos, log(y), pero, como vimos,
el anlisis grfico puede ser suficiente en estos casos. En cambio, la identificacin del
proceso ARMA(p,q) requiere necesariamente analizar los correlogramas (funciones de
Autocorrelacin-AC y de autocorrelacin parcial-PAC) de la serie estacionaria y
desestacionalizada, es decir, dlog(y,1,12).

36

Modelos ARIMA

Juan Pichihua Serna

Note que la funcin de autocorrelacin AC tiene picos en los rezagos 1 y 12, y la


funcin de autocorrelacin parcial PAC es significativo en los rezagos 1 y 12, esto
podra evidenciar dos posibles casos: 1) un componente MA(1) y un componente
estacional SMA(12), es decir, un ARIMA(0,1,1)x(0,1,12) de la serie log(y); o un
componente A(1) y un componente estacional SAR(12), es decir, un
ARIMA(1,1,0)x(12,1,0) de la serie log(y). En ambos casos la serie log(y) requiere una
diferencia para quitar la tendencia y una diferencia estacional con s=12.
Estimacin:
Para el caso del ARIMA (0,1,1)x(0,1,12) de la serie log(y) sera:
Dependent Variable: DLOG(Y,1,12)
Method: Least Squares
Sample(adjusted): 1989:02 1999:12
Convergence achieved after 6 iterations
Backcast: 1988:01 1989:01
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
MA(1)
SMA(12)

-0.000215
-0.376502
-0.624213

0.000909
0.080696
0.070534

-0.236397
-4.665673
-8.849842

0.8135
0.0000
0.0000

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Inverted MA Roots

0.364299
0.354366
0.036840
0.173717
248.0909
1.960799
.96
.48+.83i
-.48+.83i
-.96

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
.83+.48i
.38
-.48 -.83i

.83 -.48i
.00+.96i
-.83 -.48i

0.000291
0.045848
-3.741845
-3.676001
36.67621
0.000000
.48 -.83i
-.00 -.96i
-.83+.48i

Para el caso del ARIMA(1,1,0)x(12,1,0) de la serie log(y) sera:


Dependent Variable: DLOG(Y,1,12)
Method: Least Squares
Sample(adjusted): 1990:03 1999:12
Convergence achieved after 5 iterations
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
AR(1)
SAR(12)

-0.000401
-0.413850
-0.453451

0.001723
0.084830
0.082965

-0.232628
-4.878581
-5.465540

0.8165
0.0000
0.0000

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Inverted AR Roots

0.320812
0.309000
0.038411
0.169672
218.6951
2.029454
.90 -.24i
.24 -.90i
-.41
-.90 -.24i

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
.90+.24i
.24+.90i
-.66+.66i

.66 -.66i
-.24 -.90i
-.66+.66i

-0.000931
0.046208
-3.655850
-3.585409
27.15987
0.000000
.66 -.66i
-.24+.90i
-.90+.24i

37

Modelos ARIMA

Juan Pichihua Serna

Sobre la base del Criterio de Informacin de Akaike (AIC) el menor valor (ms
negativo) se obtiene en el modelo con trminos MA(1) y SMA(12), adems ambos son
estadsticamente significativos. Esto significa que el modelo elegido tiene la siguiente
representacin:
(1 L)(1 L12 ) log( yt ) c (1 L)(1 12 L12 )et

12 log( yt ) 0.0002 (1 0.376L)(1 0.624L )et


1

12

El lector puede verificar que si se estimara el modelo: log(y) contra AR(1) , SAR(12),
12
12
MA(1) y SMA(12), es decir, (1 L)(1 12 L ) log( yt ) c (1 L)(1 12 L ) t , habra
una raz unitaria que hace que los resultados no sean mejores que el modelo elegido.

Control
Para comprobar si esta es la representacin correcta se debe chequear si los residuos se
comportan como ruido blanco.

Efectivamente, el correlograma de los residuos, tanto para la funcin AC como para el


2
PAC, todos se ubican dentro del intervalo de confianza
, lo cual indica que los
n
residuos se comportan como ruido blanco.

38

Modelos ARIMA

Juan Pichihua Serna

1. Pronstico.
Si consideramos que el modelo estimado arriba es el correcto, se proceder ha realizar
el pronstico de las ventas de pasajes de avin para el perodo 2000:01 2000:12.
800

700

600

500

400

300
00:01

00:03

00:05

00:07

YF

00:09

00:11

2 S.E.

Finalmente, podemos graficar los datos los datos pronosticados (YF) para el perodo
2000:01 al 2000:12 conjuntamente con los valores observados hasta el perodo 1999:12.
700
600
500
400
300
200
100
0
88 89 90 91 92 93 94 95 96 97 98 99 00
YF

Los resultados nos dicen que la tendencia creciente y la estacionalidad se mantendrn.,


tal como se puede observar en el siguiente cuadro.
y
1999
2000

Jan
417.0

Feb
391.0

Mar
419.0

Apr
461.0

May
472.0

Jun
535.0

Jul
622.0

Aug
606.0

Sep
508.0

Oct
461.0

Nov
390.0

Dec Promed
432.0 476.2

449,4

425,7

481,4

489,6

504,6

578,7

661,2

658,3

552,5

490,1

424,3

471,2

515,6

39

Modelos ARIMA

Juan Pichihua Serna

BIBLIOGRAFIA

Box, G.E.P. & G.M. Jenkins. 1970. Time series analysis: Forecasting and control,
Holden-Day. San Francisco.
Judge, G.G., W.E. Griffiths, R.C. Hill, H. Ltkepohl, and T.C. Lee, (1988). Introduction
to the Theory and Practice of Econometric s, 2nd edition, John Wiley and
Sons, New York.
Makridakis, S., S.C. Wheelwright, & R.J. Hyndman. 1998. Forecasting: methods and
applications, John Wiley & Sons. New York.
Nazem, Sufi M. 1988. Applied Time Series Analysis for Business and Economic
Forecasting. University of Nebraska al Omaha, Marcel Dekker Inc., New
York.
Nelson, C. R.; Applied Time Series Analysis for Managerial Forecasting. Holden-Day,
Boca-Raton, Florida, 1973.
Novales, Alfonso. 1996. Econometra, Segunda edicin. McGraw-Hill/Interamericana,
Madrid.
Pankratz, A. (1983) Forecasting with univariate BoxJenkins models: Concepts and
Cases, 2nd ed. John Wiley & Sons. New York.
Pollock, D.S.G. 2000. The Methods of Time-Series Analysis. Queen Mary and
Westfield College, The University of London.
Pindyck, Robert S., and Daniel L. Rubinfeld, (1998) Econometra Modelos y
Pronsticos, Cuarta edicin, Irwin McGraw-Hill, Boston,.
Slutsky, E. (1937), The Summation of Random Causes as the Source of Cyclical
Processes. Econometrica, Vol. 5, pags. 105 -146.
Yule, G. U. (1927), On a Method of Investigating Periodicities in Disturbed Series
with Special Reference to Wolfer's Sunspot Numbers. Philosophical
Transactions of the Royal Society, 89, pags. 1-64

40

You might also like