You are on page 1of 62

205

Captulo 8. Introduccin al anlisis de series temporales.

8.1.- Caso 5: Anlisis de algunas series temporales por la metodologa Box-Jenkins.

Una serie temporal puede definirse como una sucesin ordenada en el tiempo de valores
de una variable. Aunque el tiempo es en realidad una variable continua, en la prctica, y
al menos por lo que se refiere a este libro, utilizaremos las mediciones discretas
correspondientes a periodos aproximadamente equidistantes en el tiempo.

Representaremos grficamente la serie temporal del PIB de Gran Bretaa (un nmero
ndice con base 1913=100) en el periodo comprendido entre 1870 y 1987 (puede
encontrarse en el fichero de SPSS, CASO5A.SAV):

500

400

300

200

PIB

100

0
1870
1882 1894 1906
1918 1930 1942
1954 1966 1978
1876 1888 1900
1912 1924 1936
1948 1960 1972
1984

En este caso los valores del PIB se observaron anualmente.

207
Finalmente, el fichero CASO5D.SAV contiene cinco series mensuales (Enero de 1979
Diciembre de 1993): ingresos por turismo y viajes (TE) en billones de pesetas
constantes de 1985; nmero de turistas (NT) en miles de personas; ndice de precios
relativos respecto a los pases competidores (PRM) 1985=100; ndice de precios
relativos respecto a los pases clientes (PRC) 1985=100; ndice de renta de pases
clientes (INC) 1985=100. Los pases considerados como competidores fueron Egipto,
Francia, Grecia, Italia, Marruecos, Portugal, Tnez y Turqua, mientras que los pases
clientes fueron Alemania, Francia, Holanda, Italia, Portugal, Reino Unido, Suecia y
USA. El ndice de renta fue construido a partir de las series desestacionalizadas de los
ndices de produccin industrial (IPI) de Alemania, Francia, Holanda, Italia, Reino
Unido, Suecia y USA. Detalles adicionales pueden encontrarse en Gonzlez y Moral
(1995).

Ingresos por turismo y viajes


300000

Billones de pesetas

200000

100000

0
JAN 1979
JAN 1983
JAN 1987
JAN 1991
JAN 1981
JAN 1985
JAN 1989
JAN 1993

207
Finalmente, el fichero CASO5D.SAV contiene cinco series mensuales (Enero de 1979
Diciembre de 1993): ingresos por turismo y viajes (TE) en billones de pesetas
constantes de 1985; nmero de turistas (NT) en miles de personas; ndice de precios
relativos respecto a los pases competidores (PRM) 1985=100; ndice de precios
relativos respecto a los pases clientes (PRC) 1985=100; ndice de renta de pases
clientes (INC) 1985=100. Los pases considerados como competidores fueron Egipto,
Francia, Grecia, Italia, Marruecos, Portugal, Tnez y Turqua, mientras que los pases
clientes fueron Alemania, Francia, Holanda, Italia, Portugal, Reino Unido, Suecia y
USA. El ndice de renta fue construido a partir de las series desestacionalizadas de los
ndices de produccin industrial (IPI) de Alemania, Francia, Holanda, Italia, Reino
Unido, Suecia y USA. Detalles adicionales pueden encontrarse en Gonzlez y Moral
(1995).

Ingresos por turismo y viajes


300000

Billones de pesetas

200000

100000

0
JAN 1979
JAN 1983
JAN 1987
JAN 1991
JAN 1981
JAN 1985
JAN 1989
JAN 1993

208

Nmero de turistas
7000
6000
5000

Miles de personas

4000
3000
2000
1000
0
JAN 1979 JAN 1981 JAN 1983 JAN 1985 JAN 1987 JAN 1989 JAN 1991 JAN 1993

ndice de Precios relativos respecto a pases clientes


140
130

120
110

1985=100

100

90
80
JAN 1979 JAN 1981 JAN 1983 JAN 1985 JAN 1987 JAN 1989 JAN 1991 JAN 1993

209
ndice de Precios relativos respecto a los pases competidores
130

120

1985=100

110

100

90
JAN 1979 JAN 1981 JAN 1983 JAN 1985 JAN 1987 JAN 1989 JAN 1991 JAN 1993

ndice de Renta
180
170
160
150

1985=100

140
130
120
110
JAN 1979 JAN 1981 JAN 1983 JAN 1985 JAN 1987 JAN 1989 JAN 1991 JAN 1993
F,D,I,N,S,UK,USA

En este captulo intentamos describir algunos de los mtodos estadsticos utilizados para
analizar una serie temporal sin tener en cuenta otras variables que puedan influir en la
misma, mtodos denominados univariantes. En particular nos interesa la aproximacin
estocstica (frente a la determinista) es decir aqulla que supone que la serie temporal
tiene un carcter probabilstico, por cuanto ha sido generada por alguna variable
aleatoria con una distribucin de probabilidad determinada aunque habitualmente
desconocida (el lector interesado en otros mtodos y otras aproximaciones puede
recurrir a Otero (1993) y Murillo (1994) entre otros).

210
8.2.- Conceptos preliminares: procesos estocsticos y requisitos para la inferencia.

Bajo la aproximacin estocstica una serie temporal, xt, se define como una realizacin
muestral de un proceso estocstico. Un proceso estocstico, {Xt}, t=1,2,...; es un
conjunto de variables aleatorias, v.a., Xt, ordenadas segn un parmetro temporal t.
Consideremos por ejemplo la variable aleatoria nacimientos en tres hospitales de
Barcelona:

Nmero

100

50

25

Lunes

Hospital del Mar,

Martes

Mircoles

Hospital Clnico y

Jueves

Viernes

Hospital de la Vall dHebr

v.a.

Hemos representado el proceso estocstico {nacimientos en tres hospitales de


Barcelona} para t=Lunes, Martes, Mircoles, Jueves, Viernes.

211
Definimos la serie temporal nacimientos en el hospital de la Vall dHebr de
Barcelona como una realizacin muestral de este proceso estocstico, por ejemplo,

Nmero
100

50

25

Lunes

Martes

Mircoles

Jueves

Viernes

Hemos representado con una lnea continua la serie temporal mencionada antes. Ntese
que hemos supuesto que las tres series corresponden al mismo proceso estocstico. En
el caso ms habitual, sin embargo, slo observaremos una nica serie temporal para
cada proceso estocstico.

El objetivo del anlisis de series temporales es el de realizar inferencias sobre el proceso


estocstico desconocido a partir de la serie temporal observada. El problema es que
prcticamente todas las variables aleatorias, cuando se ordenan segn un parmetro
temporal, pueden ser consideradas un proceso estocstico y que, por otra parte,
nicamente disponemos de una realizacin muestral del proceso (una nica serie
temporal). Por este motivo debemos imponer una serie de condiciones o requisitos que
permitan realizar las inferencias de inters.

212
Linealidad

Entre todos los procesos estocsticos nos interesan aqullos lineales o gaussianos (o
normales). La distribucin normal es la nica distribucin de probabilidad que permite
la caracterizacin del proceso mediante el conocimiento de slo dos de sus momentos,
la media, t=E(Xt) y la varianza, 0t=Var(Xt). Debido a esto nicamente nos
preocuparemos de las inferencias sobre estos dos momentos.

Ntese que aunque lo hemos reducido bastante, el problema persiste, por cuanto el
proceso podra tener infinitas medias y/o varianzas haciendo impracticable la inferencia.

Estacionariedad

Un proceso estocstico es estacionario en sentido estricto, o fuertemente estacionario,


si las variables aleatorias que lo componen poseen la misma funcin de distribucin de
probabilidad, con independencia del momento del tiempo considerado y del nmero de
variables aleatorias constitutivas del proceso. Se trata de una restriccin demasiado
fuerte por cuanto implica que las caractersticas del proceso estocstico no sufren
alteracin al considerar momentos del tiempo diferentes.

Por este motivo se define un proceso estacionario en sentido amplio, o dbilmente


estacionario, y a partir de ahora estacionario, como aquel con una media y una varianza
constantes en el tiempo y con covarianzas (t,t-k=Cov(Xt,Xt-k)) que slo dependen del
lapso temporal considerado (k) pero no del tiempo (t).

t = <

0t = 0 <

t , t k = k <

En procesos estocsticos lineales la estacionariedad en sentido amplio implica la


estacionariedad en sentido estricto.

La mayora de los procesos no son estacionarios, pero, como veremos, se puede


eliminar la tendencia y estabilizar la varianza para transformarlos en estacionarios.

213
Ergodicidad

El problema se ha reducido al de realizar inferencias nicamente sobre la media, la


varianza y las covarianzas del proceso estocstico, parmetros invariantes en el tiempo,
utilizando para ello la informacin suministrada por la serie temporal. Pero puesto que
nicamente disponemos de una serie para cada proceso, deberamos poder garantizar la
idoneidad de los estimadores de los momentos; precisamente la ergodicidad lo permite.
Segn esta propiedad los momentos muestrales son estimadores consistentes de los
momentos poblacionales.

As la media del proceso puede ser estimada utilizando la media de la serie temporal, es
decir:
T

t = 1,2,..., T

t =1

la varianza se puede estimar a travs de la varianza de la serie:


T

(x )

0 =

t = 1,2,..., T

t =1

y las covarianzas (denominadas autocovarianzas, por cuanto se refieren a covarianzas


de la misma variable):
T

(x )(x

t k

k =

)
t = 1,2,..., T

t =1

As, la autocovarianza de primer orden se puede expresar:


T

(x )(x

t 1

1 =

t =1

)
t = 1,2,..., T

214
la de orden dos:
T

(x )(x

t 2

2 =

)
t = 1,2,..., T

t =1

y ntese que la de orden cero no es ms que la varianza:


T

0 =

(xt )(xt 0 ) (xt )2


=

t =1

t =1

t = 1,2,..., T

Definiremos, por ltimo, los denominados coeficientes de autocorrelacin:


Cov ( Xt , Xt k )

k =

Var ( Xt ) Var ( Xt k )

t , t k
0t 0 t k

Y cuando se trata de procesos estacionarios:

k =

Cov ( Xt , Xt k )
Var ( Xt ) Var ( Xt )

= 0

que pueden ser estimados utilizando los coeficientes de autocorrelacin muestral:


T

(x )(x

t k

k =

)
t = 1,2,.., T

t =1

(x )
t

1 k 1

t =1

El coeficiente de autocorrelacin de primer orden, por ejemplo, puede escribirse:


T

(x )(x

t 1

1 =

(x )
t

)
t = 1,2,.., T

t =1

t =1

y as para el resto, mientras que el de orden cero es siempre igual a 1, 0=0/0=1.

215
La representacin grfica de los coeficientes de autocorrelacin se denomina Funcin
de Autocorrelacin Simple (FAS), o ACF en sus siglas en ingls, y constituye un
instrumento de anlisis de series temporales de gran inters prctico. Por ejemplo,

k:
0
1
2
3
4
5
6
7
8
9
10
k 1,000 0,751 0,318 -0,046 -0,302 -0,457 -0,525 -0,449 -0,288 -0,044 0,294

1,0
,8
,6
,4
,2
,0
-,2
-,4

ACF

-,6
-,8
-1,0
1

10

Lag Number

8.3.- Procesos elementales: ruido blanco y camino aleatorio.

Proceso ruido blanco o puramente aleatorio

El proceso ruido blanco puede ser expresado como:


Xt = a + t

siendo a una constante y t una variable aleatoria idntica e independientemente


distribuida (es decir Cov(t,t-k) = 0 y Cov(t-k,Xt-k) = 0, k) segn una distribucin
normal con media nula, t iid N(0,2), donde 2 es una constante.

216
La representacin grfica de un ruido blanco es la de una variable que oscila
aleatoriamente en torno a su media a con varianza constante.

8
7
6
5

Ruido blanco

4
3
2
1

El trmino de perturbacin aleatoria de un modelo de regresin lineal, por ejemplo,


debera ser un ruido blanco si el modelo cumpliese todas las hiptesis bsicas (vase
Captulo 2).

El proceso ruido blanco es puramente estacionario por cuanto sus momentos no varan
con el tiempo. As:

Media

= E ( Xt ) = E (a + t ) = a + E (t ) = a

constante

Varianza

0 = Var ( Xt ) = E ( Xt E ( Xt )) 2 = E (a + t a) 2 = E (t ) 2 =
puesto que 2 = Var(t) = E(t E(t))2 = E(t)2 = E(t2).

constante

217
Autocovarianzas

k = Cov( Xt , Xt k ) = E [( Xt E ( Xt ))( Xt k E ( Xt k ))] = E (tt k ) = 0

Por lo que todos los coeficientes de autocorrelacin son iguales a cero (excepto el de
orden 0), k=0 k>0. Por tanto, la funcin de autocorrelacin simple, FAS, es blanca:

1,0

,5

0,0

ACF

-,5

-1,0
1

10

Lag Number
Hemos dibujado las bandas de confianza de los coeficientes de autocorrelacin, las
cuales comentaremos ms adelante.

Proceso camino aleatorio

Con deriva
Xt = a + Xt 1 + t

Sin deriva
Xt = Xt 1 + t

siendo a una constante y tiid N(0,2), donde 2 es una constante.

218
Se trata de un proceso (puramente) no estacionario, con una representacin grfica que
presenta una media y/o varianza que varan en el tiempo. Por ejemplo:

180
170
160
150

Camino aleatorio

140
130
120
110

Los momentos del proceso camino aleatorio no son constantes en el tiempo:

Media

= E ( Xt ) = E (a + Xt 1 + t ) = a + E ( Xt 1) = a + E (a + Xt 2 + t 1) = 2a + E ( Xt 2) = ... = Ta
la cual depende de T.

Varianza

Suponiendo que el proceso no tiene deriva para facilitar los clculos:

0 = Var ( Xt ) = E ( Xt E ( Xt )) 2 = E ( Xt 1 + t E ( Xt 1)) 2 = t k + k
que tambin depende de T.

219
Las autocovarianzas tambin varan en el tiempo, implicando coeficientes de
autocorrelacin prximos a la unidad y con un decrecimiento muy lento conforme
aumenta el lapso temporal, k.

Camino aleatorio
1,00

,50

0,00

ACF

-,50

-1,00
1

10

Lag Number
En este caso se dice que la FAS est muy cargada, que es la situacin tpica de una serie
no estacionaria en media.

8.4.- Procesos estocsticos estacionarios, lineales y ergdicos. Modelos lineales de


series temporales.

Para analizar series temporales, realizaciones muestrales de procesos estacionarios, se


utilizan tres tipos de modelos lineales: el autorregresivo (AR), el de medias mviles
(MA) y el modelo mixto (ARMA).

220
Modelos Autorregresivos (AR)

AR(1)

El modelo autorregresivo de primer orden, AR(1) puede ser expresado como:

Xt = a + Xt 1 + t
siendo a una constante, un parmetro desconocido, y tiid N(0,2), donde 2 es una
constante.

Una expresin alternativa se obtiene utilizando el denominado operador de retardo L (o


B), mediante el cual: LXt=Xt-1 L2Xt=Xt-2 y, en general, LhXt=Xt-h.
Xt = a + Xt 1 + t = a + LXt + t
Xt LX = a + t
(1 L) Xt = a + t

Media

= E ( Xt ) = E (a + Xt 1 + t ) = a + E ( Xt 1) + E (t ) = a +
=

a
1

por cuanto se trata de un proceso estacionario, E(Xt)=E(Xt-k), k.


Ntese que el parmetro phi debe ser forzosamente distinto que la unidad, 1, por
cuanto en caso contrario la media es infinita, = (como en un camino aleatorio).

221

Varianza
Por simplicidad supondremos que el AR(1) tiene media nula a=0 y, por tanto, =0.

0 = Var( Xt) = E(Xt 1 + t) 2 = E( 2 Xt 1 + t 2 + 2Xt 1t) = 2 E( Xt 1 ) + E(t 2 ) + 2E( Xt 1t) = 2 0 + 2


2

0 =

2
1 2

Ntese que debe cumplirse que ||<1 para que la media y la varianza sean constantes no
infinitas y para que esta ltima no sea negativa. Esta condicin se denomina de
estacionariedad.

Autocovarianzas

k = Cov( Xt , Xt k ) = E [( Xt E ( Xt ))( Xt k E ( Xt k ))] = E ( XtXt k ) =


E [(Xt 1 + t )Xt k ] = E ( Xt 1 Xt k ) + E (tXt k ) = k 1
As,

1 = 0
2 = 1 = 2 0
3 = 2 = 3 0
...

k = k 0

k > 0

Coeficientes de autocorrelacin
Por tanto,

k k 0
=k
k = 0 =
0
1 =
2 = 2
...

k = k

222
La FAS de un AR(1) presenta un rpido decrecimiento:

a) Exponencial (>0)
k

b) Alternante (<0)
k

AR(2)
Xt = a + 1 Xt 1 + 2 Xt 2 + t
siendo a una constante, 1 y 2 parmetros desconocidos, y tiid N(0,2), donde 2 es
una constante.

De forma alternativa:
(1 1L 2 L2 ) Xt = a + t

223
Media

= E ( Xt ) = E (a + 1 Xt 1 + 2 Xt 2 + t ) = a + 1E ( Xt 1) + 2 E ( Xt 2) + E (t ) = a + 1 + 2
=

a
1 1 2

En este caso se debe cumplir 1+21 para que .

Varianza
Por simplicidad supondremos que el AR(2) tiene media nula a=0 y, por tanto, =0.

0 = Var( Xt) = E[(1Xt 1 + 2 Xt 2 + t) Xt ] = E(1Xt 1Xt + 2 Xt 2 Xt + tXt) =


= 1E( Xt 1Xt) + 2E( Xt 2 Xt) + E(tXt) = 1 1 + 2 2 + E(t(1Xt 1 + 2 Xt 2 + t)) = 1 1 + 2 2 +
0 = 1 1 + 2 2 +

o lo que es lo mismo:

0 = 11 0 + 22 0 +
0=

0(1 11 22) =

1 11 2 2
2

Las condiciones de estacionariedad para un AR(2) son: a) 1+2<1; b) 2-1<1 y


c) |1|<1 y |2|<1.

224
Autocovarianzas

k = Cov( Xt , Xt k ) = E [( 1 Xt 1 + 2 Xt 2 + t ) Xt k ] =
= 1E ( Xt 1 Xt k ) + 2 E ( Xt 2 Xt k ) + E (tXt k ) = 1k 1 + 2k 2

Coeficientes de autocorrelacin

k 1k 1 + 2k 2
k = 0 =
= 1 k 1 + 2 k 2
0
1 = 1 + 2 1
1 =

( 0 = 0 y 1 = 1)

1
12

2 = 11 + 2 0 = 1

1
1
+2 =
+2
12
12
2

...

k 0 k > 0

La FAS de un AR(2), como la del AR(1), tambin presenta un rpido decrecimiento:

a) Exponencial
k

225
b) Alternante
k

De hecho todos los AR presentan funciones de autocovarianza muy similares, lo que


implica, como acabamos de ver, un decrecimiento en la FAS de todos ellos.

A fin de distinguir entre distintos modelos AR definimos la funcin de autocorrelacin


parcial (FAP), PACF en sus siglas en ingls. La FAP podra entenderse como la
representacin de los parmetros kk en el modelo AR(k), los cuales se obtienen
resolviendo recursivamente las ecuaciones implicadas por el modelo (vase Otero
(1993) para ms informacin).
Por ejemplo, en un AR(1) el coeficiente de correlacin parcial, 11, se obtendra
resolviendo la siguiente ecuacin:
Xt=11 Xt-1+t
Por lo que la FAS y la FAP de un AR(1) presentan la siguiente forma:
a) Parmetro positivo, >0
k

ACF

kk

PACF

226
b) Parmetro negativo, <0
kk

ACF

PACF

Los coeficientes de autocorrelacin parcial de un AR(2), 11 y 22, se obtienen


resolviendo simultneamente las siguientes ecuaciones:

Xt=11 Xt-1+t
Xt=12 Xt-1+22 Xt-1+t

Presentando FAS y FAP como las que siguen (entre otras):


k

kk

ACF

PACF

ACF

PACF

O bien,
k

kk

227
Y finalmente,

kk

ACF

PACF

En general, un AR(p) puede expresarse:


Xt = a + 1 Xt 1 + 2 Xt 2 + ... + pXt p + t
o de forma alternativa:
(1 1L 2 L2 + ... + pL p ) Xt = a + t
a es una constante; 1, ..., p parmetros desconocidos; tiidN(0,2) con 2 constante.

Cualquier AR(p) tiene una media y una varianza constante y funciones de


autocovarianza que implican una FAS decreciente, mientras que la FAP presenta p
palos.

Modelos Medias Mviles (MA)

MA(1)

El modelo media mvil de primer orden, MA(1) puede ser expresado como sigue:
Xt = a + t t 1

o bien:
Xt = a + (1 L)t
siendo a una constante, un parmetro deconocido, y tiid N(0,2) con 2 constante.

228
Media

= E ( Xt ) = E (a + t + t 1) = a
Varianza
Por simplicidad supondremos que el MA(1) tiene media nula a=0 y, por tanto, =0.

0 = Var ( Xt ) = E (t t 1) 2 = E (t ) 2 + 2 E (t 1) 2 2E (tt 1) = (1 + 2 )
2

Ntese que la varianza es siempre constante y positiva, por lo que el proceso MA(1) es
siempre estacionario (de hecho todos los MA). Sin embargo debe cumplir que ||<1 para
que sea invertible (como veremos ms adelante).

Autocovarianzas

1 = E ( XtXt 1) = E [(t t 1)(t 1 t 2)] = E (t 1) 2 =


2 = E ( XtXt 2) = E [(t t 1)(t 2 t 3)] = 0

Coeficientes de autocorrelacin

Por tanto,
2

k
1 = 0 =
=
2
2
(1 + )
1+ 2
k = 0 k > 1

k = 0 k > 1

229
La FAS de un MA(1) presenta un nico palo y la FAP un rpido decrecimiento (al revs
que un AR(1):

a) Parmetro positivo, >0


kk

ACF

PACF

b) Parmetro negativo, <0


kk

ACF

PACF

MA(2)

Xt = a + t 1t 1 2t 2

o bien:
Xt = a + (1 1L 2 L2 )t
siendo a una constante,1 y 2 parmetros desconocidos, y tiid N(0,2), donde 2 es
una constante.

230
Media

= E ( Xt ) = a

Varianza

0 = Var ( Xt ) = (1 + 1 + 2 )
2

Las condiciones de invertibilidad en un MA(2) son: a) 1+2<1; b) 2-1<1 y c) |q|<1 y


|2|<1.

Autocovarianzas

1 = ( 1 + 1 2)
2 = 2
k = 0 k > 2
2

Coeficientes de autocorrelacin

1 + 1 2
1 + 12 + 2 2
2
2 =
1 + 12 + 2 2
k = 0 k > 2

1 =

La FAP de un MA(2) (como la de todos los MA) es decreciente y la FAS presenta dos
palos (al contrario que un AR(2)). Por ejemplo,

ACF

kk

PACF

231

Finalmente, un MA(q)
Xt = a + t 1t 1 2t 2 ... qt q
o de forma alternativa:
Xt = a + (1 1L 2 L2 ... qLq )t
siendo a una constante, 1, 2, ..., q parmetros desconocidos, y tiid N(0,2), donde
2 es una constante.

Un MA(q) tiene una media y una varianza constante y funciones de autocovarianza que,
al contrario que un AR(p), implican una FAP decreciente, mientras que la FAS presenta
q palos.

Hemos dejado al lector interesado la derivacin de los momentos del MA(2), as como
los del modelo mixto ARMA(p,q) que veremos a continuacin, para lo cual puede
proceder tal y como acabamos de ver.

Modelos mixtos ARMA(p,q)

Los modelos mixtos presentan bien una FAS y una FAP decrecientes (el caso ms
habitual) bien una FAS y una FAP con unos pocos palos.

En cuanto a su expresin analtica, mostramos algunos ejemplos:

ARMA(1,1)
Xt = a + 1 Xt 1 + t 1t 1

(1 1L) Xt = (1 1L)t

ARMA(2,1)
Xt = a + 1 Xt 1 + 2 Xt 2 + t 1t 1

(1 1L 2 L2 ) Xt = (1 1L)t

232
ARMA(p,q)
Xt = a + 1 Xt 1 + 2 Xt 2 + ... + pXt p + t 1t 1 ... qt q
(1 1L 2 L2 ... pL p ) Xt = a + (1 1L 2 L2 ... qLq )t
(L )Xt = a + (L )t

8.5.- Metodologa Box-Jenkins.

La utilizacin prctica de los modelos lineales de series temporales se desarroll


especialmente a partir de la propuesta metodolgica de Box y Jenkins (1977). Estos
autores propusieron un mecanismo circular de tratamiento de este tipo de modelos con
objeto de conocer, de modo relativamente sencillo, cul de entre los posibles elementos
de aquella familia de modelos ejerce una mejor representacin de la serie estudiada.

Identificacin

Estimacin

Comprobacin y
Diagnstico

Prediccin

En la etapa de identificacin se trata de especificar algn modelo lineal (AR, MA y/o


mixto ARMA) para la serie temporal que aproxime el proceso estocstico que
presumiblemente dio lugar a los datos disponibles.

233
Dentro de esta etapa, debemos primero proceder al anlisis de la estacionariedad de la
serie, es decir comprobar que sta tenga una media y una varianza constantes en el
tiempo, por cuanto los modelos lineales se definieron nicamente sobre procesos
estocsticos estacionarios.

Aplicaremos la metodologa Box-Jenkins a distintas series temporales. Sugerimos que


el lector intente analizar el resto de series contenidas en los ficheros CASO5.SAV.
Mostramos de nuevo la serie temporal del PIB de Gran Bretaa (puede encontrarse en el
fichero CASO5A.SAV).
500

400

PIB (1913=100)

300

200

100

0
1870

1882
1876

1894
1888

1906
1900

1918
1912

1930
1924

1942
1936

1954
1948

1966
1960

1978
1972

1984

Como vemos esta serie no presenta una conducta estacionaria en media puesto que la
serie crece. Ntese que grficamente son difciles de apreciar posibles fluctuaciones en
la varianza, lo que evidenciara

no estacionariedad en la misma. El siguiente

descriptivo muestra sin embargo que tanto la media como la varianza del PIB fueron
crecientes en el tiempo.
Summaries of

PIB

By levels of

DECADAS

For Entire Population

Mean
150,4153

Std Dev
96,8845

Variance
9386,5996

DECADAS
DECADAS
DECADAS
DECADAS
DECADAS
DECADAS
DECADAS
DECADAS
DECADAS
DECADAS
DECADAS
DECADAS

49,0600
58,7100
71,9300
85,6556
102,0100
98,6000
117,1300
153,4100
176,6200
236,6600
307,7700
362,1222

2,2936
3,7943
6,2115
3,1405
8,9384
6,8238
10,0615
10,4871
13,8615
22,4691
20,7272
23,9780

5,2604
14,3966
38,5823
9,8628
79,8943
46,5644
101,2334
109,9788
192,1418
504,8582
429,6157
574,9444

Total Cases = 118

1870-1880
1881-1890
1891-1900
1901-1910
1911-1920
1921-1930
1931-1940
1941-1950
1951-1960
1961-1970
1971-1980
1981-1987

234
Cuando una serie muestra una conducta no estacionaria debe ser transformada
adecuadamente. Si la varianza de la serie crece (como en nuestro caso) o decrece de
forma ms o menos continuada, sta puede estabilizarse tomando logaritmos
neperianos.

6,5
6,0
5,5
5,0
4,5

PIB

4,0
3,5
1870
1882
1894
1906 1918
1930
1942
1954
1966 1978
1876
1888 1900
1912
1924
1936 1948
1960
1972
1984
Transforms: natural log

Se observar como la serie se ha hecho ms estacionaria en varianza, reducindose algo


la dispersin en torno a la tendencia creciente (sobre todo a partir de la Segunda Guerra
Mundial).

En el caso de una media no estacionaria, la transformacin es algo ms complicada. Una


serie que no sea estacionaria en media debe diferenciarse, es decir aplicar a la misma el
operador diferencias, =(1-L), as Xt=(1-L)Xt= Xt - Xt-1.

235
Mostraremos un sencillo ejemplo utilizando una serie no estacionaria en media:

Xt
t

Xt

Xt-1 Xt =Xt- Xt-1

---

---

10

2
1

Al tomar diferencias hemos eliminado la tendencia de la serie, hacindola estacionaria.

Tericamente basta una diferencia cuando la serie presenta una tendencia lineal, como
en nuestro sencillo ejemplo. Comportamientos no lineales requerirn diferencias de
orden superior. Por ejemplo dos diferencias ( diferencia de la diferencia, (Xt)=
2Xt) es decir 2Xt=(1-L)2Xt. Ntese que operando resulta una expresin muy
complicada 2Xt=(1-L)2Xt = Xt+Xt-2-2Xt-1.

En la prctica podemos utilizar el siguiente descriptivo:

Variable
Ln(PIB)
Ln(PIB)
2Ln(PIB)

Mean
4,82
,02
,00

Std Dev
,62
,03
,04

Variance
,38
,00
,00

El orden de diferenciacin adecuado sera el que implicase una varianza menor, una
diferencia del logaritmo en nuestro caso. En la realidad, sin embargo, no siempre es as,
por lo que este instrumento debe considerarse nicamente como auxiliar.

236
Proponemos, antes de intentar identificar ningn modelo lineal, escoger el par de
correlogramas, FAS y FAP, ms limpio, es decir el que presente una estructura menos
cargada y, por tanto, ms sencilla de cara a una posterior identificacin del modelo.

Dibujamos en todos casos las bandas de confianza, dentro de las cuales los coeficientes
de autocorrelacin simple o parcial no son estadsticamente significativos al 95%.
Dichas bandas se construyen utilizando las siguientes expresiones:

FAS
Bandas = 1,96 Var ( k )

donde la varianza de los coeficientes de autocorrelacin (aproximacin de Barlett) es:


Var ( k ) =

K
1

1 + 2 k 2
T
i =1

Por lo que las bandas presentan una forma de campana:

FAP
Bandas = 1,96

1
T

Las bandas de confianza de la FAP son lneas rectas.

La FAS del logaritmo de la serie sin diferenciar est muy cargada, como la de un
camino aleatorio..

PIB
1,0

,5

0,0

ACF

-,5

-1,0
1

Lag Number
Transforms: natural log

10

11

12

13

14

15

16

237

PIB
1,0

,5

Partial ACF

0,0

-,5

-1,0
1

10

11

12

13

14

15

16

Lag Number
Transforms: natural log

Resumiendo, los correlogramas del logaritmo de la serie sin diferenciar son los tpicos
de una serie no estacionaria en media, presentando una estructura muy cargada en la
FAS y un palo muy prximo a la unidad en la FAP.

PIB
1,0

,5

0,0

ACF

-,5

-1,0
1

Lag Number
Transforms: natural log, difference (1)

10

11

12

13

14

15

16

238

PIB
1,0

,5

Partial ACF

0,0

-,5

-1,0
1

10

11

12

13

14

15

16

14

15

16

Lag Number
Transforms: natural log, difference (1)

Los correlogramas de la serie diferenciada parecen ser bastante limpios.

PIB
1,0

,5

0,0

ACF

-,5

-1,0
1

Lag Number
Transforms: natural log, difference (2)

10

11

12

13

239

PIB
1,0

,5

Partial ACF

0,0

-,5

-1,0
1

10

11

12

13

14

15

16

Lag Number
Transforms: natural log, difference (2)

Los correlogramas correspondientes a dos diferencias, particularmente la FAP, son


menos limpios que los de una diferencia. Haciendo uso del principio de parsimonia,
dominante

en

la

metodologa

Box-Jenkins,

preferimos

los

correlogramas

correspondientes a una diferencia de la serie en logaritmos. Ntese que en este caso el


orden de diferenciacin ms adecuado parece coincidir tanto en los descriptivos
(varianza menor) como en los correlogramas (los ms limpios).

Por el momento, no haremos caso de los retardos 3 (FAP) ni 4 (FAS). Ni en la FAS ni


en la FAP se observa una estructura decreciente. Recordar que si la FAS mostrase una
estructura decreciente se tratara de un AR de orden igual al nmero de coeficientes
significativos en la FAP. En el caso de MA sera justo a la inversa. No nos encontramos
en ninguna de las dos situaciones por lo que sugerimos, como primera aproximacin, un
modelo mixto, ARIMA(1,1,1). La letra I (correspondiente a la d en ARIMA(p,d,q)),
indica que la serie ha debido ser diferenciada, una diferencia en nuestro caso (d=1).

240
Una vez hemos efectuado una apuesta tentativa por uno, o varios modelos iniciales, la
siguiente etapa de la metodologa Box-Jenkins es la de estimacin de los parmetros del
modelo.
En nuestro caso el problema que se plantea es el de estimar los parmetros
(correspondiente al AR(1)) y (correspondiente al MA(1)) a partir del conjunto de 117
observaciones (118-1, observacin que se pierde tras diferenciar). Si se admite que las t
se distribuyen normal e independientemente con media cero y varianza constante (como
vimos) se puede obtener la funcin de verosimilitud condicional asociada a los
parmetros ,, y 2. El logaritmo de esta funcin es en nuestro caso igual a:

T d

L( , , 2 ) = T ln 2

t 2
t =1

T d

= T ln 2

(PIBt PIBt 1 + t 1)
t =1

2 2

Obsrvese que existe un componente media mvil, componente que es inobservable,


por lo que para maximizar esta expresin (o alternativamente minimizar el segundo
trmino de la parte derecha de la igualdad) deberamos realizar sustituciones sucesivas.
Alternativamente podemos recurrir a mtodos de estimacin no lineales (vanse Box y
Jenkins (1977) para profundizar en los problemas de estimacin en modelos de series

temporales y Greene (1993) para una introduccin a mtodos de estimacin no


lineales).

Los resultados de la estimacin se muestran a continuacin:


FINAL PARAMETERS:
Number of residuals
Standard error
Log likelihood
AIC
SBC

117
,03029419
244,55253
-483,10506
-474,81854

Analysis of Variance:

Residuals

DF

Adj. Sum of Squares

Residual Variance

114

,10472709

,00091774

241
Variables in the Model:

AR1
MA1
CONSTANT

SEB

T-RATIO

APPROX. PROB.

,32718395
-,00627004
,01915796

,26677943
,28232042
,00417123

1,2264212
-,0222089
4,5928821

,22256717
,98232025
,00001143

Correlation Matrix:

AR1
MA1

AR1

MA1

1,0000000
,9431552

,9431552
1,0000000

La penltima etapa de la metodologa Box-Jenkins es la de comprobacin y diagnstico


del modelo. Siguiendo un esquema de trabajo similar al que se efecta en la inferencia
en un modelo de regresin lineal, los modelos de series temporales se someten tambin
a pruebas de validacin de su capacidad de ajuste y prediccin. El modelo quedar
validado, o mejor adaptado a los datos, cuando pase todas y cada una de las siguientes
pruebas.

Significacin estadstica de los parmetros

Cada uno de los parmetros autorregresivo o media mvil incluidos en el modelo debe
ser estadsticamente significativo.

Como vemos, en nuestro caso ninguno de los dos parmetros es estadsticamente


significativo, por lo que no podemos aceptar el modelo. Si nos fijamos ms
atentamente, sin embargo, uno de los parmetros parece redundante, puesto que la
correlacin entre los mismos es muy alta (,9431). Tras observar de nuevo la
significacin de los parmetros y puesto que el parmetro MA tiene una t de Student
menor que la unidad proponemos un ARIMA(1,1,0).

242

FINAL PARAMETERS:
Number of residuals
Standard error
Log likelihood
AIC
SBC

117
,0301623
244,56237
-485,12474
-479,60039

Analysis of Variance:

Residuals

DF

Adj. Sum of Squares

Residual Variance

115

,10472813

,00090976

Variables in the Model:

AR1
CONSTANT

SEB

T-RATIO

APPROX. PROB.

,33307769
,01915985

,08809434
,00416342

3,7809205
4,6019486

,00024970
,00001094

El parmetro AR es estadsticamente significativo, por lo que el modelo pasa la primera


prueba. La constante es un parmetro secundario en un modelo ARIMA, no siendo
necesario que sea significativa (aunque lo es en este caso).

Cumplimiento de las condiciones de estacionariedad e invertibilidad

Los parmetros AR y MA del modelo no deben ser prximos a la unidad (o la suma de


los mismos dentro de un AR o un MA en modelos de ordenes superior a uno), en caso
contrario evidenciara una sub o una sobre-diferenciacin.

Si el parmetro AR fuese prximo a la unidad (1) el modelo estara sub-diferenciado,

(1 L )Xt = a + t

(1 L )Xt = Xt = a + t

El modelo estara sobre-diferenciado si fuese el MA el prximo a la unidad (1) :

Xt = a + (1 )t

(1 L )Xt = a + (1 L )t

1 L
Xt = Xt = a + t
1 L

En nuestro caso el parmetro AR est muy alejado de la unidad, por lo que el modelo
pasa la segunda prueba.

243
Residuos del modelo: ruido blanco

Las funciones de correlacin simple y parcial de los residuos del modelo no deben
presentar valores significativos.

Residuos del ARIMA(1,1,0)


1,0

,5

0,0

ACF

-,5

-1,0
1

10

11

12

13

14

15

16

10

11

12

13

14

15

16

Lag Number

Residuos del ARIMA(1,1,0)


1,0

,5

Partial ACF

0,0

-,5

-1,0
1

Lag Number

Excepto el coeficiente de autocorrelacin de orden 4 (tanto en la FAS como en la FAP)


los residuos del modelo se corresponden con un ruido blanco.

244
En la prctica suele ocurrir que algn coeficiente de autocorrelacin en los
correlogramas de los residuos sea significativo. Si tal coeficiente no se corresponde con
retardos importantes (en series sin estacionalidad los tres primeros) el modelo puede
considerarse bueno. Tales coeficientes, sin embargo, pueden ser controlados a fin de
mejorar el ajuste, introducindolos como medias mviles en el modelo ARIMA. Por
ejemplo,

ARIMA(1,1,0) original

(1 L )Ln( PIB)t = a + t
ARIMA(1,1,0) controlando el retardo 4

(1 L )Ln( PIB)t = a + (1 4 L4 )t
En nuestro caso:
FINAL PARAMETERS:
Number of residuals
Standard error
Log likelihood
AIC
SBC

117
,0290504
249,26935
-492,53871
-484,25219

Analysis of Variance:

Residuals

DF

Adj. Sum of Squares

Residual Variance

114

,09662179

,00084393

Variables in the Model:

AR1
MA4
CONSTANT

SEB

T-RATIO

APPROX. PROB.

,32080363
,30872867
,01892819

,08907044
,09038730
,00276469

3,6016844
3,4156200
6,8464138

,00046990
,00088266
,00000000

El modelo pasa las dos primeras pruebas (parmetros significativos y no prximos a la


unidad) y, como vemos, tambin la tercera (residuos ruido blanco).

245

Residuos del ARIMA(1,1,0) y MA(4)


1,0

,5

0,0

ACF

-,5

-1,0
1

10

11

12

13

14

15

16

14

15

16

Lag Number

Residuos del ARIMA(1,1,0) y MA(4)


1,0

,5

Partial ACF

0,0

-,5

-1,0
1

Lag Number

10

11

12

13

246
Ntese que el error estndar del modelo final (ARIMA(1,1,0) con MA(4)) es menor que
el del modelo original (ARIMA(1,1,0)), 0,02905 vs 0,03016. Como vimos, si la variable
dependiente est en logaritmos el error estndar puede interpretarse como el error
porcentual promedio cometido en el ajuste, un 2,91% en nuestro caso. Adems, tanto el
AIC (criterio de informacin de Akaike) como el SBC (criterio de informacin
Bayesiano de Schwartz) son menores en el modelo final, lo que sugiere un mejor ajuste
en este caso. El modelo final puede ser escrito como sigue:
(1-0,3208L)Ln(PIB)t = 0,0189 + (1-0,3087L4) t

Analicemos ahora la serie del nmero de turistas, NT (puede encontrarse en el fichero


CASO5D.SAV).

Nmero de turistas
7000
6000
5000

Miles de personas

4000
3000
2000
1000
0
JAN 1979 JAN 1981 JAN 1983 JAN 1985 JAN 1987 JAN 1989 JAN 1991 JAN 1993

247
Hasta ahora hemos tratado con los modelos de series temporales en los que se han
buscado pautas de comportamiento a travs de las correlaciones simples y parciales
como mecanismos para sealar la existencia de dependencias temporales regulares.
Cuando las observaciones que dan lugar a la serie temporal son de frecuencia inferior al
ao, como en el caso de la serie mensual NT, suelen aparecer tambin relaciones entre
los valores que se corresponden con periodos anlogos (de mes de Agosto a mes de
Agosto de cada ao en una serie mensual, de viernes a viernes en otra semanal, etc). La
necesidad de representar estas correlaciones estacionales da pie a los denominados
modelos estacionales multiplicativos, o SARIMA.

En nuestro caso la serie NT presenta un claro comportamiento estacional que se repite


peridicamente aproximadamente cada ao, coincidiendo lgicamente con el periodo de
mayor entrada de turistas (verano). El periodo estacional de la serie (denominado s) es
igual a 12 en este caso (nmero de observaciones entre los picos estacionales). En
general las series mensuales presentan estacionalidad de periodo 12, las series
trimestrales de periodo 4, las series semestrales de periodo 2, las semanales de periodo
52, etc.

Parece claro que la serie no es estacionaria ni en media ni en varianza (vase tambin el


descriptivo). Aplicando logaritmos se reduce bastante la dispersin.

Nmero de turistas
9,0

8,5

8,0

7,5

NT

7,0
6,5
JAN 1979
JAN 1982
JAN 1985
JAN 1988
JAN 1991
JUL 1980
JUL 1983
JUL 1986
JUL 1989
JUL 1992
Transforms: natural log

248

+------------------------+-----------+-----------+
|
|
Media
| Varianza |
+------------------------+-----------+-----------+
|TRIENIOS
|
|
|
|1979-1982
|
|
|
|
|
|
|
| NT
| 1944.64 |1424362.1 |
|
|
|
|
|1983-1985
|
|
|
|
|
|
|
| NT
| 2206.11 |1639576.0 |
|
|
|
|
|1986-1988
|
|
|
|
|
|
|
| NT
| 2570.66 |2122963.0 |
|
|
|
|
|1989-1991
|
|
|
|
|
|
|
| NT
| 2892.70 |2207913.7 |
|
|
|
|
|1992-1994
|
|
|
|
|
|
|
| NT
| 2932.70 |2135644.3 |
+------------------------+-----------+-----------+

El problema que se presenta cuando analizamos series temporales con un posible


componente estacional es que ste sea tan fuerte que implique una variacin de la media
(global) en el tiempo. En este caso se requerirn, D diferencias estacionales. Una
diferencia estacional, por ejemplo (D=1), se obtiene aplicando a la serie el operador
diferencias estacionales sXt==(1-Ls)Xt, as 12Xt==(1-L12)Xt= Xt-Xt-12 (ntese que no
es lo mismo 12Xt==(1-L12)Xt que 12Xt==(1-L)12Xt).

Variable
Ln(NT)
Ln(NT)
sLn(NT)
sLn(NT)

Mean
7,68
,00
,03
,00

Std Dev

Variance

,53
,32
,09
,11

,28
,10
,01
,01

Este instrumento auxiliar nos sugiere que el mejor orden de diferenciacin es el de una
diferencia estacional de la serie en logaritmos.

249

NT
1,0

,5

0,0

ACF

-,5

-1,0
1

11 13 15 17 19 21 23 25 27 29 31 33 35

Lag Number
Transforms: natural log

NT
1,0

,5

Partial ACF

0,0

-,5

-1,0
1

11 13 15 17 19 21 23 25 27 29 31 33 35

Lag Number
Transforms: natural log

250

NT
1,0

,5

0,0

ACF

-,5

-1,0
1

11 13 15 17 19 21 23 25 27 29 31 33 35

Lag Number
Transforms: natural log, difference (1)

NT
1,0

,5

Partial ACF

0,0

-,5

-1,0
1

11 13 15 17 19 21 23 25 27 29 31 33 35

Lag Number
Transforms: natural log, difference (1)

251

NT
1,0

,5

0,0

ACF

-,5

-1,0
1

11 13 15 17 19 21 23 25 27 29 31 33 35

Lag Number
Transforms: natural log, seasonal difference (1, period 12)

NT
1,0

,5

Partial ACF

0,0

-,5

-1,0
1

11 13 15 17 19 21 23 25 27 29 31 33 35

Lag Number
Transforms: natural log, seasonal difference (1, period 12)

252

NT
1,0

,5

0,0

ACF

-,5

-1,0
1

11 13 15 17 19 21 23 25 27 29 31 33 35

Lag Number
Transforms: natural log, difference (1), seasonal difference (1, period

NT
1,0

,5

Partial ACF

0,0

-,5

-1,0
1

11 13 15 17 19 21 23 25 27 29 31 33 35

Lag Number
Transforms: natural log, difference (1), seasonal difference (1, period

Ntese, sin embargo, que el par de correlogramas ms limpios son estos dos ltimos, los
correspondientes a una diferencia regular y a una estacional de la serie en logaritmos. El
modelo puede escribirse ARIMA(p,1,q)(P,1,Q)12, correspondiendo el ltimo trmino a
la parte estacional de periodicidad 12.

253
Una vez determinado el mejor orden de diferenciacin se debe proceder a identificar
algn modelo lineal para la serie. En el caso de modelos estacionales se procede como si
se dispusiese de dos series en una, la parte regular (correspondiendo los tres primeros
retardos) y la parte estacional (correspondindole los retardos estacionales, en este caso
el 12, el 24 y el 36; en series trimestrales el 4, 8, 12, 16, 18, etc).

Volviendo a los dos ltimos correlogramas y por lo que se refiere a la parte regular,
vemos un nico palo significativo en la FAS y una estructura decreciente en la FAP, por
lo que proponemos un MA(1) para la misma, ARIMA(0,1,1)(P,1,Q)12. Por lo que se
refiere a la parte estacional (retardos 12, 24 y 36) vemos la misma estructura, un nico
palo significativo en la FAS (el 12) y una estructura decreciente en la FAP (12 y 24).
Proponemos por tanto ARIMA(0,1,1)(0,1,1)12 (este modelo se conoce como modelo
airline).
FINAL PARAMETERS:
Number of residuals
Standard error
Log likelihood
AIC
SBC

167
,06930079
207,30757
-408,61513
-399,26115

Analysis of Variance:

Residuals

DF

Adj. Sum of Squares

Residual Variance

164

,81646721

,00480260

Variables in the Model:

MA1
SMA1
CONSTANT

SEB

T-RATIO

APPROX. PROB.

,67265575
,60167289
,00049733

,05791637
,07335746
,00080278

11,614260
8,201932
,619508

,00000000
,00000000
,53644180

El modelo pasa las dos primeras pruebas, los parmetros son significativos (excepto la
constante, pero es un parmetro secundario) y no son prximos a la unidad. Si se dudase
de la proximidad a la unidad de alguno de ellos podra realizarse el siguiente contraste
(por ejemplo con el MA(1) regular):
H0: =1

|(0,6765-1)/0,0579|=5,652>1,96

(por lo que se rechaza la hiptesis nula)

254
Los correlogramas de los residuos, con la salvedad de los coeficientes 4 y 11
(correspondientes a retardos no importantes, los tres primeros y los estacionales en
series de periodicidad inferior al ao) son aproximadamente los de un ruido blanco:

Residuos del ARIMA(0,1,1)(0,1,1)12


1,0

,5

0,0

ACF

-,5

-1,0
1

11

13 15 17

19 21 23

25 27

29 31 33

35

29

35

Lag Number

Residuos del ARIMA(0,1,1)(0,1,1)12


1,0

,5

Partial ACF

0,0

-,5

-1,0
1

11

13

15

17

19

21

23

25

27

Lag Number

El modelo puede escribirse:


12Ln(NT)t=(1-0,6826L)(1-0,6017L12)t
Observar en especial la parte estacional, un media mvil (1-0,6017L12).

31

33

255
Como hicimos antes, intentaremos controlar las autocorrelaciones residuales con el
objetivo de mejorar el ajuste, an ms si cabe:

FINAL PARAMETERS:
Number of residuals
Standard error
Log likelihood
AIC
SBC

167
,06755769
211,7941
-413,58819
-397,99822

Analysis of Variance:

Residuals

DF

Adj. Sum of Squares

Residual Variance

162

,77379059

,00456404

Variables in the Model:

MA1
MA4
MA11
SMA1
CONSTANT

SEB

T-RATIO

APPROX. PROB.

,60693027
,10923939
-,14871101
,69457227
,00050327

,06191403
,06107533
,06361135
,07483176
,00082975

9,8027914
1,7886011
-2,3378061
9,2817844
,6065269

,00000000
,07554796
,02061976
,00000000
,54501390

Residuos del ARIMA(0,1,1)(0,1,1)12 con MA(4)MA(11)


1,0

,5

0,0

ACF

-,5

-1,0
1

Lag Number

11 13 15 17 19 21 23 25 27 29 31 33 35

256
Como vemos el modelo pasa todas las pruebas, por lo que lo escribiremos:
12Ln(NT)t=(1-0,6069L)(1-0,1092L4)(1+0,1487L11)(1-0,6946L12)t

El error promedio de ajuste en este caso fue del 6,76%, frente a un 6,93% en el modelo
previo, por lo que la bondad de ajuste apenas se ha modificado en este caso.

La serie trimestral del PIB espaol (CASO5C.SAV) presenta una tendencia creciente
pero las fluctuaciones de la varianza no siguen una conducta sistemtica, creciendo o
decreciendo de forma no continua (vase el descriptivo), por lo que optamos por no
tomar logaritmos neperianos.

11000
10000
9000
8000
7000
6000

PIB

5000
4000
Q1 1970
Q1 1976
Q1 1982
Q1 1988
Q1 1994
Q1 1973
Q1 1979
Q1 1985
Q1 1991

257
+------------------------+-----------+-----------+
|
|
Media
| Varianza |
+------------------------+-----------+-----------+
|TRIENIO
|
|
|
|1,00
|
|
|
|
|
|
|
| PIB
| 5432,72 | 96108,63 |
|
|
|
|
|2,00
|
|
|
|
|
|
|
| PIB
| 6502,04 | 39370,84 |
|
|
|
|
|3,00
|
|
|
|
|
|
|
| PIB
| 7026,87 | 19209,89 |
|
|
|
|
|4,00
|
|
|
|
|
|
|
| PIB
| 7210,21 | 2997,51 |
|
|
|
|
|5,00
|
|
|
|
|
|
|
| PIB
| 7300,73 | 4734,16 |
|
|
|
|
|6,00
|
|
|
|
|
|
|
| PIB
| 7660,73 | 20475,76 |
|
|
|
|
|7,00
|
|
|
|
|
|
|
| PIB
| 8531,79 |161136,48 |
|
|
|
|
|8,00
|
|
|
|
|
|
|
| PIB
| 9710,20 | 69046,78 |
|
|
|
|
|9,00
|
|
|
|
|
|
|
| PIB
| 10033,86 | 9853,52 |
+------------------------+-----------+-----------+

El instrumento auxiliar sugiere tomar nicamente una diferencia regular:

Variable
PIB
PIB
4PIB
4PIB

Mean
7748,66
52,21
208,33
1,03

Std Dev

Variance

1470,58 2162617,32
44,47
1977,72
165,68
27449,67
48,70
2371,94

258

PIB
1,0

,5

0,0

ACF

-,5

-1,0
1

10

11

12

13

14

15

16

10

11

12

13

14

15

16

Lag Number
Transforms: difference (1)

PIB
1,0

,5

Partial ACF

0,0

-,5

-1,0
1

Lag Number
Transforms: difference (1)

Si no hacemos caso del retardo 5 en la FAP (retardo no importante, por cuanto no est
entre los tres primeros ni entre los estacionales, 4, 8, 12 y 16), los correlogramas
podran corresponder a los de un AR(2) nicamente en la parte regular (estructura
decreciente en la FAS y dos palos significativos en la FAP).

259
ARIMA(2,1,0)(0,0,0)4

FINAL PARAMETERS:
Number of residuals
Standard error
Log likelihood
AIC
SBC

99
18,891642
-430,79041
867,58081
875,36617

Analysis of Variance:

Residuals

DF

Adj. Sum of Squares

Residual Variance

96

34891,579

356,89415

Variables in the Model:

AR1
AR2
CONSTANT

SEB

T-RATIO

APPROX. PROB.

1,171826
-,311974
52,767721

,096242
,096248
13,042469

12,175807
-3,241360
4,045838

,00000000
,00163589
,00010567

El modelo pasa la primera prueba (parmetros significativos) pero no la segunda, la


suma de los parmetros AR es muy prxima a la unidad, sugiriendo una subdiferenciacin.

PIB
1,0

,5

0,0

ACF

-,5

-1,0
1

Lag Number
Transforms: difference (2)

10

11

12

13

14

15

16

260

PIB
1,0

,5

Partial ACF

0,0

-,5

-1,0
1

10

11

12

13

14

15

16

Lag Number
Transforms: difference (2)

Tanto la parte regular como la estacional presentan una estructura muy similar, un nico
palo significativo en la FAS y en la FAP. Siguiendo el principio de parsimonia
sugerimos

un

media

mvil

de

orden

uno

para

ambos

componentes,

ARIMA(0,2,1)(0,0,1)4.

FINAL PARAMETERS:
Number of residuals
Standard error
Log likelihood
AIC
SBC

98
19,169272
-427,13703
860,27405
868,02895

Analysis of Variance:

Residuals

DF

Adj. Sum of Squares

Residual Variance

95

35024,038

367,46098

Variables in the Model:

MA1
SMA1
CONSTANT

SEB

T-RATIO

APPROX. PROB.

-,23392028
,25328113
,17239555

,1002599
,1033348
1,8058094

-2,3331401
2,4510737
,0954672

,02175045
,01607152
,92414510

261

Residuos del ARIMA(0,2,1)(0,0,1)4


1,0

,5

0,0

ACF

-,5

-1,0
1

10

11

12

13

14

15

16

Lag Number

Como vemos el modelo pasa todas las pruebas, formulndose finalmente como:
2PIBt = (1+0,2339L)(1-0,2533L4)t

8.6.- Prediccin.

Cuando el modelo propuesto y estimado supera satisfactoriamente la etapa de


validacin entramos en la cuarta y ltima etapa, que no es otra que la de prediccin de
los valores futuros de la series.

La prediccin se efecta mediante un estadstico denominado predictor ptimo que,


como vimos, minimiza el error cuadrtico de prediccin. La expresin formal de este
predictor para una variable generada por un proceso ARIMA es la siguiente:

XT + h * = 1 XT + h 1* + 2 XT + h 2 * + ... + pXT + h p * + T + h * + 1T + h 1* + 2T + h 2 * + ... + qT + h q *

262
en donde XT+h representa el valor predicho para X que se calcula con la informacin
disponible hasta el periodo T y para h periodos en adelante, mientras que Xt* y t*
indican los valores de las variables X y que debemos incluir en la frmula de
prediccin.

La construccin del predictor se efecta segn el esquema siguiente:

Xt * =

Xt
Xt *

para t = 1,2,..., T
para t = T + 1, T + 2,...

t =
*

et
0

para t = 1,2,..., T
para t = T + 1, T + 2,...

Cuando t se refiere a periodos de tiempo dentro de la muestra X*, se sustituye por el


valor observado correspondiente y * por el residuo, que acta como estimacin del
trmino de error desconocido. Por otra parte, cuando t se refiera a un periodo de tiempo
fuera de la muestra, X* se sustituye por la prediccin obtenida justo anteriormente y *
por cero.

La prediccin por punto se acompaa de intervalos de confianza:

Pr ediccin

por int ervalo

XT + h * 1,96 Var ( XT + h * )

siendo la varianza de la prediccin:


Var ( XT + h * ) = 2 (1 + 1 2 + 2 2 + ... + h 1 2 )

en donde los coeficientes se obtienen a partir de la representacin en forma de


MA() de cualquier modelo ARIMA.

263
Veamos por ejemplo la prediccin a partir de un ARIMA(1,0,0).

Xt = Xt 1 +t

<1

El cual puede ser expresado como un MA():

(1 L )Xt = t

Xt =

1
t = 1 + L + 2 L2 + ... t
(1 L )

Puesto que la suma de una progresin geomtrica con razn menor que la unidad, ||<1,
es decir (1+L+2L2+...), no es ms que 1/(1-L). Ntese del mismo modo que
cualquier MA invertible puede ser expresado como un AR() (por lo que justificamos
las condiciones de invertibilidad).
Volviendo a nuestro ejemplo de prediccin: 1=,2=2,...

Horizonte

Predictor puntual

Varianza de prediccin

h=1

XT+1*=XT

h=2

XT+2*=XT+1*=2XT

2(1+2)

h=3

XT+3*=XT+2*=3XT

2(1+2+4)

...

...

...

h=

XT+*=XT=0

2/(1-)

Que reproduce, en la prediccin para un horizonte infinito, la media y la varianza de la


serie.

En cuanto a la prediccin a partir de un ARIMA(0,0,1).


Xt = a + t t 1

1= y k=0 k>1

<1

264
Horizonte

Predictor puntual

Varianza de prediccin

h=1

XT+1*=a-eT

h=2

XT+2*=a

2(1+2)

h=3

XT+3*=a

2(1+2)

...

...

...

h=

XT+*=a

2(1+2)

Los procesos MA se dice que no tienen memoria, puesto que rpidamente (dependiendo
del orden) convergen hacia la media y la varianza del proceso.

Por lo que respecta a un ARIMA(1,1,0) con un MA(4), el modelo final para la serie
temporal del PIB ingls, por ejemplo:
(1-0,3208L)Ln(PIB)t = 0,0189 + (1-0,3087L4) t
Ln(PIB)t =0,0189 + 0,3208Ln(PIB)t-1 + t - 0,3087 t-4
Ln(PIB)t=0,0189+(1+0,3208L+0,32082L2+...)(1-0,3087L4) t
1=0,3208, 2=0,32082=0,1029, 3=0,32083=0,0330, 4=0,32084-0,3087= -0,2981

Horizonte

Predictor puntual

Varianza

h=1

Ln(PIB)T+1*=0,0189+0,3208Ln(PIB)T-0,3087e T-3

h=2

Ln(PIB)T+2*=0,0189+0,3208Ln(PIB)T+1*-0,3087eT-2

2(1+0,32082)

Es importante recordar que, en este caso, el valor de la prediccin puntual del PIB no es
igual al anti-logaritmo de la prediccin, sino que se calcula como sigue:

PIBT+1*=exp(Ln(PIB)T+1*+0,5Var(Ln(PIB)T+1*))

265
Acabaremos el captulo intentando realizar predicciones para el nmero de turistas
extranjeros en Espaa (en miles de personas) para 1993 y 1994, para lo cual y tras
validar el modelo:
12Ln(NT)t=(1-0,6069L)(1-0,1092L4)(1+0,1487L11)(1-0,6946L12)t

calcularemos las predicciones puntuales y por intervalo utilizando las facilidades


proporcionadas por el programa SPSS:

Nmero de turistas
10000

8000

Miles de personas

6000

4000

2000

0
JAN 1979

JAN 1983
JAN 1981

JAN 1987
JAN 1985

JAN 1991
JAN 1989

JAN 1993

La capacidad predictiva puede valorarse utilizando los siguientes estadsticos:


Error Variable
Observed Variable
N of Cases
Deg Freedom
Mean Error
Mean Abs Error
Mean Pct Error
Mean Abs Pct Err
SSE (SCE)
MSE (ECM)
RMS (ECM)
Durbin-Watson

Use
Use
Use
Use
Use
Use
Use
Use
Use
Use

ERROR_Prediccin
NT
167
164
-2,2694
141,9929
-,0176
5,4027
7509187,54
45787,7289
213,9807
1,6634

Comparar el error porcentual absoluto medio de prediccin, MAPE, (5,4027%) con el


error porcentual cometido en el ajuste (6,7557%), lo que evidencia una muy buena
capacidad predictiva.

266

You might also like