Professional Documents
Culture Documents
y la variacin relativa de los
precios es llamada retorno discreto del activo y se define por:
1
1 1
t t t
t
t t
P P P
R
P P
(1.1)
Teniendo en cuenta en cuenta que
1
/ 1
t t t
R P P
, por lo que llamamos a
1
1 /
t t t
R P P
+
rendimiento discreto simple. Adems por lo general, se
expresa
t
R
como un porcentaje para este perodo, conocido como tasa de
retorno.
Por otra parte se denota, para el caso del retorno compuesto
continuamente,
ln
t t
p P
(el logaritmo de la base
e
) . De esta manera este
retorno est dado por:
1
1
ln ln(1 )
t
t t t t
t
P
r R p p
P
+
(1.2)
En la prctica es preferible usar la rentabilidad compuesta
continuamente, ya que para pequeas variaciones en el precio, esta
rentabilidad resulta ser una buena aproximacin del rendimiento real,
permitiendo la suma de las rentabilidades. Por esta razn y adems al ser
esta definicin de uso comn, se denominar
t
r
o retorno, a la rentabilidad
compuesta continuamente.
Es importante considerar tambin que se puede obtener un retorno
discreto a partir de un retorno continuo, mediante la transformacin de una
ecuacin de rentabilidad continua a una discreta, a travs de la ecuacin
1
t
r
t
R e .
De modo de ejemplo, si se considera que para pequeos (nfimas
variaciones en el precio),
ln(1 ) u u +
, se deduce que la rentabilidad simple
t
R
y los log-retornos
t
r
son valores que suelen ser similares.
5
3.1.1 Distribucin de los retornos de una serie de tiempo financiera.
Consideremos, en primer lugar, una serie de retornos
{ T t r
t
, , 1 ,
),
ambos igualmente distribuidos en momentos de tiempo. Esta serie puede ser
considerada parte de la realizacin de un proceso estocstico
{ Z t r
t
,
,
donde
{ , 2 , 1 , 0 t t Z
. En la seccin siguiente analizaremos la
formalizacin del concepto. Vamos a ver que el proceso est totalmente
especificado si se conoce la distribucin de dimensin finita.
) ) ( , , ) ( ( ) , , ; , , (
1 1 1 1 n n n n
x t r x t r P t t x x F
, (1.3)
para el momento de tiempo n
t t , .,
1
, y cualquier 1 n . Las distribuciones
(1.3) deben cumplir ciertas condiciones. Sin embargo, en la prctica es muy
difcil que ocurra y lo que se hace es caracterizar brevemente el proceso
hasta ese orden, como la media
) ; ( ) ( t r rdF r E
t
(1.4)
y la funcin de autocovarianza:
) ( ) ( ) ( ) , (
2 1 2 1
2 1 t t t t
r E r E r r E t t
,
Z t t
2 1
,
. (1.5)
Otros supuestos simplificadores pueden ser introducidos como por
ejemplo las condiciones de estacionariedad, ergodicidad o la normalidad del
proceso. Como se ve, los precios t
P
generalmente no son estacionarios,
mientras que los log-retornos si los son, de ah el inters en estos ltimos.
Sin embargo, la hiptesis de normalidad de log-retornos, en general, no es
vlida. Como se vera mas adelante.
Por otro lado, si se tienen N activos con retornos it
r
en T instantes
de tiempo, se considera la distribucin
) , , ; ; , , (
, , 1 1 , 1 , 1 T N T N
r r r r F
,
que por lo general puede depender de otras variables y parmetros
desconocidos. Al igual que en el caso anterior, el estudio de estas
6
distribuciones es muy general y no hay necesidad de introducir restricciones.
Por ejemplo, si podra suponer que la distribucin es la misma para cada
instante de tiempo. Puede escribirse (1.3) (tomando
n i i t
i
, , 1 ,
y la
omisin de la dependencia de F en estos das) Como:
) , , ( ) ( ) ( ) , , (
1 1 1 2 2 1 1 1
n n n n
r r r F r r F r F r r F
. (1.6)
La ergodicidad es una propiedad ms difcil de establecer. Bsicamente,
un proceso es ergdico si podemos estimar las caractersticas de inters
(media, autocovarianza, etc) a partir de una sola trayectoria del proceso. Por
ejemplo, un proceso es ergdico en la media, si la media muestral converge
en probabilidad a la media real del proceso.
La funcin de distribucin (1.6) depende, en general, co-variables Y y
un vector de parmetros, , que lo caracteriza. Suponiendo que la
distribucin de los retornos es continua, se obtiene a partir de (1.6) la funcin
de verosimilitud y de esta estimacin . Por ejemplo, suponiendo que las
distribuciones condicionales
) , , (
1 1 t t t
r r r f
son normales con media
y
varianza
2
, entonces ) , (
2
t t
y la funcin de verosimilitud ser:
2 2
( ( ) / 2 )
1 1 1
2
1
( , , ; ) ( ; ) e
2
t t t
n
r
n
t
t
f r r f r
K
El estimador de mxima verosimilitud de se obtiene mediante la
maximizacin de esta funcin o el logaritmo de la misma.
Como se ha visto, puede considerarse N activos en el tiempo,
Nt t t
r r r , , ,
2 1
, y montar r en un vector
)' , , , (
2 1 Nt t t t
r r r r
. Lo que interesa
es analizar la distribucin conjunta de los rendimientos y obtener una
descomposicin similar a (1.6). por ende el inters estar en las
distribuciones condicionales
) , , , , (
1 1
Y r r r F
t t t
.
Una suposicin frecuente es que los rendimientos t
r
son independientes
e idnticamente distribuidos como una normal (gaussiana). Si suponemos
que log-retornos t
r
son normales, el rendimiento bruto sera lognormal, lo
que parece ms razonable.
De hecho, si t
r
~ ) , (
2
N entonces, como
ln(1 )
t t
r R +
, se deduce que
7
t
R + 1
es log-normal con
1 ) (
2 /
2
+
e R E
t
, (1.7)
) 1 ( ) (
2 2
2
+
e e R Var
t
, (1.8)
Al considerar la distribucin muestral de los rendimientos, debe tenerse
en cuenta que sta es aproximadamente simtrica, pero con exceso de
curtosis. Por ende se pasara a discutirr brevemente los conceptos de
asimetra y curtosis.
Sea Y una variable aleatoria con media
y la varianza
2
, la
asimetra de Y se define por
3
3
( )
( )
Y
A Y E
| `
. ,
, (1.9)
mientras que la curtosis de Y se define por:
4
4
( )
( )
Y
K Y E
| `
. ,
. (1.10)
Para una distribucin normal, 0 A y 3 K , donde la cantidad
( ) 3 K Y
se llama exceso de curtosis. Existen distribuciones con colas psadas
donde el coeficiente de curtosis es superior a 3 e incluso tiende al infinito.
Con una muestra
1
, ,
T
Y Y K
de Y y estimndose
y
2
por
Y
)
,
2 2
1
1
( )
1
T
t
t
Y
T
) )
,
respectivamente, entonces asimetra y curtosis de la muestra estn dadas
por
3
3
1
1
( ) ( )
( 1)
T
t
t
A Y Y
T
)
)
, (1.11)
8
4
4
1
1
( )
( 1)
T
t
t
K Y
T
, (1.12)
respectivamente.
Se puede demostrar que si tenemos una muestra de una distribucin
normal y T es grande, entonces
A
~
) / 6 , 0 ( T N
,
K
~
) / 24 , 3 ( T N
, (1.13)
3.1.3 Volatilidad
Uno de los objetivos de este trabajo es modelar que se llama volatilidad,
que es la varianza condicional de una variable, por lo general de un retorno.
Aunque no se miden directamente, la volatilidad se manifiesta de muchas
maneras una serie financiera, como se ver a continuacin.
Hay tres enfoques para el clculo de la volatilidad:
(i) Mediante la frmula de valoracin del tipo Black-Scholes la cual
supone una volatilidad constante para el precio del activo subyacente,
esta permite deducir la expresin analtica del precio terico de una
opcin Europea sobre dicho activo. La frmula BS es utilizada
habitualmente para deducir de ella la volatilidad implcita, forzando el
precio que de ella se deriva a coincidir con el precio observado en el
mercado. La volatilidad implcita as obtenida se interpreta como el
nivel de volatilidad vigente en el mercado desde el momento de
inversin de la frmula BS hasta el vencimiento de la opcin. Sin
embargo, no siendo dicha volatilidad constante en el tiempo, es
cuestionable la interpretacin del valor numrico obtenido para la
volatilidad implcita. Suele interpretarse como una expectativa de
mercado y en trminos del valor medio de volatilidad vigente para el
perodo mencionado, pero tal interpretacin no est justificada por el
anlisis BS.
(ii) Otra manera es modelar directamente la volatilidad de las series de
rendimientos, con los modelos de Heterocedasticidad Condicional
Autorregresiva, se obtiene la llamada volatilidad estadstica;
9
(iii) Una tercera alternativa es el modelo de volatilidad mediante la media
mvil en funcin de los ltimos k retornos, por ejemplo.
Conseguimos lo que se llama volatilidad histrica. Consideramos el
cuadrado de los retornos o rendimientos absolutos en esta media
mvil. Una definicin general calcula la volatilidad para cada instante
t , como:
P k
j
P
j t t
r
k
v
1
1
0
1
]
]
]
donde
0 > p
. Como se mencion anteriormente, son los casos
habituales
2 p
y
1 p
. En este caso se calcula un promedio en
media mvil de volatilidad a travs de un procedimiento de EWMA
(promedio mvil exponencialmente ponderado), utilizado por
RiskMetrics, elaborado por JP Morgan.
Los valores obtenidos con estos enfoques pueden ser muy diferentes.
De cualquier manera, la volatilidad es una medida de la variabilidad de
precios de los activos y por lo general difciles de predecir los cambios de
precios.
Como en toda la actividad financiera para predecir la volatilidad es
necesario, el comportamiento en el corto plazo de la rentabilidad. Es por esto
que se debe a introducir una notacin la cual indique los resultados
marginales de los retornos.
Sea t
r
una serie retornos. Definidos por
1 1
( ) ( )
t t t t t
E r E r
, (1.14)
2 2
1 1
(( ) ) (( ) )
t t t t t t t
E r E r
, (1.15)
Donde (1.14) y (1.15) definen la media y la varianza condicional de t
r
respectivamente, dada la informacin hasta el momento
1
1,
t
t
.
Un modelo tpico de volatilidad es de la forma
t t t t
r +
, (1,16)
10
donde
0 ) (
1
t t
E
,
1 ) (
1
t t
Var
y por lo general t
es d i i . . con
distribucin F . La media y la varianza incondicional de t
r
se denota por
) (
t
r E
y
) (
2
t
r Var
, respectivamente, y que G la distribucin t
r
. Por
supuesto que (1.14), (1.15) y F determinan
,
2
y G , y no al revs.
Entonces, cmo se define la asimetra y curtosis de la distribucin
marginal de una variable aleatoria X , por medio de (1.9) y (1.10) tambin se
puede definir la asimetra y curtosis condicional de un retorno t
r
:
3
1
3
1
(( ) )
t t t
t
t
E r
A
, (1.17)
4
1
4
1
(( ) )
t t t
t
t
E r
K
, (1.18)
El cambio proporcional en la varianza del retorno o varianza condicional
se define por:
1
1
( )
t t
t
t
RV
, (1.19)
Parte de (1.19) es la innovacin y la parte predecible. La volatilidad de
la varianza es la desviacin estndar de la innovacin:
) ) ((
t
RV Var VoV
, (1.20)
El factor de cambio del riesgo es una medida de la dispersin de la serie
obtenida a partir de:
max min
FCR
(1.21)
donde:
max
+
+
(1.23)
El valor de la ecuacin (1.23) disminuye geomtricamente para muchos
modelos de volatilidad. Una medida relacionada es la persistencia
acumulada,
2 2 2
1
1 1
2
( ( )
t k t
t k t t t k
t k t
t
r
+
+ +
+
+ + +
K
, (1.24)
12
esta mide el impacto de un choque a la varianza promedio de la rentabilidad
media de los activos durante el perodo
[ ] k t t + ,
.
2) Reversin A La Media
Como se ha visto, en los rendimientos hay conglomerados de
volatilidad, lo que significa que un perodo de alta volatilidad es seguido por
un perodo de mayor volatilidad normal, mientras que un perodo de baja
volatilidad es seguido por un perodo de baja volatilidad.
Reversin a la media significa que hay un nivel normal de volatilidad de
la serie en el largo plazo a la que vuelve la serie. En particular, las
predicciones de la volatilidad a largo plazo deberan converger al nivel
normal y la informacin actual
t
+ tiende a cero en
probabilidad, cuando k , para todo t .
3) Efecto asimtrico de las innovaciones.
Como se ver mas adelante, los modelos ARCH suponen que la
varianza condicional en el tiempo t depende de las valores de las
innovaciones anteriores, es decir, est afectada simtricamente por
innovaciones positivas y negativas. Esta asimetra puede deberse al efecto
llamado apalancamiento, que ocurre cuando la cada del precio de una
accin aumenta la volatilidad de los retornos a los accionistas. Otra fuente de
asimetra es la aversin al riesgo, en cuyo caso el aumento de la volatilidad
se reduce la demanda de accin, con la consiguiente disminucin de su valor
y seguir aumentando la volatilidad.
4) Influencia de las variables exgenas
Los precios de activos financieros dependen, en general, de los precios
del mercado. La volatilidad puede tambin depender de otros eventos, tales
como los anuncios del gobierno del desempleo, la inflacin, el PIB trimestral,
las tasas de inters, etc. Los valores de las variables exgenas pueden ser
incluidos en los modelos de volatilidad.
13
5) Efecto de las colas largas
Los retornos por lo general tienen colas largas, lo que resulta en las
estimaciones de curtosis significativamente mayor que 3, que indica la no
normalidad de los rendimientos. Y es aqu donde los modelos como ARCH y
GARCH pueden incorporar estas caractersticas.
3.1.4 Caractersticas de las series financieras.
Las series econmicas y financieras tienen algunas caractersticas que
son comunes a otras series, tales como
(a) Tendencia,
(b) Estacionalidad
(c) Puntos de influencia (puntos anormales o tambin llamados outliers),
(d) Heteroscedasticidad condicional,
(e) Y finalmente no linealidad.
De una manera muy general, puede decirse que una serie econmica o
financiera no es lineal cuando se responde de manera diferente a las shocks
grandes o pequeos, o incluso shocks positivos o negativos.
Los rendimientos financieros, presentan caractersticas que los hace
completamente diferentes a otras series. Como por ejemplo: Los retornos
rara vez presentan tendencia actuales o estacionalidad, con la posible
excepcin de los rendornos intradarios, ya que, cuando se analizan series
financieras diarias, normalmente, se observan algunos efectos estacionales
en el viernes y lunes debidos a que no existen transacciones comerciales
durante el fin de semana. Ademas, si se consideran series observadas hora
a hora, pueden observarse algunos. Por otra parte las series de tipo de
cambio y tasas de inters pueden mostrar las tendencias que varan con el
tiempo.
Las caractersticas ms relevantes de las series financieras recogidas
con frecuencias elevadas [Ruiz (1994) y Font (1998)], son:
a. Ausencia de estructura regular dinmica en la media .
Habitualmente, si estas series tienen algun tipo de estructura
dinamica en los niveles ya sea en s misma o en su primera
14
diferencia, esta puede describirse mediante un modelo ARMA
con parmetros pequeos, y en consecuencia, la serie original
transformada o los residuos de la serie en el caso de un ajuste
ARMA constituyen series de media cero y no autocorreladas (lo
cual arroja estadsticos Box-Ljung no significativos).
b. Estructura dinmica en la varianza . Las series originales y sus
transformaciones presentan una estructura dinmica para la
varianza (son heterocedsticas), que se manifiesta en
autocorrelaciones muestrales para los cuadrados
significativamente no nulas. Esta estructura presenta algunas
caractersticas que analizaremos en los prximos puntos.
c. Distribuciones leptocrtica o exceso de curtosis . Basicamente
implica que el estadstico de curtosis para la series financieras
supera habitualmente el valor de 3. Este fenomeno ha sido
ampliamente documentado en la literatura, ya que, la
distribucin (incondicional) de los retornos ha vuelto las colas de
la serie financiera ms pesadas que las de una distribucin
normal.
d. Agrupamiento de la volatilidad (volatility clustering).
Habitualmente, series temporales financieras presentan la
caracterstica de que cambios en el valor de los activos de gran
magnitud son seguidos por cambios grandes de cualquier signo,
mientras que los cambios pequeos tienden a ser seguidos por
cambios pequeos. Como consecuencia, detectamos en los
grficos de estas series zonas de volatilidad baja y alta. Adems
este agrupamiento de la volatilidad se refleja en que las
autocorrelaciones de la serie al cuadrado, son significativamente
distintas de cero.
e. Efectos simtricos. Habitualmente las series financieras suelen
tener distribuciones simetricas (series sobre tipos de interes o
de cambio), aunque no es infrecuente encontrar series con
coeficientes de asimetria(series sobre precios de activos o
derivados) significativamente distintos de cero.
f. Efecto de "apalancamiento" . Cuando en las series financieras
analizadas son rendimientos de activos financieros, se suele
observar una respuesta asimetrica de la volatilidad al nivel de
los rendimientos. Donde existen evidencias empricas de
correlaciones negativas entre rentabilidad y volatilidad, ademas
mayores incrementos de la volatilidad cuando la rentabilidad es
15
inferior a la esperada que cuando la supera. Habitualmente la
volatilidad se incrementa en mayor medida cuando el
rendimiento es negativo que cuando es positivo. Tambin hay
evidencias de correcciones posteriores que realiza el mercado
cuando considera que se ha sobrevalorado el riesgo o que el
aumento de rentabilidad del activo no viene acompaado de
aumento de riesgo (correlaciones positivas entre rentabilidad y
volatilidad.
g. Persistencia de la volatilidad (long-memory ). La evidencia
emprica obtenida mediante el ajuste de modelos ARCH y SV
indica que los efectos de cambio en la volatilidad tienen una alta
persistencia en el tiempo.
h. Cambios de rgimen en la volatilidad . Estos cambios pueden
deberse a cambios en elciclo econmico, cambios estructurales
del mercado, circunstancias particulares del activo, etc.
i. Incorporacin de informacin en el mercado . Estos efectos
adquieren mayor importancia al aumentar la frecuencia de los
datos de la serie (por ejemplo observaciones en los momentos
de las transacciones). La literatura en series diarias reconoce
los efectos estacionales por cierre de mercado en el viernes y
lunes y por vacaciones, efectos debidos a predicciones sobre
algn hecho que pueda modificar el valor del activo, por ejemplo
el anuncio de dividendos, etc. Las modelizaciones de
microestructura de mercados basadas en series de alta
frecuencia consideran efectos en la volatilidad por el nmero y
tipo de agentes que participan en el mercado, tiempo entre
transacciones, volumen de transacciones, etc.
j. Efectos comunes . Hay evidencias empricas de grupos de series
(sobre tipos o activos) con comportamientos en lo que se refiere
a volatilidad similares. Es ms, la mayor parte de la teora
financiera considera modelos multivariantes para la valoracin
de activos, formacin de cartera ptima y estructura de los tipos
de inters.
3.2 Conceptos Y Fundamentos Bsicos Previos Al Modelamiento De La
Volatilidad Condicional.
Como pudo aoreciarse en la seccin anterior las caractersticas de las
series temporales financieras sirven de base para la introduccin de las
16
siguientes ideas bsicas para su modelizacin. En esta seccin, se pretende
sintetizar los supuestos terico-estadsticos bsicos que centran la
realizacin de modelos de volatilidad condicional ARCH y sus variantes. Con
ello, se quiere no slo establecer el punto de partida de este tipo de modelos,
sino tambin plantear las ecuaciones sobre las que posteriormente se irn
aclarando distintos aspectos de la metodologa propuesta por Engle. Para
modelizar esta estructura la literatura el primer paso va a ser conocer los
conceptos bsicos acerca del anlisis de las series temporales.
3.2.1 Procesos estocsticos
Uno de los supuestos bsicos realizados en el anlisis de series
temporales es que el proceso estocstico de generacin de los datos es un
proceso estacionario. En forma muy general, un procedimiento dice que es
estacionario si oscila alrededor de una media constante con una variacin
tambin constante.
Consideremos, en primer lugar, la definicin formal de proceso
estocstico:
Sea T un conjunto arbitrario. Un proceso estocstico
1
o aleatorio es una
familia de variables aleatorias ordenadas en el tiempo{ ,
t
Y t T
, tal que para
cada t T ,
t
Y
es una variable aleatoria.
En consecuencia, un proceso estocstico es una familia de variables
aleatorias (v.a), que se supone situado en el mismo espacio de
probabilidades ( ) , , P
. Por lo general, se supone que la v.a. involucrados
son reales, pero que pueden ser complejas
Cmo, por cada T , { 0, 1, 2, Z t t K
existe v.a. definida en , de hecho,
t
Y
es una funcin de dos argumentos,
, t w
Y
, t T , w. En la figura 1.1 se
ilustra esta interpretacin de un proceso estocstico. Vemos en la figura que
por cada t T , tenemos una v.a.
, t w
Y
, con una funcin de densidad de
probabilidad
( )
t
f y
(se supone que existen, para simplificar).
1
El trmino estocstico proviene de la raz griega stokhos que significa blanco y, hace
alusin a la forma aleatoria en que se distribuyen los proyectiles lanzados contra un blanco.
17
Figura 1.1: proceso estocstico como una familia de variables aleatorias
Adems, para cada w , fijado, poseeuna funcin
t
, es decir, una
realizacin de la trayectoria del proceso. Como se aprecia en la Figura 1.2.
Vamos a designar a las ejecuciones del proceso
(1)
t
Y ,
(2)
t
Y , etc. Observamos
que cada realizacin del proceso es una funcin de
t
, no aleatoria, y para
cada
t
fijado,
t
Y
es un nmero real o complejo.
Una forma de visualizar la distribucin de probabilidad de
, t w
Y
, para
t
fija, es considerar la proporcin de las trayectorias que pasan a travs de una
"ventana" de ancho . Esta proporcin ser de
( )
t
f y
. Esta es la misma
idea de construir un histograma de la distribucin de los valores de una v.a.
El conjunto de valores { ,
t
Y t T
se llama espacio de estados, S , el
proceso estocstico y los valores de
t
Y
se puede llamar estados. Si el
conjunto de T es finito, tal que T Z , se dice que es un proceso de
parmetros discretos. Si T pertenece al intervalo significa que estamos
frente a un proceso parmetros continuos. El espacio de estados puede ser
discreto o continuo. En el primer caso
t
Y
puede representar por ejemplo: una
cuenta, el nmero de transacciones de una poblacin durante un da. En el
segundo caso
t
Y
es una medida que vara continuamente como el retorno de
un activo o el volumen (en dlares) de comercio de cada da en una bolsa de
valores.
18
Figura 1.2: proceso estocstico como una familia de trayectorias
3.2.2 Especificacin De Un Proceso Estocstico
Sea ( )
1 2
, , ,
n
t t t K
los elementos de T y teniendo en cuenta
{
1 1 1 1
( , , ; , , ) ( ) , , ( )
n n n n
F y y t t P Y t y Y t y K K K
(2.1)
Entonces el proceso estocstico { ,
t
Y t T
se especificar si se conoce
la distribucin de dimensin finita (2.1), para todo 1 n . Esto significa que
para 1 n sabemos que la distribucin unidimensional de la v.a. es 1
1
,
t
Y t T
,
para 2 n sabemos que la distribucin bidimensional de una v.a. ser
1 2
1 2
, , ,
t t
Y Y t t T
, y as sucesivamente. Las funciones de distribucin (2.1)
debern cumplir dos condiciones:
Condicin de simetra: para cualquier serie
1
, ,
n
j j K
, los ndices
1, 2, , , n K
tienen
1 1
1 1
( , , ; , , ) ( , , ; , , )
j j j j n n
n n
F y y t t F y y t t K K K K
(2.2)
Condicin de compatibilidad: para
m n <
,
1 1 1
( , , , , , ; , , ) ( , , ; , , )
m m n m m
F y y t t F y y t t K K K K K
(2.3)
El lado izquierdo de (2.3) debe entenderse como
19
1 1 1
1, ,
( , , , , , ; , , ) lim
m m n n
y
m x
n
F y y y y t t
+
+ K
K K K
puede demostrarse que cualquier conjunto de funciones de distribucin de la
forma (2.1), que cumplan las condiciones (2.2) y (2.3) define un proceso
estocstico
t
Y
sobre T . Este resultado se conoce como el teorema de
extensin de Kolmogorov.
Sin embargo, sabiendo de todas estas distribuciones de dimensin finita
es muy poco probable que suceda en la prctica. Lo que se hace es estudiar
ciertas caractersticas asociadas a (2.1) las cuales son fciles de calcular e
interpretar. Teniendo en cuenta los momentos de orden
n
de v.a.
1
, ,
t t
n
Y Y K
para cualquier 1 n , es decir,
( )
{
1
1 1 1
1
1 1 1
, , ; , , ( ), , ( )
( , , ; , , )
r r
n
n n n
r r
n
n n n
r r t t E Y t Y t
y y dF y y t t
K K K
L L K K
(2.4)
Por lo general, lo que hace es restringir el estudio de los momentos de
orden inferior. En particular, para la clase de procesos que nos interesan, los
fijos, consideramos momentos del segundo y primer orden.
La funcin de la media, o simplemente promedio de
t
Y
est dada por:
{
1;
( ; )
t t t
E Y ydF Y t
(2.5)
mientras que la funcin de autocovarianza de
t
Y
se define como
{ { {
1 2 1 2 1 2
1 2 1 2
(1,1; , ) (1; ) (1; ) ( , )
t t t t
t t t t t t
E Y Y E Y E Y
1 2
, , t t T
(2.6)
Tomando en cuenta que
t
depende
de dos argumentos
1
t
y
2
t
. En particular, si
1 2
t t t
, (2.6) obtenemos
{ { {
2 2
, t t t t t
Var Y E Y E Y
, (2.7)
20
Qu es la funcin de la varianza del proceso
t
Y
, que se indica con
2
t
.
Volvoemdp a la Figura 1.1. Para cada
t
se tiene una variable aleatoria
t
Y
, que tiene media
t
y varianza
2
t
. En la figura, se indican los promedios
1 t
,
2 t
y
3 t
.
La autocovarianza
1 2
, t t
. Cuando existe la
posibilidad de confusin, pueden utilizarse las notaciones
( ) Y
t
y
( )
,
1 2
Y
t t
para
indicar la media y f.a.c. de
t
Y
. Otra convencin: cuando se habla de "grafico"
de
t
Y
, en realidad se est refiriendo a algo como la Figura 1.2, donde son
"todas" las trayectorias de
t
Y
. Por lo tanto, es habitual que slo representan
una trayectoria tpica del proceso.
Como se aprecio en seccin 1, que existen otros parmetros
importantes en las finanzas, ya que el tercero y cuarto momentos, que se
utilizan, por ejemplo, para calcular los coeficientes de asimetra y curtosis.
Observese tambin que en la prctica, deben estimarse las cantidades
t
,
2
t
e ,
1 2
t t
m
t t
t
Y Y
m
L
El problema que se plantea es que por lo general slo tienen una
trayectoria del proceso, observado entre dos instantes de tiempo.
3.2.3 Estacionariedad y Procesos estacionarios
Como se haba mencionado anteriormente, un proceso estocstico
estacionario sigue una sucesin ordenada de variables aleatorias cuya
funcin de distribucin es invariante ante valores igualmente separados:
( )
1 1 1 1
( ) ( , , , ; , , ) ( , , , ; , , )
t t t t t t m t m t m t m t m
Y t F y y y y y F y y y y y
+ + + + + + + + +
K K K K
Ahora bien un proceso estocstico es estacionario si su media y su
varianza son constantes en el tiempo y si el valor de la covarianza entre dos
periodos depende solamente de la distancia o rezago entre estos dos
periodos de tiempo y no del tiempo en el cual se ha calculado la covarianza.
En otras palabras, una serie de tiempo no estacionaria tendr una media que
vara con el tiempo o una varianza que cambia con el tiempo o ambas
(Gujarati, 2004). De esta se desprenden dos tipos de estacionariedad los
cuales pasaremos a analizar.
Estacionariedad en sentido estricto y en sentido amplio
Considrese un proceso estocstico { ,
t
Y t T
, se dice que ste es
estacionario en sentido estricto si todas las distribuciones de dimensin finita
(2.1) siguen siendo los mismos en virtud del transcurso del tiempo, es decir,
que si se denomina
1 1
( , , ; , , )
n n
F y y t s t s + + K K
a la funcin de distribucin
conjunta de {
1
, ,
T
y y K
el proceso es estacionario en sentido estricto si
1 1 1 1
( , , ; , , ) ( , , ; , , )
n n n n
F y y t s t s F y y t t + + K K K K
(2.8)
para cualquier
1
, , ,
n
t t s K
de T
Como en la prctica es casi imposible conocer la verdadera funcin de
distribucin de muchos procesos aleatorios, esta definicin se suele
confirmar slo para el primer y los segundos momentos; es decir, para la
media y la varianza del proceso. Esto quiere decir que si un proceso es
22
estacionario en sentido estricto, la funcin de distribucin marginal de cada
variable
t
Y
es la misma para todo
t
. A los momentos de estas distribuciones
marginales se les denomina momentos incondicionales o marginales. Si el
proceso es estacionario en sentido estricto y {
t
E Y <
, entonces el valor
esperado de
t
Y
,
t
y la varianza
2
t
son constantes, es decir,
{
t t
E Y
, para todo t T , (2.9)
{
2 2
t t
Var Y
, para todo t T , (2.10)
Sin perder la generalidad, se supone que
0
. De lo contrario,
consideraremos el proceso como
t
Y
.
Del mismo modo, todas las distribuciones bidimensionales dependen de
las diferencias de tiempo. De hecho, para
1 2
, t t T
, , ,
1 2 1 2
t t t t t t
+ +
y haciendo
2
t t
, tenemos que
{
,
, ,0 0
1 2 1 2 1 2
t t t t t t
Cov Y Y
, (2.11)
En realidad, la covarianza (2.11) es una funcin de
1 2
t t
, para
comprobar esto o se puede hacer
1
t t
anterior.
En consecuencia, podemos escribir la funcin de autocovarianza de un
proceso estacionario en el sentido estricto como:
{ {
0
( , ,
t t t s s
Cov Y Y Cov Y Y
+
(2.12)
Para
, t s T
23
En general, los momentos de orden
n
de
t
Y
depende slo de las
diferencias
1 j
t t
, y son funciones de 1 n argumentos.
Sin embargo, el concepto de estacionariedad en sentido estricto implica
el cumplimiento de un nmero de condiciones que es excesivo para nuestras
necesidades prcticas, debido a que en la mayora, de las aplicaciones es
difcil contrastar la hiptesis de estacionariedad en sentido estricto. Y Como
dijimos anteriormente, estamos interesados en la caracterizacin de los
procesos estocsticos por un pequeo nmero de funciones de distribucin o
momentos.
Si nos restringimos a los momentos de primer y segundo orden, nos
lleva a lo siguiente por lo que habitualmente nos conformamos con un
concepto menos exigente como es el de estacionariedad en sentido amplio.
Un proceso estocstico { ,
t
Y t T
se dice que es estacionario en
sentido amplio si se cumplieran las tres condiciones siguientes:
(i) {
t t
E Y
, constante, para todo t T
(ii) {
2
t
E Y <
, para todo t T
(iii)
{ ,
1 2 1 2
,
t t t t
Cov Y Y
es solamente una funcin de
1 2
t t
, es decir, la
covarianza es igual para pares de observaciones igualmente
distanciados
En otras palabras ste se produce cuando todos los momentos de
primer y segundo orden del proceso estocstico son invariantes en el tiempo.
Estos momentos incluyen la esperanza matemtica y la varianza de las
variables
t
Y
pero tambin las covarianzas y correlaciones entre diversos
retardos a que antes hemos hecho referencia.
Es importante sealar que, dadas las definiciones de los dos conceptos
de estacionariedad, ninguno de ellos es siempre ms restrictivo que el otro.
Es obvio que la definicin de estacionariedad en sentido estricto requiere que
todas las distribuciones conjuntas de cualquier .subconjunto de n-variables
del proceso deben ser invariantes en el tiempo mientras que la
estacionariedad en sentido amplio solo requiere que los dos primeros
momentos sean invariantes en el tiempo. Por lo tanto, la estacionariedad en
24
sentido amplio no implica la estacionariedad en sentido estricto. Por otro
lado, la estacionariedad en sentido estricto tampoco implica estacionariedad
en sentido amplio, dado que esta ltima exige que los dos primeros
momentos marginales sean finitos, condicin que no es necesaria para la
estacionariedad en sentido estricto.
En lo sucesivo, estamos principalmente interesados en este tipo de
proceso, que se llamar simplemente procesos estacionarios
3.2.4 Gaussianidad y Linealidad
Un proceso estocstico real { ,
t
Y t T
se dice que es gaussiano si, para
cualquier conjunto
1
, ,
n
t t K
de T , las variables aleatorias
1 2
, , ,
t t t
n
Y Y Y K
tiene
una distribucin normal multivariante. Esto quiere decir que si la distribucin
conjunta de {
1
, ,
T
y y K
es normal multivariante.
Como un proceso Gaussiano, con varianza finita, es determinada por
medio de las covarianzas, si es estacionario en sentido amplio, entonces
ser estrictamente estacionario.
Por otra parte dadas las propiedades de la distribucin normal
multivariante, la Gaussianidad implica que todas las distribuciones
marginales as como las condicionales son normales.
Sin embargo es importante recordar, especialmente en el caso de las
distribuciones condicionales, que el hecho de que estas sean normales no
implica que la distribucin conjunta sea normal. En consecuencia, la
Gaussianidad implica la normalidad condicional pero no viceversa.
Conviene sealar, que bajo Gaussianidad los conceptos de
independencia y no autocorrelacin son equivalentes. Sin embargo, bajo
normalidad condicional no autocorrelacin no implica, en general,
independencia. Otra relacin importante es que la normalidad condicional
implica que la esperanza condicional de
t
Y
, es una funcin lineal de
{
1 1
, ,
t
y y
K
. Una vez ms la implicacin en sentido contrario no se cumple.
25
En lo que sigue usaremos la siguiente notacin: si el parmetro
t
(tiempo) discreto, es decir, { 0, 1, 2, , t t t K
, el proceso ser por escrito
{ ,
t
Y t
, mientras que si
t
es continua, es decir, t , el proceso es
denotado por { ,
t
Y t
. La misma convencin se aplica a los momentos.
Por ejemplo, la autocovarianza del proceso estacionario discreta se denota
por
( ) s
, mientras que el proceso continuo se denota por
s
.
3.2.5 Procesos estacionarios lineales
En esta seccin presentamos algunos ejemplos de procesos
estocsticos estacionarios que se usan con frecuencia. Haremos hincapi en
los procesos autorregresivos (AR), la media mvil (MA) y la combinacin de
estos, los procesos ARMA.
a) Procesos autorregresivos
Decimos que
,
t
Y t Z
es un proceso autorregresivos definido por
1 1 2 2
( ) ( ) ( )
t t t p t p t
Y Y Y Y
+ + + + L
(2.13)
se denominar autorregresivo de orden
p
y se denotar como
( ) AR p
, como
se puede apreciar la variable en estudio depende de la misma variable pero
rezagada en el tiempo y de un choque aleatorio que es la parte estocstica
de la ecuacin. Para modelar una serie de tiempo como un proceso
autorregresivo se deben considerar dos factores importantsimos: la manera
en que se estiman los parmetros
t
. Lo
segundo que hacer es determinar el orden del proceso autorregresivo, una
2
Vease Pindyck y Rubinfeld (2000)
26
herramienta muy til es lo que se conoce como correlograma, es decir, la
grfica de los coeficientes de autocorrelacin
k
(2.14)
Habitualmente los valores de los coeficientes de autocorrelacin de un
correlograma, deben decrecer exponencialmente (si la serie es estacionaria).
En general no es trivial la interpretacin del correlograma. En la prctica,
cuando se observa el correlograma de una serie de tiempo los coeficientes
de autocorrelacin tienden a cero de una manera bastante lenta, lo cual es
un fenmeno tpico de las series de tiempo no estacionaras. Una forma de
corregir este problema y convertir estas series en estacionarias, se debe
transformar la serie de tiempo en una que contemple diferencias entre las
observaciones un nmero apropiado de veces y trabajar con dicha serie
transformada que ya debera ser estacionaria.
Otra forma para determinar el orden del proceso autorregresivo, es
mediante los coeficientes de autocorrelacin parcial. Lo importante de esta
funcin es que se puede mostrar que en un proceso
( ) AR p
la grfica de las
autocorrelaciones parciales se "corta" despus del rezago
p
. As pues, al
observar este grfico y el punto donde ya los valores son muy pequeos
(dentro de la banda de
2
T
t
), se tendr una estimacin del valor de
p
que
se debe tomar para a justar el modelo autorregresivo. En otras palabras, el
nmero de autocorrelaciones parciales distintas de cero indica el orden del
proceso AR ..
b) Modelo de promedios mviles
27
Un proceso ser de promedios mviles
( ) MA q
s se expresa de la
siguiente manera:
1 1 2 2 t t t t q t q
Y
+ + + + + L
(2.15)
donde
t
.
La estimacin de los parmetros
.
El ruido blanco es un caso particular de un proceso estacionario, en el
que el valor medio y todas las autocovarianzas son cero. En consecuencia,
{ ,
t
t Z
es un ruido blanco si
a)
( ) 0
t
E
b)
2
( )
t t
Var
c)
( ) 0
t t s
E
para 1 s
Es importante sealar que la condicin (c) significa que el proceso no
esta autocorrelacionado, es decir, que no existen relaciones lineales entre los
valores que toma
t
~
2
(0, ) RB
En el caso de un proceso puramente aleatorio, se escribe:
t
~
2
. . .(0, ) i i d
Un caso particular de ruido blanco es el paseo aleatorio el cual se define
a continuacin:
Consideremos una secuencia aleatoria { , 1
t
t
, de v.a. i.i.d.
2
( , )
.
Definiendo en secuencia
1 t t
Y + + L
, (2.16)
De ello se deduce que
( )
t
E Y t
y
2
( )
t
Var Y
, es decir, ambos
dependen de
t
. No es difcil demostrar que
2
1 2 1 2
( , ) min( , )
Y
t t t t
y por lo tanto la auto-covarianza de
t
Y
depende de
1
t
y
2
t
. El proceso de
(2.16) se llama camino aleatorio que a medida que pasa por el tiempo y
t
Y
30
tiende a oscilar en torno a
t
+
, a continuacin, dado el valor de
1 t
Y
, el
valor de
t
Y
slo depende de
t
. Como
1 t t t
Y Y
, este proceso tiene
incrementos ortogonales o no correlacionados.,
Los paseos aleatorios son de gran importancia en la econometra y
finanzas. Un caso famoso es el de que los precios de los activos financieros
siguen un camino aleatorio.
Conceptos de no autocorrelacin e independencia
La no autocorrelacin no debe confundirse con la independencia. Se
dice que un proceso { ,
t
a t Z
es independiente cuando la distribucin
conjunta de las variables que componen el proceso se puede obtener como
producto de las distribuciones marginales.
Intuitivamente, la independencia implica que no existe ningn tipo de
relacin entre el valor que toma
t
a
en dos momentos del tiempo diferentes.
Es fcil comprobar que independencia implica no autocorrelacin dado que si
la distribucin conjunta se puede obtener como producto de las marginales,
en particular, se cumplir que el valor esperado del producto ser igual al
producto de los valores esperados y, en consecuencia:
2 2
( , ) ( , ) ( ) ( ) 0
t t s t t s a t t s a
Cov a a E a a E a E a
Sin embargo, podemos encontrar procesos que no tengan
autocorrelacin, pero que no sean independientes. Esto es debido a que la
no autocorrelacin implica que no existen relaciones lineales entre las
variables que componen el proceso, pero puede haber otro tipo de relaciones
(por ejemplo, cuadrticas), con lo que el proceso ya no es independiente.
3.2.4. Distribuciones marginales y la ley de expectativas iteradas
La base de los modelos de series temporales esta en la distincin entre
los momentos marginales de las variables que componen el proceso
31
{ ,
t
Y t T
y los momentos de las distribuciones de cada variable
t
Y
condicional en {
1 1
, ,
t
y y
K
. Esto es debido a que los supuestos sobre las
distribuciones condicionales son, en general, ms suaves que los supuestos
sobre las distribuciones marginales. En particular, aunque el proceso sea
estacionario en sentido amplio, es decir, la media y la varianza marginales
sean constantes en el tiempo, los correspondientes momentos condicionales
pueden variar, ya que, la esperanza .condicional de
t
Y
evoluciona en el
tiempo dado que depende de la observacin en el momento 1 t . Si
consideramos por ejemplo un proceso AR(1) la varianza condicional es
constante en el tiempo y no depende de las observaciones. En tanto, un
proceso ARCH(1) la media condicional es constante pero la varianza
condicional evoluciona en el tiempo.
Un resultado importante para el anlisis de series temporales
heterocedasticas es la ley de expectativas iteradas. En el contexto del
presente trabajo, esta ley se puede formular de la siguiente forma: La
esperanza de la observacin
t
Y
o de una funcin de ella,
( )
t
g Y
condicional en
informaci6n disponible en el momento
t s
puede calcularse tomando
primero la esperanza condicional en informacin disponible en 1 t , despus
calculando la esperanza condicional en 2 t y as! sucesivamente hasta
t s
,
es decir,
[ ] [ ]
1 1
( ) ( )
t s t t s t s t t
E g Y E E E g Y
+
]
]
K
La esperanza marginal puede obtenerse dejando que
s
tienda a infinito.
3.2.5. Martingala en diferencias
Otro concepto importante para la caracterizacin de series temporales
es el de martingala en diferencias (MD). Si {
t
E Y <
, un proceso MD tiene
la propiedad de que su esperanza condicional en informaci6n pasada es
cero, es decir,
[ ]
1
0
t t
E Y
Utilizando la ley de expectativas iteradas es inmediato comprobar que
tambien la esperanza marginal es cero
32
[ ]
1
( ) ( ) 0
t t t
E Y E E Y
Adems, es posible demostrar que
t
y
no esta correlacionada con
ninguna funcin de las observaciones pasadas
1 2 1
( , , , )
t
f y y y
K
,, dado que
[ ] [ ]
1 2 1 1 2 1 1
( , , , ) ( , , , ) ( ) 0
t t t t t
E y f y y y E f y y y E y
K K
En consecuencia, es posible demostrar que todo proceso MD
siempre es no autocorrelacionado, aunque la implicacin en sentido contrario
no sea siempre cierta. Adems, es fcil demostrar que todo proceso de
variables independientes con media cero es siempre MD, aunque
nuevamente la implicacin contraria no sea siempre cierta.
3.3. Modelos De Heterocedasticidad Condicional Autorregresiva Y
Heterocedasticidad Condicional Autorregresiva Generalizada (ARCH-
GARCH)
Definiciones iniciales
En esta seccin iremos estudiando algunos modelos apropiados para
series financieras que presentan varianza condicional a travs de su
evolucin en el tiempo. Hemos visto que modelos lineales del tipo ARMA, por
ejemplo, admiten que las innovaciones son un ruido blanco, con media cero y
varianza constante.
Existe una variedad muy grande de modelos no lineales disponibles en
la literatura, Pero nos concentraremos en clase de modelos ARCH
(autorregressive conditional heterocedasticity), introducida por Engle en
1982 y sus extensiones. Estos modelos son no lineales en lo que se a la
varianza, como veremos en la mas adelante.
Aqu nos centraremos en gran media a situaciones en que las que la
varianza del termino del error
t
, tiene dos
componentes: una constante y las malas noticias respecto a la volatilidad del
ultimo periodo. Lo cual es modelado como el residual cuadrado del ltimo
periodo (el termino ARCH). Como se puede observar en este modelo
t
es
heterocedstico, condicional en
1 t
.
La estimacin de esta ecuacin (3.1) con frecuencia se hace con
mxima verosimilitud. Dado el bajo costo del poder de clculo, esto no es
muy difcil. Dado que programas economtricos como STATA o E-VIEWS
pueden estimar esta clase de modelos con facilidad.
35
Ahora bien supongamos una serie de ruido blanco,
t
, que puede ser la
serie de residuos de un modelo ARMA. Si las variables
t
fuesen normales,
la incorrelacin garantiza la independencia, y no puede existir informacin en
el pasado de la serie que sea til para explicar su futuro. Los modelos ARCH
relajan la hiptesis de normalidad y permiten que tengamos procesos de
ruido blanco formados por variables dependientes. Una clase de modelos
con esta propiedad es:
t t t
U
(3.2)
donde
t
U
y t
garantiza que la
serie
t
tenga media marginal igual a cero, ya que:
( ) ( ) ( ) 0
t t t
E E E U
y tambin media condicional nula, ya que:
1 1
( ) ( ) ( ) 0
t t t t t
E E E U
Como el proceso
t
, ya que
2
( ) 1
t
E U . Sin embargo, el
proceso
t
t
implica toda la informacin disponible hasta el momento 1 t
36
2 2 2 2
1 1
( ) ( ) ( )
t t t t t t
Var E E U
dado que
2 2
1
( ) ( ) 1
t t t
E U E U
. Por tanto, el proceso
2
t
tiene una
interesante interpretacin: representa la varianza condicionada de la serie en
cada instante, que va variando en el tiempo con cierta estructura
estacionaria.
La independencia entre los procesos
t
U
y t
carezca de autocorrelacin y forma un proceso de ruido blanco. En efecto,
las autocovarianzas de la serie son:
( ) ( ) ( ) ( ) 0
t t k t t t k t t t k
E E U E U E
ya que el proceso
t
U
es independiente de su pasado y de los valores previos
y actuales del proceso t
tendr autocovarianzas
nulas. Se observa, sin embargo, que, a diferencia de las hiptesis habituales
de los modelos ARMA, la serie
t
no es de variables independientes. En
efecto, como
t
e
1 t
son funcin de valores comunes pasados de la serie,
aunque estn incorrelacionados sern, en general, dependientes.
El modelo ARCH(1) adems supone que la varianza condicional,
2
t
,
tiene una estructura similar a un AR(1), y depende slo del ltimo valor
observado, mediante la ecuacin:
2 2 2
1 0 1 1
( )
t t t t
E
+
(3.4)
donde
0
0
>
y
0
1
, para asegurar que esta varianza es positiva. Esta
ecuacin establece que si el valor de
2
1 t
es alto, la varianza
2
t
de la
siguiente observacin condicionada a este valor de
2
1 t
ser tambin alta,
haciendo ms probable que el valor siguiente,
2 2 2
t t t
U sea alto.
Es intuitivo que la varianza marginal de la serie, que es en definitiva
segn (3.3) el promedio de las varianzas condicionales, debe ser mayor que
0
, ya que las restantes variables no
intervienen en
2
0 1 1 t
+ .La esperanza de la constante 0
es ella misma y
la esperanza de
2
1 t
respecto a su distribucin es su varianza marginal.
Como
1 t
es un proceso estacionario, tenemos que
2 2 2
1
( ) ( )
t t
E E U
, y
sustituyendo este resultado en (3.5), se obtiene que:
1
0 2
1
t (3.6)
y, por lo tanto,
1 0
1
< <
El modelo ARCH (1) establece una dependencia del tipo AR(1) entre los
cuadrados de las observaciones.
Esto se comprueba definiendo un nuevo proceso de ruido blanco, t
v
,
formadas por variables estacionarias incorrelacionadas con media cero y
varianza marginal constante:
2 2 2 2
( 1)
t t t t t
v U , (3.7)
Las variables t
v
tienen media cero, ya que:
2 2 2 2
( ) ( ) ( ) 0
t t t
E v E E ,
y varianza constante:
2 2 2 4 4 2 2
( ) ( ) ( ) ( ) 2 ( )
t t t t t t t
Var v E E E E + . (3.8)
38
Para comprobar que esta expresin es una constante, observemos
primero que como
t t t
y U
y los procesos
t
U
y t
son independientes:
1) La esperanza de
4 4 4
( ) ( )
t t t
E E U ser el producto de las
esperanzas de
4
( )
t
E U y
) (
4
t
E
. Como el proceso
t
U
es de
variables normales e independientes se verifica que
4
( ) 3
t
E U , y
4 4
( ) 3 ( )
t t
E E .
2) La esperanza de
2 2
( )
t t
E U , sustituyendo
t t t
U
es igual a
2 4 2 4 4
( ) ( ) ( ) ( )
t t t t t
E U E U E E , ya que
t
U
tiene varianza igual a
uno.
Sustituyendo estos resultados en (3.8), resulta que:
) ( 2 ) (
4
t t
E v Var
,
y como t
.
En efecto, las variables t
v
no van a ser independientes ya que, por su
definicin (3.7), t
v
es funcin de
2
t
y
2
t
, y 1 t
v
lo ser de
2
1 t
y
2
1 t
.
Como
2
t
depende de
2
1 t
esto genera dependencia entre ellas. Para
comprobar que t
v
depende de
2
1 t
observemos que en (3.9)
2
t
debe ser no
negativo, por lo que la suma de
2
0 1 1 t
+ que siempre es positiva y t
v
, que
puede ser positiva o negativa, tiene que ser no negativa. En consecuencia, la
variable t
v
tendr que satisfacer que:
2
0 1 1 t t
v U
Sin embargo, es fcil comprobar que, aunque t
v
no es independiente
de
2
1 t
, est incorrelacionada con esta variable. Su covarianza es:
2 2 2 2 2 2 2 2
1 1 1 1
( ) ( ( 1) ) ( 1) ( ) 0
t t t t t t t t t
E v E U U E U E
40
En resumen, los modelos ARCH generalizan las hiptesis habituales de
un ruido blanco permitiendo dependencia, que se introduce haciendo que la
varianza condicionada no sea constante
3.3.3 Modelo ARCH(p)
El anlisis anterior puede generalizarse permitiendo una dependencia
de la varianza condicional con
p
retardos. Se obtiene as el proceso
ARCH(p) para
t t t
U
, De manera ms general, la varianza podra
depender de cualquier cantidad de volatilidades rezagadas donde ahora
escribiremos el modelo ARCH (p) como:
2 2 2 2
0 1 1 2 2 t t t p t p
+ + + + K (3.10)
La cual se puede reescribir como de la forma:
2 2
0
1
p
t i t i
i
(3.11)
En este proceso las posibilidades de rachas de alta volatilidad
dependen de los
p
ltimos valores, la varianza margina ser:
2 2 2
1 0 1
1
( ) ( ) ( ) ( )
p
t t t t i t
i
Var E E E E
]
]
,
que implica
p
t
y Var
1
0
1
) (
lo que exige las restricciones donde
, 0
0
> 1
1
<
p
i
i
.
Estas restricciones sobre los parmetros se imponen para asegurar que
la varianza sea estrictamente positiva. Adems, la condicin
0
0
>
41
imprescindible para evitar que el proceso degenere si en algn momento se
observara
0
t
.
Si se introduce como en el caso del proceso ARCH(1), la variable
2 2
t t t
v , podemos expresar la dependencia de los cuadrados de las
observaciones como un proceso AR(P):
2 2 2 2
0 1 1 2 2 t t t p t p t
v
+ + + + + K (3.12)
donde la secuencia t
v
tiene las mismas propiedades que en el modelo
ARCH(1): variables incorrelacionadas de medio cero, varianza constante e
incorrelacionadas con los regresores. Por otro lado, estas variables no son
independientes entre s ni de los regresores, ya que la positividad de
2
t
exige que:
2 2
0 1 1
( )
t t p t p
v
> + + + K
La ecuacin (3.12) indica que existir dependencia entre los cuadrados
de las observaciones, y podramos haber utilizado esta expresin en lugar de
(3.10) para definir el proceso ARCH(p). En efecto, tomando esperanzas en
(3.12) condicionadas a los valores observados,
1 1 1
( , , )
t t
K
se obtiene
(3.10).
3.3.4 El Modelo GARCH
La identificacin de modelos ARCH conduce generalmente a modelos
de orden alto. Una idea natural es aproximar un proceso AR alto mediante
una media mvil en las varianzas. A menudo hay razones para esperar que
la varianza de
t
depender de las volatilidades pasadas que se remontan a
una gran cantidad de periodos. (Esto sucede en particular en aplicaciones de
finanzas que implican en el uso de datos diarios o semanales.) El problema
en este caso es que deben estimarse una gran cantidad de parmetros, esto
puede ser difcil de hacer con alguna precisin. Sin embargo, si reconocemos
que la ecuacin (3.10) tan solo es un modelo de rezago distribuido para
2
t
,
vemos que podemos remplazar muchos de estos valores rezagados de
2
t
42
con solo uno o dos valores rezagados de
2
t
4
. Esto conduce al modelo de
heterocedasticidad condicional autorregresiva generalizada (GARCH) o
ARCH generalizado, el cual tambin se estudiaran las propiedades de este
modelo en el caso ms simple. Se supone que la serie estudiada se ha
generado mediante
t t t
U
donde
t
U
y t
y
1
son
coeficientes positivos y por ende un valor alto para
2
t
da lugar a una mayor
varianza en el periodo siguiente y el trmino
1
;
2 2 2
( ) ( ) ( )
t t t t
Var E E
y tomando las esperanzas de (13), se tiene que:
2 2 2
0 1 1 1 1
( ) ( )
t t t
E E
+ + ,
y al ser et estacionario,
1
( ) ( )
t t
Var Var
, que implica
) ( ) (
2
1
2
t t
E E
,
implica que:
0
1 1
( )
1
t t
Var
+
4
Vase anlisis del modelo de rezago geomtrico .Pindyck y Rubinfeld, econometra modelos y pronsticos capitulo
nueve.
5
La constante
0
a en la literatura econometrita tambin toma el nombre de
6
Esta puede aparecer en algunas obras bibliografitas como
43
y para que el proceso sea estacionario
1
1 1
< +
. Es frecuente en las
aplicaciones a series de rendimientos financieros que la suma de estos dos
parmetros est cerca de la unidad.
Se escribir este modelo en la representacin de los cuadrados de las
variables introduciendo como se hizo en los procesos ARCH el proceso de
ruido blanco:
2 2
t t t
v
que, por construccin, es inmediato que es un proceso estacionario (por ser
la diferencia de procesos estacionarios) de media cero. Se comprueba igual
que en los modelos ARCH que las variables t
v
, aunque incorrelacionadas,
no son independientes. Sustituyendo
2 2
t t t
v en la ecuacin (13),
podemos escribir
2 2
0 1 1 1 1 1
( )
t t t t
v v
+ + + (3.14)
que muestra que los cuadrados de las observaciones siguen una estructura
de dependencia similar a un ARMA(1,1).
Al coeficiente
1 1
+
se le denomina persistencia y es frecuente,
en las aplicaciones a series financieras, que se estime prximo a la unidad.
Se demuestra que, llamando
( ) k
a los coeficientes de autocorrelacin al
cuadrado de la serie, se obtiene
2
1 1 1 1
2
1 1 1
(1 )
(1)
(1 2 )
Mientras que
1
1 1
( ) ( ) (1)
k
k
, 1 > k
que indica que el decrecimiento de estos coeficientes depende de la
persistencia
1 1
+
, y ser lenta si este coeficiente es prximo a la
unidad. Tambin se aprecia que en el caso particular en que
0
1
obtenemos la estructura del ARCH(1)
44
3.3.4 El Modelo GARCH (p,q)
El modelo anterior puede generalizarse permitiendo simultneamente
una estructura AR de orden
p
en la dependencia de la varianza de los
cuadrados de la serie y una estructura MA de orden
q
en la varianza
condicional. En otras palabras la varianza de hoy depende de todas la
volatilidades pasadas, con ponderaciones que declinan en forma geomtrica.
En general, se puede tener cualquier nmero de trminos ARCH y cualquier
nmero de trminos GACH. El modelo GARCH(p,q) se refieres a la siguiente
ecuacin:
2 2 2 2 2
0 1 1 1 1 t t p t p t q t q
U U
+ + + + + + K K
La cual se puede reescribir como:
2 2 2
0
1 1
p q
t i t i j t j
i j
U
+ +
(3.15)
obtenindose entonces el modelo GARCH(p, q) donde la secuencia
t
U
tiene
las mismas propiedades que en los procesos ARCH. Los parmetros de esta
ecuacin deben verificar ciertas restricciones para que la varianza sea
positiva y existan los momentos de orden superior. En particular, como la
varianza debe ser positiva,
0
0
>
,
0 , 0
j i
, y
<
) , max(
1
1 ) (
q p
i
i i
a .
Definiendo como antes las variables incorrelacionadas de media cero y
varianza constante
2 2
t t t
v , se denota la dependencia de los cuadrados
como:
max( , )
2 2
0 1
1 1
( )
p q q
t i i t t j t j
i j
+ +
ecuacin que representa un proceso ARMA en los cuadrados de las
observaciones. Se espera, en consecuencia, que los cuadrados de las
observaciones presenten estructura dinmica similar a la de un proceso
45
ARMA. Por otro lado, tomando esperanzas en esta ecuacin, se obtiene
inmediatamente que:
2 0
max( , )
1
( )
1 ( )
t
p q
i i
i
E
que implica restricciones sobre los parmetros del proceso para que sea
estacionario.
46
4. METODOLOGIA Y ANALISIS
En esta seccin se aplican las tcnicas econometrita descritas
anteriormente al anlisis de la rentabilidad diaria obtenida en el mercado de
fondos mutuos chileno.
4.1. Recopilacin previa de los datos.
El presente estudio considera las rentabilidades diarias discretas de
todas las series de cuotas de los fondos de inversin inscritas en la
asociacin chilena de administradoras de fondos mutuos.
Se construyo un ndice en base en base a las rentabilidades discretas
obtenidas para medir la evolucin del mercado.
1 1
2 1 2
1 2
1 100(1 )
1 100(1 )(1 )
1 100(1 ) (1 ) (1 )
t t
R R
R R R
R R R R
+ +
+ + +
+ + + +
M
K
Luego de esto se procedi a extraer la rentabilidad continua de esta
serie diferencindola en por el logaritmo natural del ndice creado.
1
1
ln( )
1
t
t
t
R
Y
R
+
+
Los intervalos de tiempo para este estudio han sido escogido de una
bastante meticulosa y detallista para evitar las distorsiones de informacin
que pudieron haber sido provocadas por los efectos de la Crisis Subprime.
Es por esto que se decidi extraer dos muestras de igual tamao y en dos
periodos de tiempo bastante alejados entre si, el objetivo de la primera es
intentar describir el escenario del mercado de fondos justo antes de que
sufriera los primeros shocks de volatilidad causados por los efectos
estacionales de la crisis subprime, es por esto que en esta muestra se
escogi el periodo de tiempo que abarca desde el 2 de enero hasta el 20 de
julio del 2007. Por otra parte la segunda muestra tiene por objetivo describir
el escenario justo despus de haber comenzado el periodo de reactivacin
econmica luego de la crisis subprime el cual considera desde el 2 de enero
hasta el 19 de julio del 2010.
47
Como se puede apreciar ambas muestras parten en fechas similares lo cual
da un plus adicional a esta investigacin debido a que al extraerlas es los
mismos periodos de cada ao estamos evitando que algn efecto estacional
distorsione los resultados de esta investigacin provocando algn sesgo o
inconsistencia dentro de las estimaciones.
La representacin grfica relacionada con los rendimientos diarios en el
Mercado de fondos mutuos chileno en los periodos anteriormente sealados
pueden observarse en los graficos 4.2.a y 4.2.b. En cada grfica se
presentan las 200 observaciones de resultantes de ambas muestras en los
periodos anteriormente mencionados.
Grafico 4.1.a salida de Stata 11se. Retornos diarios
para la muestra N1 del 2 de enero al 20 de julio del
2007
Grafico 4.1.b salida de Stata 11se. Retornos diarios
para la muestra N2 del 2 de enero al 19 de julio del
2010
Del anlisis grfico de la rentabilidad diaria surge claramente la existencia de
dos tipos de perodos de volatilidad.
Los perodos estables oscilan dentro de un rango de 0.002 t , y los
perodos en los cuales la volatilidad claramente se sale de dicho rango y
oscila hasta 0.006 y 0.005.
4.2. Estacionariedad
En lo referente a la estacionariedad de la serie, de la visualizacin de
los grficos 4.2.a y 4.2.b, podemos afirmar a priori que la serie es
estacionaria.
Para confirmarlo, se realiza una prueba estadstica para determinar la
existencia de Races Unitarias mediante los Test de DICKEY-FULLER y
PHILLIPS PERRON, los que arrojaron:
48
De acuerdo con los resultados obtenidos del cuadro anterior se observo
un
( ) Z t
> valor critico . Donde la hiptesis nula es que la serie es no
estacionaria. Se observa claramente que en ambos test que los estadsticos
( ) Z t
son mayores que los respectivos valores crticos al 1%, 5% y 10% de
confianza. Mediante estos datos es posible concluir que la serie es
estacionaria por lo que se rechaza la hiptesis nula de estacionariedad.
Se puede observar que el valor absoluto resultante del test Dickey-
Fuller es ampliamente superior a los valores crticos lo que nos indica que la
hiptesis nula de no estacionariedad se rechaza, lo que significa que no
existe raz unitaria, y que existe estacionariedad. Por lo tanto la serie no
necesita otro tipo de transformacin para poder trabajar con ella
7
.
4.3. Anlisis de medidas principales medidas de rentabilidad de las
muestras.
Para comenzar el anlisis comparativo de las muestras. Se partir
revisando ambos histogramas con los cual se tendr a grandes rasgos una
aproximacin intuitiva de cmo de las caractersticas comunes que poseen
ambas muestras, as como, sus diferencias mas significativas.
7
Si la variable es estacionaria la influencia de las perturbaciones se desvanece en el tiempo.
Cuadro 4.1:
Tests de raz unitaria para los retornos de las muestras
N1 y N2 para el mercado de fondos mutuos chileno
estadstico Test
estadstico
para la
muestra N1
Test
estadstico
para la
muestra N2
Valor
Critico al
1%
Valor
Critico al
5%
Valor
Critico al
10%
test DF Z(t) -10.318 -10.997 -2.587 -1.950 -1.617
test de PP Z(t) -10.768 -10.823 -3.477 -2.883 -2.573
Fuente: Intercooler Stata 11se
Grafico 4.2.a. salida de Stata 11se. Histograma de
retornos diarios para la muestra N1 del 2 de enero al
20 de julio del 2007
Grafico 4.2.b. salida de Stata 11se. Histograma de
retornos diarios para la muestra N2 del 2 de enero al
20 de julio del 2007 49
Como se puede apreciar ambos grficos se aproximan a la normal con
colas largas el grafico 4.2.a. muestra que la distribucin de los retornos tiene
la cola izquierda mas larga debido a fuertes pero aisladas cadas en los
retornos del mercado durante el periodo muestral. En tanto el grafico 4.2.b.
podemos apreciar que el tamao de las colas es similar en ambos lados
implicando que las cadas violentas en la rentabilidad fueron compensadas
con fuertes alzas de la misma magnitud.
Cuadro 4.2:
Resumen de los principales momentos de las
muestras N1 y N2 para el mercado de fondos
mutuos chileno
Estadgrafos bsicos muestra 1 muestra 2
Observaciones 200 200
media del retorno 0,000333 0,0000119
desviacin estndar 0,0012511 0,0013015
varianza 0,0000016 0,0000017
coeficiente de asimetra -0,846955 -0,3222236
coeficiente de curtosis 7,238798 5,510542
Jarque-Bera 173,639496 125,9649999
En el cuadro 4.2 se muestran los siguientes estadgrafos descriptivos:
media, desviacin estndar, skewness (coeficiente de asimetra), kurtosis
(que analiza el grado de concentracin que presentan los valores alrededor
de la zona central de la distribucin).
Como se puede apreciar al comparar las medias de los retornos existen
una gran diferencia en la rentabilidad del periodo del ao 2007 con la del
2010, por otra parte la el termino de volatilidad medido a travs de la
desviacin estndar de las muestras presenta mas levemente mas fuerte en
el periodo post-crisis. A simple vista esto estara indicando que luego de la
crisis se creo una relacin negativa en la entre el retorno esperado a un nivel
de riesgo dado, en otras palabras el retorno ajustado por riesgo se redujo
notablemente.
La ausencia de Normalidad de ambas muestras se puede demostrar a
travs de los terceros y cuartos momentos: el tercer momento esta de la
serie representado por el coeficiente de asimetra (Skewness) es de -0,8469
para la primera muestra y -0,3222 para la segunda muestra indicando que en
ambas series el valor asimtrico levemente inferior al correspondiente valor
de la distribucin normal estndar 0, indicando que en ambos casos la cola
50
izquierda es mayor a lo normal y que la primera muestra posee una
pronunciacin mayor que la segunda. El cuarto momento de estas series es
representado por la curtosis, como se aprecia en la primera muestra el
coeficiente de curtosis es de 7,238 en tanto que para segunda es de
5,510542 lo que implica que en ambos casos la curtosis es muy superior a
la que corresponde a una distribucin normal estndar de 3 y que la primera
muestra posee una cola levemente mas larga que la segunda. Finalmente
el estadstico Jarque-Bera alcanza valores de 173,6 y 125,9 para la primera y
segunda muestra respectivamente, los cuales son bastante altos, lo que
conduce a rechazar la hiptesis de normalidad para ambas muestras.
La principal conclusin para ambas muestras es que los retornos en
cuestin muestran un alto valor en la kurtosis, excediendo del valor de 3, lo
que sugiere que los retornos de estas poseen leptokurtosis
8
comparado con
una distribucin normal, esto significa es una mayor altura que la distribucin
normal con las colas ms anchas.
Por otra parte, el test de normalidad Jarque-Bera nos indica que
debemos rechazar la hiptesis nula de normalidad en ambos casos, es decir
se rechaza el supuesto de normalidad en los retornos para la muestra N 1 y
N 2.
4.4. Autocorrelacin
Como se puede apreciar en cuadro 4.3 los coeficientes que exceden
las bandas de FAC y FACP para las respectivas muestras se encuentran
resaltadas en color amarillo mostrando los puntos crticos donde se exceden
las bandas del correlograma las cuales indican el grado de autocorrelacin
para un rezago(lag) determinado al nivel de confianza de 95%.
Cuadro:4.3 resumen de coeficientes de FAC y FACP para cada muestra
AUTOCORRELACIONES
muestra 1 muestra 2
lag
FAC
calculado
FAC
banda
FACP
calculado
PAC
banda
FAC
calculado
FAC
banda
FACP
calculado
FACP
banda
1 0,24750 t 0,14684 0,24750t 0,13859 0,23826t 0,146250,23826 t 0,13859
2 -0,05020 t 0,14717 -0,11880t 0,13859 -0,00379t 0,14625-0,06420 t 0,13859
3 0,01930 t 0,14722 0,06770t 0,13859 -0,01838t 0,14630-0,00226 t 0,13859
4 0,02410 t 0,14729 -0,00550t 0,13859 -0,21790t 0,15240-0,22669 t 0,13859
5 -0,03060 t 0,14741 -0,03250t 0,13859 -0,00702t 0,152410,11321 t 0,13859
6 -0,00740 t 0,14742 0,01260t 0,13859 0,02165t 0,15247-0,02447 t 0,13859
7 -0,13720 t 0,14985 -0,15860t 0,13859 -0,09350t 0,15356-0,09599 t 0,13859
8
Distribucin leptocrtica: presenta un elevado grado de concentracin alrededor de los
valores centrales de la variable.
51
8 -0,07610 t 0,15059 0,00800t 0,13859 -0,01596t 0,15360-0,02028 t 0,13859
9 -0,00700 t 0,15060 -0,01490t 0,13859 0,01831t 0,153640,04774 t 0,13859
10 -0,06460 t 0,15113 -0,06710t 0,13859 -0,09369t 0,15473-0,11828 t 0,13859
11 -0,04530 t 0,15139 0,00120t 0,13859 -0,04283t 0,15496-0,03740 t 0,13859
12 -0,02310 t 0,15146 -0,03840t 0,13859 -0,07929t 0,15574-0,07646 t 0,13859
13 0,05910 t 0,15190 0,08600t 0,13859 -0,07301t 0,15639-0,01419 t 0,13859
14 0,18140 t 0,15601 0,14060t 0,13859 0,07740t 0,157130,04344 t 0,13859
15 0,10520 t 0,15736 0,01840t 0,13859 0,10901t 0,158570,07196 t 0,13859
16 -0,00730 t 0,15737 -0,01030t 0,13859 0,05257t 0,15891-0,01104 t 0,13859
17 0,01660 t 0,15740 0,00250t 0,13859 0,03928t 0,159090,00452 t 0,13859
18 -0,00790 t 0,15741 -0,03810t 0,13859 0,07621t 0,159790,10443 t 0,13859
19 -0,05550 t 0,15779 -0,04640t 0,13859 0,06359t 0,160280,05482 t 0,13859
20 -0,15900 t 0,16083 -0,15480t 0,13859 0,04593t 0,160530,00050 t 0,13859
Fuente: configuracin propia utilizando los datos que entrego Stata 11.se
En el caso de la primera muestra la autocorrelacin simple FAC se
encuentra en los rezagos(lag) 1 y 14, implicando que la serie podra ser
representada por un proceso AR(1) o bien por un proceso AR(14), en tanto,
en el caso de la autocorrelacin parcial de la muestra los valores crticos se
encuentran en los rezagos(lags) 1, 7, 14 y 20 lo que implica que la serie
tambin puede ser representada por un proceso MA(1), MA(7), MA(14) o
MA(20). O bien la muestra N1 tambin podra representarse por un modelo
ARMA que combinara los ordenes de procesos autorregresivos y de medias
mviles de alguno de los ordenes sealados anteriormente realizando
cuantas combinaciones se permita.
Grafico 4.3 a autocorrelacin simple de la muestra N1 Grafico 4.3 b autocorrelacin parcial de la muestra N1
Por otra parte en el caso de la segunda muestra se detecta
autocorrelacin simple (FAC) positiva en el rezago (lag) 1 y otra negativa en
el rezago 4 implicando que el modelo puede seguir un proceso
autorregresivos tanto de primer orden como de orden cuatro. Adicionalmente
tambin se detecta autocorrelacin parcial (FACP) positiva en el primer
rezago as como otras dos negativas en el cuarto y octavo rezago, lo cual
indica que el proceso estocstico de la muestra dos tambin puede ser
representado mediante un proceso de media mvil de primer, cuarto u octavo
orden. Adems este proceso tambin podra ser representado mediante un
proceso lineal ARMA combinando cualquiera de los otros dos procesos AR y
MA detectados en esta muestra.
52
Grafico 4.4 a autocorrelacin simple de la muestra N2 Grafico 4.3 b autocorrelacin parcial de la muestra N2
4.4. Determinacin del modelo que elimina la estructura dinmica en la
media
El siguiente paso luego de determinar las autocorrelaciones existentes
dentro de las series es determinar el modelo que mas se adapte a nuestras
necesidades. Como pudimos apreciar en la los grficos anteriores las
autocorrelaciones simples y parciales de cada muestra nos permiten generar
una gran variedad de modelos que explicaran el comportamiento de cada
una de forma independiente. No obstante con el objeto de encontrar el
modelo ms parsimonioso posible se ha decidido arbitrariamente generar
modelos en base a los puntos crticos que ambas muestras tengan en
comn.
Es por esto que tomado en cuenta que los puntos donde convergen las
autocorrelaciones tanto simples como parciales para ambas muestras es en
el primer rezago esta investigacin determinar procesos estocasticos lineales
de primer orden, es decir, se realizara una comparacin entre los modelos
AR(1), MA(1) y ARMA(1,1) y nos quedaremos con el modelo que mejor
represente el comportamiento de la serie para ambas muestras.
Cuadro 4. 4 resumen de coeficientes y estadsticos de prueba de los modelos AR(1)
MA(1) y ARMA(1,1) para las dos muestras.
Muestra 1 Muestra 2
AR(1) MA(1) ARMA(1,1) AR(1) MA(1) ARMA(1,1)
Constante 0,0003352 0,0003338 0,0003332 0,0000138 0,0000143 0,0000150
Componente AR 0,2473859 - -0,1329572 0,2382611 - -0,5299137
Componente MA - 0,3002026 0,4182271 - 0,2717247 0,7820529
Error medio cuadrtico 0,0000015 0,0000014 0,0000001 0,0000016 0,0000016 0,0000001
R^2 0,0609471 0,0831629 0,0763134 0,0565091 0,0685983 0,0792207
R^2 ajustado 0,0562044 0,0785324 0,0669358 0,0517440 0,0638943 0,0698727
AIC -2113,554 -2116,412 -2114,862 -2096,818 -2098,076 -2099,695
BIC -2103,659 -2106,517 -2101,669 -2086,923 -2088,181 -2086,501
Error estndar 0,0012003 0,0012090 0,0011989 0,0012608 0,0012567 0,0012449
Fuente: confeccin propia con datos extrados desde Stata 11 se
53
Como se puede apreciar se encuentran los tres modelos lineales mas
probables para cada muestra que estn analizados a travs de los criterios
ms utilizados en econometra financiera. Del cual se desprende que en
ambas muestras el criterio de akaike es el mas bajo para los proceso AR(1),
sin embargo tanto en ambas muestras los criterios de error medio cuadrtico,
error estndar y BIC indican que ambas series se comportan como un
modelo autorregresivos con medias mviles ARMA(1,1) por ende este ser el
modelo sobre el cual se realizara el resto de la investigacin.
4.5. Anlisis de residuos de los procesos ARMA (1,1)
Una vez que se establece el modelo para cada muestra que elimina
cualquier estructura dinmica existente en la media de las series, el paso
siguiente consiste en detectar si los residuos ambos procesos ARMA(1,1) se
comportan como un ruido blanco, es decir, que la esperanza del error sea
igual cero, su varianza sea
2
muestra N1 muestra N 2
ARCH(1) ARCH(6) ARCH(7) ARCH(1) ARCH(4)
Constante
0
0,0000011 0,0000008 0,0000002 0,0000013 1,09E-06
L1
1
- 0,1241104 -0,0170274 - -
L6
6
- 0,1502609 0,1036003 - -
L7
7
- - 0,9578122 - -
Fuente: confeccin propia con datos extrados desde Stata 11 se
Al calcular los parmetros para los modelos ARCH(4), ARCH(6) y
ARCH(7) se aprecia que poseen coeficientes negativos en algunos de sus
alfas, la condicin de no negatividad no se cumple y por ende estos son
descartados como alternativas para calcular las varianzas condicionales. En
otras, ambas muestras soportan un modelo ARCH(1) para el calculo de la
varianza condicional o de corto plazo
2
t
para cada muestra ser:
Grafico 4.6.a autocorrelacin del cuadrado de los
residuos para la muestra N 1
Grafico 4.5.b autocorrelacin del cuadrado de los
residuos para la muestra N 2
Cuadro 4. 6. Parmetros ARCH(P) Para Las Muestras N 1 Y N 2
56
muestra N 1 2
t-1
0,0000011+0,2044727 y
t
muestra N 2 2
t-1
0,0000013+0,1706350 y
t
Una vez establecidos los parmetros de la varianza condicional para
cada muestra se calcula la varianza de largo plazo o varianza incondicional
del modelo
2
+
+
+
Para 2 t +
2 2
2 1
2 2
2
2
2
0,00000112+0,2044758
=0,00000112+0,2044758 (-0,000422)
0,0000011563420
t t
t
t
+ +
+
+
57
Para 3 t +
2 2
3 2
2 2
3
2
3
0,00000112+0,2044758
= 0,00000112+0,2044758 (-0,000095)
0,00000112185
t t
t
t
+ +
+
+
+
+
+
Para 2 t +
2 2
2 1
2 2
2
2
2
= 0,00000131+0,1706335
= 0,00000131+0,1706335 (0,0000970066)
= 0,00000131161
t t
t
t
+ +
+
+
Para 3 t +
2 2
3 2
2 2
3
2
3
= 0,00000131+0,1706335
= 0,00000131+0,1706335 (-0,00000314037)
=0,00000131000
t t
t
t
+ +
+
+
2
2
1 0,0000017703922
1 (-0,0003813311632)
0,0000000000003
2 t +
2
2
1 0,000001156
1 0,001477
= 0,5300603217321
2
2
1 0,0000013116057
1 (-0,0003813311632)
9,0198372629829
3 t +
2
2
1 0,000001122
1 0,001477
0,5142512761140
2
2
1 0,0000013100017
1 (-0,0003813311632)
9,0088064651235
+
+
+ +
Muestra
N 2
1
3
3
2
3
1 ( (0,0000017703922 0,0000013116057 0,0000013100017)
1 (-0,0003813311632)
10,067843076670
t t
t t
+
+
+ +