You are on page 1of 110

Chapter 2

Conceptos Estadsticos
2.1 Funciones Aleatorias
Uno de los elementos ms importantes de la econometra y estadstica se
reere al concepto de funcin o variable aleatoria. En esta seccin se desar-
rollan los conceptos necesarios para entender a profundidad en qu consiste
una funcin o variable aleatoria, ilustrada con una serie de ejemplos.
Denicin. Sea S un conjunto y sea S una familia de subconjuntos de S.
S se denomina -algebra si se dan tres condiciones.
1. , S S
2. A S A
c
= SA S
3. A
n
S, n = 1, 2, 3....,

n=1
A
n
S
Ejercicio. S = {1, 2, 3, 4}. Evaluar si S = {, {1, 2, 3, 4}} es -algebra.
Este ejemplo muestra que la condicin (1) se cumple. Adems si A = {}
entonces vemos que su complemento A
c
= {{1, 2, 3, 4}} tambin pertenece a
S (condicin 2). Por ltimo, vericando la condicin (3), si A
1
= , A
2
=
{1, 2, 3, 4} entonces la unin de ambos conjuntos tambin pertenece al -
algebra:
2
n=1
A
n
S.
Ejercicio. S = {1, 2, 3, 4}. Evaluar si el conjunto S es -algebra: S =
{, {1}, {2}, {2, 3, 4}, {1, 3, 4}, {1, 2}, {3, 4}, {1, 2, 3, 4}}
3
4 CHAPTER 2 CONCEPTOS ESTADSTICOS
Aqu se puede apreciar que las dos primeras condiciones se cumplen f-
cilmente. Para el caso de la segunda condicin, si por ejemplo se dene
A = {2}, entonces su complemento A
c
est en el conjunto S y esto se d para
todo conjunto potencial A. Cada uno de los ocho elementos que pertenecen a
S pueden ser operados con el operador Uni on para todo n, y siempre es posi-
ble vericar que dicha unin pertenece al conjunto S, el conjunto -algebra.
Ejercicio. S = {1, 2, 3, 4}. Evaluar si el conjunto S es -algebra: S =
{, {1}, {2}, {2, 3, 4}, {1, 3, 4}, {1, 2, 3, 4}}
Aqu se puede apreciar que las dos primeras condiciones se cumplen f-
cilmente. Para el caso de la segunda condicin, si por ejemplo se dene
A = {2, 3, 4}, entonces su complemento A
c
est en el conjunto S y esto se
d para todo conjunto potencial A. Cada uno de los seis elementos que
pertenecen a S pueden ser operados con el operador Uni on para todo n. En
este caso es posible vericar que dicha unin no siempre pertenece al conjunto
S, por ejemplo {1, 2} / S. Luego, el conjunto S no es -algebra.
Denicin. Un par (S, S), conformado por un conjunto S y su -algebra
S de sus subconjuntos se denomina espacio medible. Cualquier conjunto
A S se denomina conjunto medible.
Denicin. Sea A el conjunto de intervalos abiertos en < :
(, b), (a, b), (a, +), (, +)
Cada -algebra que contenga A debe tambin contener todos los inter-
valos cerrados (complementos). La menor -algebra que contenga todos los
conjuntos o intervalos abiertos se denomina Borel-algebra, y se denota por
B. Cualquier conjunto que pertenezca a B se denomina conjunto de Borel.
Denicin. Sea (S, S) un espacio medible. Una medida es una funcin
real extendida : S

<, tal que se dan las siguientes tres condiciones
(

< < {, +}):


1. () = 0
2. (A) 0, A S
3. Si {A
n
}

n=1
es un conjunto de secuencias disjuntas numerables (conta-
bles) en S, entonces (

n=1
A
n
) =
P

n=1
(A
n
).
2.1 FUNCIONES ALEATORIAS 5
Denicin. Un espacio medida es una tripleta (S, S, ), donde S es un
conjunto, S es el -algebra de sus subconjuntos, y es una medida denida
en S.
Denicin. Si (S) = 1, entonces no se denomina medida sino que
medida de probabilidad, y la tripleta (S, S, ) se denomina espacio de prob-
abilidad, en lugar de espacio de medida. Luego en este caso el conjunto
medible A S se denomina evento, y (A) se denomina probabilidad del
evento A. Aqu usualmente se cambia la notacin a P(A), es decir la tripleta
es (S, S, P).
Denicin. Dado un espacio medible (S, S), una funcin de valor real
es medible con respecto a S, es decir es S-medible, si:
{ S|() < x} S, x < (2.1)
Si este espacio es un espacio de probabilidad, entonces se denomina
VARIABLE ALEATORIA.
Ejemplo. Considere el conjunto S = {1, 2, 3, 4}, y el -algebra S =
{, {1}, {2}, {2, 3, 4}, {1, 3, 4}, {1, 2}, {3, 4}, {1, 2, 3, 4}}. Sea : S <,
donde:
(1) = 20
(2) = 5
(3) = 6
(4) = 7
Para vericar si es una funcin medible, se debe analizar la condicin
representada en la denicin de lo que es una funcin medible:
Si x = 1 { S|() < x} = S
Si x = 6.5 { S|() < x} = {2, 3} / S
Si x = 7.5 { S|() < x} = {2, 3, 4} S
Luego dado que para x = 6.5 la condicin no se cumple, entonces no es
una funcin medible.
1
1
S hubiese sido el caso que (3) = (4) = c, para alguna constante c, entonces la funcin
habra sido medible.
6 CHAPTER 2 CONCEPTOS ESTADSTICOS
Finalmente, dado que { S|() < x} S, se le puede aplicar el
operador , puesto que : S

<, es decir:
({ S|() < x})

<
en donde si es una medida de probabilidad, entonces:
P ({ S|() < x}) [0, 1]
2.2 Funciones de Distribucin de Densidad
Toda variable aleatoria X puede ser representada a travs de una funcin de
probabilidad de conjuntos, la cual en su representacin contnua se denota
por:
P (A) =
Z
A
f (x) dx
o para el caso generalizado de un conjunto A con k = 1, 2, ..., K elementos:
P (A) =
Z
...
Z
A
f (x
1,
x
2,
x
3,
...x
K
) dx
1
dx
2
dx
3
...dx
K
La funcin de probabilidades asociada a un evento se puede represen-
tar por la gura N

2.1, donde el rea sombreada denota la probabilidad de


ocurrencia del evento A = {X = x|a < x < b}, asociada a que la variable
aleatoria X tome un valor entre a y b.
Considerando que A S, las funciones de probabilidad son no negativas,
es decir f (x) 0, y tienen la caracterstica de que P(S) = 1, lo cual puede
ser representado por:
P (S) =
Z
S
f (x) dx = 1
o para el caso generalizado de un conjunto S con n elementos:
P (S) =
Z
...
Z
S
f (x
1,
x
2,
x
3,
...x
n
) dx
1
dx
2
dx
3
...dx
n
= 1
Ejemplo. Considere el evento A = {x|0 < x < 1}. Si f(x) = e
x
,
entonces:
P (A) =
Z
A
f (x) dx =
Z
1
0
e
x
dx = 1
1
e

2.2 FUNCIONES DE DISTRIBUCIN DE DENSIDAD 7


Figure 2.1: Funcin de Distribucin Univariada
Ejercicio. Sea la funcin de densidad f(x, y) =

6x
2
y si x (0, 1), y (0, 1)
0 en otro caso

.
La probabilidad de que ocurra el evento A =

(x, y)|0 < x <
3
4
,
1
3
< y < 2

se denota por
R 3
4
0
R
1
1
3
6x
2
ydxdy =
3
8
.
2.2.1 Distribuciones Condicionales y Marginales
El teorema de Bayes que di existen dos eventos A y B, entonces P [A, B] =
P [A] P [B|A] = P [B] P [A|B] y que para el caso en que A,B son eventos
independientes, P [A, B] = P [A] P [B].
De igual manera podemos analizar funciones de distribucin contnuas. Si
por ejemplo x
1
, x
2
son v.a. con una funcin de distribucin conjunta f (x
1
, x
2
)
entonces podemos denir a la funcin de distribucin marginal de x
1
y de x
2
8 CHAPTER 2 CONCEPTOS ESTADSTICOS
respectivamente como:
f
0
(x
1
) =
Z

f (x
1
, x
2
) dx
2
f
0
(x
2
) =
Z

f (x
1
, x
2
) dx
1
Dado la denicin de la funcin de distribucin marginal y en conjunto
con el teorema de Bayes, es posible denir la distribucin para x
1
condicional
en x
2
, y la distribucin para x
2
condicional en x
1
respectivamente como:
f (x
1
|x
2
) =
f (x
1
, x
2
)
f
0
(x
2
)
f (x
2
|x
1
) =
f (x
1
, x
2
)
f
0
(x
1
)
donde es posible vericar que
R

f (x
1
|x
2
) dx
1
=
R

f (x
2
|x
1
) dx
2
= 1:
Z

f (x
1
|x
2
) dx
1
=
Z

f (x
1
, x
2
)
f
0
(x
2
)
dx
1
=
1
f
0
(x
2
)
Z

f (x
1
, x
2
) dx
1
=
1
f
0
(x
2
)
f
0
(x
2
)
= 1
Ejercicio. Si f (x
1
, x
2
) =

2, si 0 < x
1
< x
2
< 1
0 en otro caso

, entonces:
f
0
(x
1
) =
Z

f (x
1
, x
2
) dx
2
=
Z
1
x
1
2dx
2
= 2|
1
x
1
= 2 (1 x
1
)
f
0
(x
2
) =
Z

f (x
1
, x
2
) dx
2
=
Z
x
2
0
2dx
1
= 2|
x
2
0
= 2x
2
f (x
1
|x
2
) =
f (x
1
, x
2
)
f
0
(x
2
)
=
2
2x
2
=
1
x
2
f (x
2
|x
1
) =
f (x
1
, x
2
)
f
0
(x
1
)
=
2
2 (1 x
1
)
=
1
(1 x
1
)
Z

f (x
1
|x
2
) dx
1
=
Z

2
2x
2
dx
1
=
1
x
2
(x
2
0) = 1
Z

f (x
2
|x
1
) dx
2
=
Z

2
2 (1 x
1
)
dx
2
=
1
(1 x
1
)
(1 x
1
) = 1
2.2 FUNCIONES DE DISTRIBUCIN DE DENSIDAD 9
2.2.2 Funcin Generadora de Momentos
La funcin generadora de momentos, si existe (condicin de integrabilidad),
y dado que es nica, permite obtener todos los momentos de una distribucin
que sea factible generar. Para el caso en que tenemos X
1
, X
2
, ...., X
n
v.a.,
podemos denir a la funcin generadora de momentos M como:
M (
1
,
2
, ...,
n
) = E

1
X
1
+
2
X
2
+...
n
X
n

= E

1
X
1
e

2
X
2
...e

n
Xn

= E

1
X
1

2
X
2

.....E

n
X
n

= M (
1
) M (
2
) .....M (
n
)
=
n
i=1
M (
i
)
expresin vlida si las v.a. son independientes entre s.
Al deribar dos veces la funcin generadora de momentos con respecto al
parmetro
i
y evaluando tales deribadas en un vector de
i
= 0, se obtiene:
M (0, 0, ..., 0)

i
= E[X
i
]

2
M (0, 0, ..., 0)

2
i
= E

X
2
i

de manera que la varianza de una v.a. X


i
se puede generar a partir de:

2
=

2
M (0, 0, ..., 0)

2
i

M (0, 0, ..., 0)

2
= E

X
2
i

[E[X
i
]]
2
2.2.3 Independencia Estocstica
Sean X
1
, X
2
, ...., X
n
v.a. Entonces sern estocsticamente independientes si
se da que la funcin f (x
1
, x
2
, ...., x
n
) que se denomina de verosimilitud, se
puede expresar como multiplicaciones de densidades marginales de cada v.a.,
es decir:
f (x
1
, x
2
, ...., x
n
) = f
0
(x
1
) f
0
(x
2
) ...f
0
(x
n
) =
n
i=1
f
0
(x
i
)
10 CHAPTER 2 CONCEPTOS ESTADSTICOS
Ejercicio. Veriquemos si X
1,
X
2
son estocsticamente independientes,
cuando la funcin de densidad conjunta est denida por:
f (x
1
, x
2
) =

x
1
+x
2
si 0 < x
1
< 1 y 0 < x
2
< 1
0 en otro caso

En este caso tenemos que las funciones marginales sern:


f
0
(x
1
) =
R
1
0
(x
1
+x
2
) dx
2
= x
1
+
1
2
si 0 < x
1
< 1
0 en otro caso

f
0
(x
2
) =
R
1
0
(x
1
+x
2
) dx
1
=
1
2
+x
2
si 0 < x
2
< 1
0 en otro caso

Luego es posible vericar si f (x


1
, x
2
)
?
= f
0
(x
1
) f
0
(x
2
).

x
1
+x
2
si 0 < x
1
< 1 y 0 < x
2
< 1
0 en otro caso

?
=

x
1
+
1
2
0

1
2
+x
2
0

Claramente (x
1
+x
2
) 6=

x
1
+
1
2

1
2
+x
2

, luego X
1
, X
2
NO son estocsti-
camente independientes.
2.2.4 Funciones de Distribucin ms Conocidas
Existen diversas formas funcionales para describir una variable aleatoria,
dependiendo primordialmente de si es contnua o discreta. A continuacin se
detalla las principales funciones de probabilidades para variables aleatorias
discretas y continuas, presentando las principales caractersticas de cada una
de ellas.
2.2 FUNCIONES DE DISTRIBUCIN DE DENSIDAD 11
Table 2.1: Funciones de Distribucin Discretas
Nombre Notacin
Funcin FGM Media-Varianza
Binomial x b (n, p)
n!
x!(nx)!
p
x
1
(1 p
1
)
nx
, x = 0, 1, 2, ....
[(1 p
1
) +p
1
e
t
]
n
np
1
np
1
(1 p
1
)
Trinomial x, y t (n, p
1
, p
2
)
n!
x!y!(nxy)!
p
x
1
p
y
2
(1 p
1
p
3
)
nxy
, x, y = 0, 1, 2, ....
[(1 p
1
p
2
) +p
1
e
t
1
+p
2
e
t
2
]
n
E[X]=np
1
E[Y ]=np
2

2
x
=np
1
(1 p
1
)
2
y
=np
2
(1 p
2
)
Poisson x P ()

x
e

x!
, x = 0, 1, 2, ....
e
(e
t
1)

Una de las funciones ms utilizadas en econometra con el n de testear
hiptesis sobre algun parmetro (o combinacin lineal de parmetros) es la
t-Student. Como ancdota, W. S. Gossett fue quien descubri esta distribu-
cin mientras trabajaba en la empresa de cervezas Guinness. Esta estipulaba
que no era permitido publicar el trabajo de los miembros de su equipo, lo
cual lo llev a publicarla bajo el pseudnimo de Student. La siguiente gura
presenta una grca entre la normal estandarizada y una t-Student de 4 gra-
dos de libertad.
12 CHAPTER 2 CONCEPTOS ESTADSTICOS
4 2 0 -2 -4
0.5
0.375
0.25
0.125
0
x
y
x
y
Funcin de Distribucin N(0, 1) y t-Student con = 5 (azul)
Existen teoremas que permiten relacionar distintas funciones de distribu-
cin. Entre los ms utilizados consideremos los siguientes:
Teorema. Si una v.a es generada por una funcin de distribucin normal
estandarizada, entonces el cuadrado de esa variable se distribuye segn una
chi-cuadrada con un grado de libertad. Es decir, analticamente, si xN(0, 1)
enronces x
2

2
(1).
Teorema. Si existe un vector de v.a cada una generada por una distribu-
cin
2
cada una con sus respectivos grados de libertad, entonces la suma
de ellas tambin posee una distribucin chi-cuadrada y posee los grados de
libertad que resultan de sumar individualmente los grados de libertad de sus
componentes. Es decir, analticamente, si x
1

2
(r
1
), x
2

2
(r
2
), x
3

2
(r
3
),
...., y x
n

2
(r
n
), entonces
P
n
i=1
x
i

2
(
P
n
i=1
r
i
).
Ejercicio. Considere una funcin de distribucin Poisson denida por:
f (x) =

x
e

x!
para x = 0, 1, 2, .....
0 de otra manera

La funcin generadora de momentos para esta Poisson es:


M (t) =

X
x=0

x
e

x!
e
tx
= e


X
x=0
(e
t
)
x
x!
2.2 FUNCIONES DE DISTRIBUCIN DE DENSIDAD 13
y se sabe que
P

x=0

x
x!
e

, entonces:
M (t) = e

e
e
t
= e

(
e
t
1
)
=

M
0
(0) =
M
00
(0) = +
2

=
2
P
=
Dado lo anterior, si asumimos que = 2, entonces cul es la probabili-
dad de que x 1?
P [X 1] = 1 P [X = 0]
= 1 f (0)
= 1
2
0
e
2
0!
= 1 e
2
= 0.865
Siguiendo con la funcin de distribucin Poisson, cul es la probabilidad
de que X est entre 0 y 8, excluyendo 0 y 8?
P [0 < X < 8] = P [X 7] P [X = 0]
= 0.949 0.018
= 0.931
Ejercicio. Si sabemos que:
x
1
N (
1
,
2
1
) =M
x
1
(t) = e

1
t+

2
1
t
2
2

x
2
N (
2
,
2
2
) =M
x
2
(t) = e

2
t+

2
2
t
2
2

entonces cul es la distribucin de Y = X


1
+X
2
, si ambas son variables
estocsticamente independientes?
M
y
(t) = E

e
tY

= E

e
t(X
1
+X
2
)

= E

e
tX
1

e
tX
2

= e

1
t+

2
1
t
2
2

2
t+

2
2
t
2
2

= e

(
1
+
2
)t+
(

2
1
+
2
2
)
t
2
2
!
= Y N

1
+
2
,
2
1
+
2
2

14 CHAPTER 2 CONCEPTOS ESTADSTICOS


Ejercicio. Si XN (0, 1), entonces cul es la distribucin de Y = X
2
?
Para responder esta pregunta podemos partir de la funcin generadora de
momentos de Y :
M
y
(t) = E

e
tY

= E
h
e
tX
2
i
=
Z

e
tx
2

2
e

x
2
2
dx
=
Z

2
e

(12t)x
2
2
dx
Mediante una transformacin de variables z = x
p
(1 2t), por lo tanto:
z
2
= x
2
(1 2t)
dz = dx

1 2t
es decir que:
M
y
(t) =
Z

2
e

z
2
2

1 2t
dz
pero como
R

2
e

z
2
2
dz = 1, entonces:
M
y
(t) = (1 2t)

1
2
Recordando que la funcin generadora de momentos para una chi-cuadrado
es
M

2 (t) = (1 2t)

r
2
entonces podemos decir que Y
2
(1) .
Ejercicio. Sabemos que si V
2
(r) y WN (0, 1), entonces T =
W

V
r
t (r).
Dado lo anterior, cul es la distribucin de t
2
?
Sabemos que t
2
=
W
2
V
r
donde en numerador es
2
(1) y el numerador del
denominador sigue una
2
(r). ESto implica que la funcin t
2
sigue una
distribucin Fisher, con grados de libertad 1 y r, es decir t
2
F (1, r) .
2.3 Momentos de una Distribucin
Sea x una v.a. cuya pdf se representa por f(x).
Denicin. La expectativa matemtica de U(X) se representa por:
2.3 MOMENTOS DE UNA DISTRIBUCIN 15
E[U (X)] =
Z

U (x) f (x) dx =
X
x
U (x) f (x)
Para el caso de un vector de eventos X
1
, X
2
, X
3
, ..., X
n
se tiene que:
E[U (X
1
, X
2
, X
3
, ..., X
n
)] =
Z

.....
Z

U (x
1
, x
2
, x
3
, ..., x
n
)
f (x
1
, x
2
, x
3
, ..., x
n
) dx
1
dx
2
dx
3
....dx
n
Como tal, es posible demostrar que la expectativa matemtica de una
poderacin de v.a. es equivalente a la ponderacin de las expectativas matemti-
cas, es decir:
E
"
n
X
i=1
h
i
x
i
#
=
n
X
i=1
h
i
E[x
i
]
Ejercicio. Sea f (x) =

2 (1 x) , x (0, 1)
0, x / (0, 1)

.
E[X] =
Z

xf (x) =
Z
1
0
2 (1 x) dx =
1
3
E

X
2

=
Z

x
2
f (x) =
Z
1
0
2x(1 x) dx =
1
6
E

6X
2
+ 3X

= 6E

X
2

+ 3E[X] = 2
2.3.1 Media y Varianza
Los primeros momentos ms comunes en el anlisis de cualquier serie es
la media y la varianza (o desviacin estndar). Utilizando la nomenclatura
anterior, es posible decir que para el caso especial donde U (X) = x, entonces
la media poblacional se dene por, E[X] = , y si ahora U (X) = (X )
2
,
entonces la varianza poblacional se denir por: E

(X )
2

=
2
.
El clculo de la varianza se simplica al utilizar el siguiente resultado,
que indica que la varianza de una v.a es equivalente a la diferencia entre el
valor esperado del cuadrado de la variable y el cuadrado del valor esperado
16 CHAPTER 2 CONCEPTOS ESTADSTICOS
de la variable, es decir:

2
= E

(X )
2

= E

X
2
2X +
2

= E

X
2

2E[X] +
2
= E

X
2

{E[X]}
2
De esta ltima expresin se verica por qu en el campo de las nanzas
es usual asumir que la varianza de los retornos de un activo son equivalentes
al promedio de los retornos histricos del activo, especialmente cuando se
trabaja con series de tiempo de alta frecuancia como pueden ser datos diarios.
Es comn asumir que el valor esperado de un activo utilizando datos diarios
es nulo, de manera que tal aproximacin es vlida. En captulos posteriores
se analizan aplicaciones cuando la volatilidad de los retornos de un activo
es variable y se modela a partir de los retornos histricos (vase modelos
GARCH).
2.3.2 Skewness
El tercer momento de una pdf se denomina skewness, y determina el grado
de asimetra que posee una distribucin. Para el caso de funciones simtricas
como la normal o la t-student, este coeciente es cero, y analticamente se
representa por:
S
k
=
1
T
3
T
X
t=1
(x
i
)
3
donde T representa al tamao muestral.
Este indicador indica si la cola ms larga de la distribucin se encuentra
desviada hacia la derecha, centrada o desviada hacia la izquierda de la dis-
tribucin. Si la cola ms larga se encuentra hacia la izquierda (derecha) de
la distribucin, el coeciente de skewness ser negativo (positivo) y se dir
que la distribucin es sesgada a la izquierda (derecha).
Como todo estimador, el coeciente tiene su propia distribucin que se
deriva asintticamente, y que permite hacer inferencia con muestras nitas.
La distribucin es una normal, con media cero y varianza 6/T, lo cual rep-
2.3 MOMENTOS DE UNA DISTRIBUCIN 17
resentamos para T = 20, 50, 100 por la funcin de densidad:
f (s) =
1
q
2

6
T

e
0.5

s
2
6/T

S
k
a
N

0,
6
T

2 1 0 -1 -2
1.5
1.25
1
0.75
0.5
0.25
0
x
y
x
y
Funciones de Distribucin para el Coeciente de Skewness: T = 20, 50, 100
La hiptesis nula H
0
: S
k
= 0 se evala a travs de una tabla normal
estandarizada con el siguiente estadstico:
z
S
k
=

S
k
q
6
T
N (0, 1)
En la medida que este estadstico sea superior en valor absoluto a 1.96 se
dir que rechazamos la hiptesis nula de que el coeciente de skewness tiene
un valor cero, es decir cumple con una de las caractersticas que posee una
distribucin normal.
Una alternativa es trabajar con los valores de probabilidad, que entregan
el rea bajo la curva evaluada desde el valor del estadstico z
S
k
y el innito.
Si esta probabilidad P [ > z
S
k
] > %, entonces diremos que rechazamos la
hiptesis nula con un % de signicancia.
18 CHAPTER 2 CONCEPTOS ESTADSTICOS
2.3.3 Kurtosis
El cuarto momento se denomina kurtosis, y determina si las colas tienen una
masa o altura superior, igual, o inferior a la de una distribucin normal. El
coeciente de Kurtosis adopta un valor de 3 si las v.a. son generadas de una
normal, y analticamente se representa por:
K =
1
T
4
T
X
t=1
(x
i
)
4
La medida de referencia de este coeciente para una distribucin normal
es de 3 (mesokrtica), de manera que si el estadstico es mayor que 3, entonces
la funcin tiene caractersticas de leptokurtosis (K > 3), mientras que si
la distribucin tiene un coeciente menor a 3, entonces esta se denomina
platykrtica (K < 3).
La funcin de distribucin del coeciente de kurtosis es 1/
2
p
(2 24/100)
exp

0.5

(x 3)
2
/ (24/100))

f (s) =
1
q
2

24
T

e
0.5

(s3)
2
24/T

K
a
N

3,
24
T

2.3 MOMENTOS DE UNA DISTRIBUCIN 19


6 4 2 0
1
0.75
0.5
0.25
0
x
y
x
y
Funciones de Distribucin para el Coeciente de Kurtosis: T = 20, 50, 100
Para testear la hiptesis nula de que K = 3 debemos calcular el estads-
tico:
z
K
=

K 3
q
24
T
N (0, 1)
En la medida que este estadstico sea superior en valor absoluto a 1.96 se
dir que rechazamos la hiptesis nula de que el coeciente de kurtosis tiene
un valor de tres, es decir cumple con una de las caractersticas que posee una
distribucin normal.
2.3.4 Test de Normalidad de Jarque-Bera
Tal como se menciona en la seccin de funciones de distribucin, si sumamos
dos funciones de distribucin chi-cuadradas, la funcin resultante tambin
obedece a una distribucin chi-cuadrada, teniendo los grados de libertad
que resultan de sumar los grados de libertad de las funciones de densidad
individuales.
Con este antecedente Jarque y Bera desarrollaron un estadstico que
evala en forma conjunta la hiptesis nula si el coeciente de skewness y
Kurtosis toman valores de 0 y 3 respectiva y conjuntamente.
20 CHAPTER 2 CONCEPTOS ESTADSTICOS
Para generar el estadstico requiero sumar el cuadrado de dos funciones
de distribucin estandarizadas como son z
S
k
y z
K
:
(z
S
k
)
2
+ (z
K
)
2

2
(2)
=


S
k
q
6
T

2
+


K 3
q
24
T

2
(2)
= JB =
T
6

S
2
k
+
1
4


K 3

2
(2)
Tal como se genera el estadstico cabe mencionar que este indicador tiene
una cota inferior en cero, es decir que no puede ser inferior a cero, de manera
que en la medida que se aleja de 0, ya sea porque el coeciente de skewness
se aleja de 0 o porque el coeciente de kurtosis diere de 3, aumenta la
probabilidad de rechazar la hiptesis nula de que la distribucin generadora
de los datos proviene de una distribucin normal.
2.3.5 Aplicacin: Indice Accionario NASDAQ
Utilizando datos diarios del ndice NASDAQ desde el 5 de febrero de 1971
(fecha de su creacin) al jueves 8 de marzo del ao 2001, analicemos las
conclusiones que podemos obtener al analizar los cuatro primeros momentos
de la distribucin de los retornos de este ndicador. La gura N

2.2, elaborada
entrega los estadsticos relevantes para este anlisis, junto con un histograma
de los retornos accionarios del NASDAQ.
El retorno promedio diario es de 0.044518% de manera que el retorno anu-
alizado (multiplicando por 240 das hbiles) corresponde a 10.68% promedio.
De igual manera la desviacin estndar diaria del NASDAQ alcanza a 0.89%,
lo cual a tasa anualizada (multiplicando por

240 ) representa un 13.78%.


El coeciente de skewness del 1.24 genera un estadstico z de:
z
S
k
=
1.24
q
6
7106
= 42. 674
lo cual permite rechazar la hiptesis nula de que el coeciente de skewness
es cero.
2.3 MOMENTOS DE UNA DISTRIBUCIN 21
0
500
1000
1500
2000
2500
-12.5 -10.0 -7.5 -5.0 -2.5 0.0 2.5 5.0 7.5
Serie: Retornos del NASDAQ
Sample Febrero 1971 - Marzo 2001
Observations 7106
Media 0.044518
Mediana 0.109189
Mximo 7.086021
Mnimo -12.04784
Dev. St. 0.889491
Skewness -1.238488
Kurtosis 17.14976
Jarque-Bera 61097.15
Probabilidad 0.000000
Figure 2.2: Histograma y Estadsticos Bsicos del NASDAQ
De igual manera el coeciente de kurtosis que alcanza a 17.15, genera un
estadstico z de:
z
K
=
17.15 3
q
24
7106
= 243. 48
es decir rechazamos con fuerza que los retornos puedan ser representados por
una funcin con coeciente de kurtosis de 3. Las caractersticas de leptokur-
tosis son muy tpicas de los retornor de precios de activos nancieros. Gran
presencia de retornos alejados del centro de la distribucin (outliers) posi-
tivos y negativos hacen que esta sea muy concentrada en la media y adems
en los extremos de la distribucin.
El test de Jarque-Bera viene a complementar este resultado. El estadstico
toma un valor de 61,097.15, lo cual claramente queda fuera del nivel crtico
de una chi-cuadrado con dos grados de libertad. La probabilidad que se
reporta es cercana a cero, indicando en este caso que la probabilidad de que
los retornos del NASDAQ provengan de una distribucin normal es casi nula.
22 CHAPTER 2 CONCEPTOS ESTADSTICOS
Cdigo GAUSS: Estadsticos Descriptivos
Un cdigo en GAUSS que se puede utilizar para generar el clculo
de estos estadsticos se presenta a continuacin (utilizando los datos
del NASDAQ):
load p[7107,1]=a:\nasdaq.txt;
r=ln(p./lag1(p))*100;
r=r[2:rows(r)];
La Media es : ;;meanc(r);
La STDC es : ;;stdc(r);
La STDCs es : ;;stdc(r)*sqrt((rows(r)-1)/rows(r));
La Minc es : ;;minc(r);
La Maxc es : ;;maxc(r);
s=1/(rows(r)*stdc(r)^3)*sumc((r-meanc(r))^3);
La Skewness : ;;s;
El P-Value del Skewness es : ;;cdfnc(abs(s));
k=1/(rows(r)*stdc(r)^4)*sumc((r-meanc(r))^4);
La Kurtosis : ;;k;
El P-Value del Kurtosis es : ;;cdfnc(abs(k));
jb=rows(r)/6*(s^2+.25*(k-3)^2);
El Jarque-Bera Statistic es : ;;jb;
El P-Value del JB es :;;cdfchic(jb,2);
2.4 Inferencia
Dado que no es posible conocer los valores de los parmetros poblacionales,
la econometra nos ayuda a obtener una aproximacin de estos a travs de
los parmetros estimados con al muestra disponible. El punto consiste en
tener una mtrica para evaluar la exactitud de estos estimadores puntuales.
Sesgo, eciencia y error cuadrtico medio son tres propiedades que se pueden
estudiar para los estimadores.
2.4 INFERENCIA 23
2.4.1 Sesgo
Denicin. Un estimador

de un parmetro poblacional se dice insesgado
si su media muestral es . Es decir:
E
h

i
=
O alternativamente, si denimos sesgo como la diferencia entre el valor
esparado y el valor poblacional de un parmetro, entonces

se dir insesgado
si su sesgo es cero, es decir:
Sesgo
h

|
i
= E
h


i
= 0
Ejercicio. Demuestre que la denicin para la varianza poblacional s
2
es
insesgada:
s
2
=
P
t=T
t=1
(x
t
x)
2
T 1
Para demostrar esta proposicin, es suciente recordar que el siguiente
estadstico tiene una distribucin chi-cuadrado con (T 1) grados de libertad,
es decir que:
(T 1)
s
2

2
(T 1)
Como el valor esperado de una chi-cuadrado es equivalente a sus grados de
libertad, es decir en este caso T 1 (y la varianza es igual al doble de sus
grados de libertad, 2(T 1)), entonces dado que:
E

2
(T 1)

= (T 1)
= s
2


2
(T 1)

2
(T 1)
= E

s
2

=

2
(T 1)
(T 1)
= E

s
2

=
2

es decir el valor esperado del estimador s


2
es insesgado pues su esperanza
matemtica es igual al valor poblacional del parmetro analizado
2
.
24 CHAPTER 2 CONCEPTOS ESTADSTICOS
2.4.2 Eciencia
Puede darse el caso en que se tenga dos estimadores insesgados y sea necesario
decidir cul se utilizar para hacer la estimacin del parmetro poblacional.
Idealmente si tenemos dos estimadores insesgados "es mejor" escoger aquel
que es "ms certero" en su estimacin, es decir aquel que posee una distribu-
cin "ms angosta" o centrada en su valor medio. Un concepto que est
ligado a este segundo momento de la distribucin es el de eciencia.
Denicin. Un estimador insesgado

1
es ms eciente que otro estimador
insesgado

1
, si la varianza muestral del primer estimador es inferior a la
varianza muestral del segundo estimador. Es decir,

1
es ms eciente que

2
si:
V

< V

Sin embargo, existe la posibilidad de verse obligado a escoger entre dos


estimadores, uno de los cuales es insesgado pero de gran varianza, mientras
existe otro que est levemente sesgado pero es de menor varianza. Para
solucionar tal ambiguedad se ha desarrollado el concepto de Error Cuadrtico
Medio (ECM), el cual pondera de manera equivalente el sesgo (al cuadrado)
y la varianza de los estimadores, de manera que uno puede descanzar en este
criterio para escoger el estimador que posee menor ECM.
Denicin. El Error Cuadrtico Medio (ECM) se dene por:
ECM

= E

= E

+E

= E

+E
h
2

i
+
E

= E

+E

=
h
Sesgo

i
2
+V arianza

Ejercicio. Los estimadores ms conocidos para la varianza poblacional


2.4 INFERENCIA 25
son el s
2
y el estimador de mxima verosimilitud
2
MLE
. Analice las carac-
tersticas de los ambos estimadores:
s
2
=
P
t=T
t=1
(x
t
x)
2
T 1

2
MLE
=
P
t=T
t=1
(x
t
x)
2
T
Es til considerar que (T 1)
s
2

2
(T 1) de manera que analicemos
primero las caractersticas de sesgo de ambos estimadores:
s
2


2
(T1)

2
(T 1)

2
MLE

2
T

2
(T 1) =
(T1)
T
s
2
Al aplicar operador expectativa podemos ver que el estimador
2
MLE
es ses-
gado mientras que s
2
es insesgado:
E[s
2
] = E
h

2
(T1)

2
(T 1)
i
=

2
(T1)
E[
2
(T 1)] =
2
E


2
MLE

= E
h

2
T

2
(T 1)
i
=
(T1)
T
E [s
2
] =
(T1)
T

2
<
2
E


2
MLE

<
2
= E[s
2
]
Esto nos indica que el sesgo de
2
MLE
es distinto de cero:
E


2
MLE

=
(T 1)
T

2

2
=
1
T

2
< 0
Con respecto a la varianza de ambos estimadores, sabemos que la varianza
de una distribucin chi-cuadrado es equivalente al doble de sus grados de
libertad, de manera que fcilmente podemos vericar el valor de las varianzas
para ambos estimadores:
V [s
2
] = V
h

2
(T1)

2
(T 1)
i
=


2
(T1)

2
V [
2
(T 1)] =


2
(T1)

2
2 (T 1)
V


2
MLE

= V
h

2
T

2
(T 1)
i
=

(T1)
T

2
V [s
2
] =

4
T
2

2 (T 1)
V


2
MLE

< V [s
2
]
26 CHAPTER 2 CONCEPTOS ESTADSTICOS
podemos constatar que la varianza del estimador
2
MLE
es menor a la
varianza del estimador insesgado s
2
, de manera que para escoger procedamos
a calcular el ECM de cada estimador, y el criterio consistira en escoger aquel
estimador con menor ECM:
ECM (s
2
) =


4
(T1)
2

2 (T 1) =
4
h
2
(T1)
i
ECM


2
MLE

=

4
T
2
+

4
T
2

2 (T 1) =
4

2T1
T
2

Considerando que ECM




2
MLE

< ECM (s
2
), vemos que el estimador ses-
gado es ms preciso pues la menor varianza de este ms que compensa la
ponderacin que recibe el sesgo en la funcin ECM.
2.5 Generacin de Nmeros Aleatorios
2.5 GENERACIN DE NMEROS ALEATORIOS 27
Table 2.2: Funciones de Distribucin Continuas
Nombre Notacin
Funcin FGM Media-Varianza
Gamma x (, )
1
()

x
1
e
x

, 0 < x <
(1 t)


2
Exponencial x

1,
1

e
x
, 0 < x <

1
t

1
1

2
Chi-Cuadrada x
2
(r, )
1
(
r
2
)2
r
2
x
r
2
1
e
x
2
, < x <
(1 2t)

r
2
e
t
(12t)
r + 2r + 4
Normal x N (,
2
)
1

2
2
e

1
2
(x)
2

2
, < x <
e

t+

2
t
2
2


2
T-Student t t(r)
T =
zN(0,1)
q
V
2
(r)
r
0
r
r2
F-Fisher F(r
1
, r
2
) F =
u
2
(r
1
)
r
1
v
2
(r
2
)
r
2
Part II
Modelos de Regresin
29
Chapter 3
Modelo con una Variable
Explicativa
3.1 Modelo Simple
El modelo de regresin simple con una variable explicativa la podemos rep-
resentar por:
y
t
=
0
+
1
x
t
+
t
para todo t = 1, 2, ...., T (3.1)
Esta expresin se puede representar grcamente considerando por ejem-
plo un modelo cuyo coeciente de posicin es 100 y cuya pendiente o coe-
ciente de sensibilidad (semielasticidad) es 0.9, es decir para el modelo terico
y = 100 + 0.9 x.
31
32CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
5 2.5 0 -2.5 -5
104
102
100
98
96
x
y
x
y
Ecuacin de la Lineal Recta: y = 100 + 0.9 x
Dado que E[y
t
|x
t
] =
0
+
1
x
t
entonces se puede decir que:
y
t
= E[y
t
|x
t
] +
t
En general toda variable puede descomponerse en una parte determins-
tica y una estocstica . Una vez que estimamos el modelo poblacional con
datos muestrales llegamos a que la variable dependiente o endgena y
t
se
descompone en una parte estimada y un residuo muestral:
y
t
=

0
+

1
x
t
+e
t
y
t
=

0
+

1
x
t
y
t
= y
t
+e
t
e
t
= y
t

0
+

1
x
t
El mtodo de los mnimos cuadrados ordinarios consiste en estimar los
coecientes a travs de un proceso de minimizacin de la siguiente funcin
de prdida, conocida como la suma de los residuos al cuadrado (SRC):
$(
0
,
1
) =
t=T
X
t=1
e
2
t
=
t=T
X
t=1

y
t

1
x
t

2
3.1 MODELO SIMPLE 33
Analticamente lo que el mtodo de mnimos cuadrados hace es encontrar
un punto mnimo en la supercie de una cierta funcin $ encontrando el par
de coecientes

0
y

1
a travs restringir que el gradiente o las pendientes
de esta funcin es cero en ambas dimensiones. Gracamente se representa
por la siguiente funcin correspondiente al sigueinet problema cuto mnimo
se encuentra en el punto (0.005, 0.4158):
P
x
i
= 6
P
y
i
= 3
P
y
i
x
i
= 15
P
x
2
i
= 36
P
y
2
i
= 10 T = 100
Vizualizacin del Mtodo de los Mnimos Cuadrados
Para esto se requiere de obtener las condiciones necesarias de primer orden
(CNPO) que correspponden a las primeras derivadas las cuales se igualan a
cero para generar un ptimo:
$(
0
,
1
)

0
= 0
$(
0
,
1
)

1
= 0
Segn nuestro modelo estas ecuaciones se denominan ecuaciones normales
y se pueden escribir como:
34CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
2
t=T
X
t=1

y
t

1
x
t

= 0
2
t=T
X
t=1
x
t

y
t

1
x
t

= 0
o de manera equivalente y de ms fcil recordacin (al dividir por 2):
t=T
X
t=1
e
t
= 0
t=T
X
t=1
x
t
e
t
= 0
El nmero de ecuaciones normales es equivalente al nmero de incgnitas
del modelo, es decir el conjunto de parmetros a estimar. Utilizando una
representacin extensiva de las ecuaciones normales, estas se pueden escribir
como:
t=T
X
t=1
y
t
= T

0
+

1
t=T
X
t=1
x
t
t=T
X
t=1
y
t
x
t
=

0
t=T
X
t=1
x
t
+

1
t=T
X
t=1
x
2
t
lo cual implica que la solucin (en representacin recursiva) de este sis-
tema es:

0
=
P
t=T
t=1
y
t
T

1
P
t=T
t=1
x
t
T
= y

1
x

1
=
P
t=T
t=1
(x
t
x) (y
t
y)
P
t=T
t=1
(x
t
x)
2
=
P
t=T
t=1
(x
t
x) y
t
P
t=T
t=1
(x
t
x)
2
Ejercicio. A partir de la siguiente informacin para Y y X, determine los
estimadores mnimo cuadrados para
0
y
1.
Y 2 4 6 8 10
X 1 2 3 4 5
Claramente los valores estimados corresponden a

0
= 0 y

1
= 2.
3.1 MODELO SIMPLE 35
3.1.1 Aplicacin: Betas Financieros en Indice DowJones
Consideremos los datos semanales (marzo 1994 a marzo 2001) del ndice
de precios de acciones americano Dow Jones y a seis de sus componentes
(Citigroup, General Electric, Wal-Mart, Microsoft, Exxon, y Phillip Morris).
El parmetro estimado

1
representa el coeciente beta que representa la
correlacin que existe entre los retornos de una accin y el valor de mercado.
Analticamente el modelo a estimar corresponde a:
(R
it
R
ft
) =
0
+
1
(R
DJt
R
ft
) +
t
, i = 1, 2, ...6, y t.
donde R
it
corresponde al retorno en t de la accin i, R
ft
es la tasa libre
de riesgo, medida a travs de la letra del tesoro americano a tres meses, y
R
DJt
es el retorno diario del Dow Jones en t.
Activo

1
Citigroup 0.135131 1.609109
General Electric 0.115481 1.205445
Wal-Mart 0.040995 1.150044
Microsoft 0.383609 0.941912
Exxon 0.077849 0.639781
Phillip Morris 0.110858 0.631160
La gran volatilidad relativa de la accin de Citigroup versus los retornos
del mercado se deduce de que el parmetro beta asociado alcanza un valor
de 1.61, es decir que si el Dow Jones cae en 2%, entonces el valor de las
acciones de Citigroup caer en 3.2%, es decir un 61% adicional. De igual
manera si el Dow Jones sube en un 5% entonces la accin de Citigroup subir
en un 8% aproximadamente. Esta caracterstica hace que esta accin sea
altamente riesgosa y deba tener una baja (alta) ponderacin en un portafolio
conservador (agresivo).
Phillip Morris tiende a ser la accin ms estable en relacin al mercado,
por lo que su porcentaje debiera ser alto (bajo) en un portafolio conservador
(agresivo).
36CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
3.2 Caractersticas del Modelo de Regresin
La metodologa de la estimacin de mnimos cuadrados, introduce ciertas
caractersticas a los residuos y estimaciones de la variable dependiente que
son interesantes de destacar.
3.2.1 Suma de residuos muestrales es nulo
La primera tiene que ver con que el valor medio de los residuos es nulo, lo
cual implica que la suma de los residuos es igual a cero.
t=T
X
t=1
e
t
= 0
Esta caracterstica es bastante trivial pues se deduce de la misma metodologa
de los mnimos cuadrados, la cual impone a travs de su primera ecuacin
normal que esta suma sea cero.
Si el modelo de regresin posee una constante entonces la primera derivada
parcial, o primera expresin de ecuacin normal, indicar que la suma de los
residuos muestrales es cero. Sin embargo si el modelo no posee una constante
en su formulacin, esta condicin no necesariamente se cumplir pues nunca
surge como condicin necesaria de primer orden al no tener nunca que derivar
con respecto a este parmetro. Puede sin embargo darse el caso que la rep-
resentacin de la data haga que este parmetro sea efectivamente cero, por
ejemplo si las series Y, X se entregan en forma de desviacin de sus propias
medias, lo cual implicara que la suma de estos residuos tambin lo ser.
3.2.2 Las series actuales y estimadas tienen igual me-
dia
Esta caracterstica se deduce de la nocin que el valor actual de la variable
dependiente se puede descomponer en lo que estima el modelo y el residuo
3.2 CARACTERSTICAS DEL MODELO DE REGRESIN 37
(lo que no estima el modelo):
y
t
= y
t
+e
t
=
t=T
X
t=1
y
t
=
t=T
X
t=1
y
t
+
t=T
X
t=1
e
t
=
1
T
t=T
X
t=1
y
t
=
1
T
t=T
X
t=1
y
t
+
1
T
t=T
X
t=1
e
t
pero como sabemos los residuos muestrales tienen una media de cero, es
decir su sumatoria es nula, luego:
1
T
t=T
X
t=1
y
t
=
1
T
t=T
X
t=1
y
t
= y =
_
y
Una implicania de esta condicin es que la metodologa de los mnimos
cuadrados hace que la curva de regresin que pasa a travs de la nube de
puntos pase justo por el punto que representa a la media de X y la media de
Y .
3.2.3 Los residuos no se correlacionan con la variable
independiente
Sabemos que el coeciente de correlacin entre es

eX
=
P
t=T
t=1
(e
t
e) (x
t
x)
q
P
t=T
t=1
(e
t
e)
2
q
P
t=T
t=1
(x
t
x)
2
=
P
t=T
t=1
e
t
(x
t
x)
q
P
t=T
t=1
(e
t
e)
2
q
P
t=T
t=1
(x
t
x)
2
Luego para vericar si el coeciente de correlacin muestral entre el
residuo y la variable independiente es nulo, bastara con demostrar que la
covarianza entre ellos es nula tambien. Es as coo trabajando numricamente
con el numerador se tiene:
t=T
X
t=1
e
t
(x
t
x) =
t=T
X
t=1
e
t
x
t
x
t=T
X
t=1
e
t
38CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
Pero como sabemos de las condiciones de ortogonalidad, las ecuaciones
normales para

0
y

1
nos indican que los residuos ponderados por unos y
por la variable independiente x suman cero, es decir:
t=T
X
t=1
e
t
= 0
t=T
X
t=1
x
t
e
t
= 0
luego podemos decir que
P
t=T
t=1
e
t
(x
t
x) = 0, de manera que el coe-
ciente de correlacin es tambin cero:
eX
= 0.
3.2.4 Los residuos no se correlacionan con la variable
dependiente estimada
Al igual que para el caso anterior, es suciente analizar que el numerador de
la denicin sea nulo, es decir:

eX
=
P
t=T
t=1
(e
t
e) ( y
t
y)
q
P
t=T
t=1
(e
t
e)
2
q
P
t=T
t=1
( y
t
y)
2
=
P
t=T
t=1
e
t
( y
t
y)
q
P
t=T
t=1
(e
t
e)
2
q
P
t=T
t=1
( y
t
y)
2
luego debemos analizar si
P
t=T
t=1
e
t
( y
t
y) = 0.
Dado que y
t
=

0
+

1
x
t
, entonces podemos decir que:
t=T
X
t=1
e
t
y
t
y
t=T
X
t=1
e
t
=
t=T
X
t=1
e
t
y
t
=
t=T
X
t=1
e
t

0
+

1
x
t

0
t=T
X
t=1
e
t
+

1
t=T
X
t=1
e
t
x
t
= 0
Esta ltima igualdad proviene de las dos ecuaciones normales arriba men-
cionadas:
P
t=T
t=1
e
t
= 0 y
P
t=T
t=1
e
t
x
t
= 0.
3.3 EVALUACIN DEL AJUSTE: R
2
39
3.3 Evaluacin del Ajuste: R
2
Qu tan buen ajuste efecta el modelo a los datos es la pregunta que con-
testa el coeciente de determinacin R
2
. Este explica que porcentaje de la
volatilidad de la variable dependiente es explicada por el modelo.
Para llegar a tal representacin es necesario recordar que:
y
t
= y
t
+e
t
= y
t
=

0
+

1
x
t
+e
t
= y
t
=
z }| {
y

1
x+

1
x
t
+e
t
= y
t
y =

1
(x
t
x) +e
t
= (y
t
y)
2
=

2
1
(x
t
x)
2
+e
2
t
+ 2

1
(x
t
x) e
t
=
t=T
X
t=1
(y
t
y)
2
=

2
1
t=T
X
t=1
(x
t
x)
2
+
t=T
X
t=1
e
2
t
+ 2

1
t=T
X
t=1
(x
t
x) e
t
pero sabemos que el trmino de la derecha
P
t=T
t=1
(x
t
x) e
t
es igual a
cero, luego:
=
t=T
X
t=1
(y
t
y)
2
=

2
1
t=T
X
t=1
(x
t
x)
2
+
t=T
X
t=1
e
2
t
= SCT = SCE +SCR
= R
2
=
SCE
SCT
= 1
SCR
SCT
= 1
P
t=T
t=1
e
2
t
P
t=T
t=1
(y
t
y)
2
De esta ltima expresin se puede concluir que el mtodo de los mnimos
cuadrados lo que hace indirectamente es maximizar el R
2
de un modelo, pues
el denominador no es modicable ni dependiente del vector de parmetros

, de manera que exiete una dualidad en ambos objetivos, es decir Min


P
t=T
t=1
e
2
t
Max R
2
.
Adicionalmente n o es difcil demostrar que existe una equivalencia entre
el coeciente de determinacin y el coeciente de correlacin entre Y y X.
Para esto, recordemos que SCE =

2
1
P
t=T
t=1
(x
t
x)
2
y que el parmetro de
semielasticidad

1
=
P
t=T
t=1
(xt x)(yt y)
P
t=T
t=1
(xt x)
2
, entonces reemplazando esta expresin
en la denicin de R
2
llegamos a:
40CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
R
2
=
SCE
SCT
=

2
1
P
t=T
t=1
(x
t
x)
2
P
t=T
t=1
(y
t
y)
2
=
= R
2
=
"
P
t=T
t=1
(x
t
x) (y
t
y)
P
t=T
t=1
(x
t
x)
2
#
2 P
t=T
t=1
(x
t
x)
2
P
t=T
t=1
(y
t
y)
2
= R
2
=
h
P
t=T
t=1
(x
t
x) (y
t
y)
i
2
P
t=T
t=1
(x
t
x)
2
P
t=T
t=1
(y
t
y)
2
= R
2
=

P
t=T
t=1
(x
t
x) (y
t
y)
q
P
t=T
t=1
(x
t
x)
2
q
P
t=T
t=1
(y
t
y)
2

2
= R
2
= [
Y X
]
2
Ejercicio. Considere la siguiente informacin generada de una base de
datos de coeciente intelectual (variable y) y horas promedio de ver televisin
(variable exgena x) de un grupo de n = 50 adolecentes:
y = 30 x = 15 n = 1, ..., 50
P
(y
i
y)
2
= 200
P
(x
i
x)
2
= 80
P
(x
i
x) (y
i
y) = 45
Se le pide computar el valor de los coecientes considerando un modelo de
regresin lineal del tipo y
i
=
0
+
1
x
i
+
i
. Adicionalmente obtenga el R
2
de la regresin estimada.
Para primero determinar el valor de los coecientes debemos recordar las
frmulas de ambos estimadores y de all comenzar a reemplazar los datos que
se nos entregan en la matriz anterior:

1
=
P
i=N
i=1
(x
i
x) (y
i
y)
P
i=N
i=1
(x
i
x)
2
=
P
i=50
i=1
(x
i
x) (y
i
y)
P
i=50
i=1
(x
i
x)
2

1
=
45
80
= 0.562 5
Reemplazando en la funcin que determina el coeciente de posicin

0
:

0
= y

1
x

0
= 30 (0.562 5) 15 = 38. 438
3.4 SUPUESTOS BSICOS SOBRELOS RESIDUOS POBLACIONALES41
Ahora para calcular el coeciente de deternminacin R
2
debemos calcular la
razn de la suma de los cuadrados del modelo (o explicada) con la suma de
los cuadrados totales, es decir R
2
=
SCE
SCT
.
R
2
=
SCE
SCT
=

2
1
P
i=50
i=1
(x
i
x)
2
P
i=50
i=1
(y
i
y)
2
= (0.562 5)
2

80
200
= 0.126 56
Es decir el modelo explica solamente un 12.656% de la volatilidad de la
variable endgena o dependiente y, y la relacin encontrada y = 38. 438
0.562 5 x, se puede representar por la siguiente grca:
5 2.5 0 -2.5 -5
41.25
40
38.75
37.5
36.25
x
y
x
y
Representacin Grca del Modelo Estimado
3.4 Supuestos Bsicos sobre los Residuos Pobla-
cionales
Un paso absolutamente necesario para hacer inferencia consiste en imponer
ciertos supuestos sobre los residuos poblacionales del modelo de regresin lin-
eal. Estos permitirn que las distribuciones resultantes nos permitan efectuar
diferentes tests de hiptesis a partir de las estimaciones de los coecientes.
Consideremos el modelo
y
t
=
0
+
1
x
t
+
t
42CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
La siguiente lista conforma los supuestos estndares que permitirn hacer
inferencia sin tener que correjir el modelo estimado, y que permite tener
estimadores insesgados y ecientes (consistentes):
1. Los errores tericos tienen un valor esperado cero, es decir que de
existir una distribucin para estos residuos, ella se asume centrada en cero:
E[
t
] = 0 t
2. Existe homoscedasticidad de los residuos tericos, de manera que la
varianza de los errores poblacionales es similar e independientemente de t:
V [
t
] =
2
t
3. No hay autocorrelacin de los residuos, esto indica que los residuos
entre si son ortogonales:
Cov [
t
,
tk
] = 0 t y k 6= 0
4. No hay correlacin entre el residuo poblacional
t
y la variable exgena
x
t
, es decir con esto se impone una condicin de ortogonalidad de los residuos
con la variable exgena:
Cov [x
t
,
tk
] = 0 t y k
5. Finalmente el supuesto ms importante se reere a la necesidad de que
los residuos provengan de una distribucin normal:

t
N
Estas cinco condiciones se asumen presentes en un modelo de regresin
simple y se pueden resumir notacionalmente al decir que el residuo tiene una
distribucin normal, idntica, e independiente distribuida, con valor esperado
cero y varianza constante
2
. Es decir:

t
iid
N

0,
2

t
Estos supestos permitiran determinar cul es la distribucin de los esti-
madores mnimo cuadrados de manera de que podamos comenzar a evaluar
hiptesis que involucren a los parmetros poblacionales
0
y
1
.
3.5 DISTRIBUCIN DE LOS ESTIMADORES 43
3.5 Distribucin de los Estimadores
Partamos del supuesto general ya discutido que seala que
t
iid
N (0,
2
) t.
El procedimiento de determinacin de las distribuciones de los estimadores
pasa por distorcionar o cambiar la forma de la distribucin de los residuos
para as llegar nalmente a la distribucin de
0
y
1
.
Entonces si modicamos la distribucin por una constante
0
+
1
x
t
(es
decir se traslada o "mueve" por una constante
0
+
1
x
t
) se obtiene:

0
+
1
x
t
+
t
iid
N

0
+
1
x
t
,
2

t
pero sabemos que y
t
=
0
+
1
x
t
+
t
lo cual indica que la distribucin de
la variable endgena es equivalente a la distribucin del residuo poblacional,
pero desplazada por una constante:
y
t
iid
N

0
+
1
x
t
,
2

t
Esto indica que E [y
t
|X = x
t
] =
0
+
1
x
t
pues el residuo tiene un valor
esperado de cero E[
t
] = 0.
Teniendo esto en cuenta recordemos que:

1
=
P
t=T
t=1
(x
t
x) (y
t
y)
P
t=T
t=1
(x
t
x)
2
=
P
t=T
t=1
(x
t
x) y
t
P
t=T
t=1
(x
t
x)
2
Si reemplazamos la denicin de y
t
en el modelo y multiplicamos cada factor
se llega a:

1
=
P
t=T
t=1
(x
t
x) y
t
P
t=T
t=1
(x
t
x)
2
=
P
t=T
t=1
(x
t
x) (
0
+
1
x
t
+
t
)
P
t=T
t=1
(x
t
x)
2
=
=
0
P
t=T
t=1
(x
t
x)
P
t=T
t=1
(x
t
x)
2
+
1
P
t=T
t=1
(x
t
x) x
t
P
t=T
t=1
(x
t
x)
2
+
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
Pero se puede demostrar que
P
t=T
t=1
(x
t
x) = 0 y que
P
t=T
t=1
(x
t
x) x
t
=
P
t=T
t=1
(x
t
x)
2
, de manera que llegamos a que el estimador para

1
se rep-
resenta por:

1
=
1
+
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
44CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
A partir de la expresin anterior es posible derivar los dos primeros mo-
mentos de este estimados, como una primera etapa antes de determinar es-
peccamente cul es la funcin de distribucin que la genera.
3.5.1 Sesgo
Sabemos que:

1
=
1
+
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
= E
h

1
i
= E
"

1
+
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
#
= E
h

1
i
=
1
+E
"
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
#
= E
h

1
i
=
1
+
P
t=T
t=1
(x
t
x) E[
t
]
P
t=T
t=1
(x
t
x)
2
pues las covarianzas son nulas, entonces dado que el valor esperado del error
es cero se llega nalmente a que el estimador

1
es un estimador insesgado
de
1
:
E
h

1
i
=
1
3.5.2 Varianza
Al igual que en caso del sesgo, partimos de la ecuacin fundamental que nos
seala que:

1
=
1
+
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
= V
h

1
i
= V
"

1
+
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
#
= V
h

1
i
= V [
1
] +V
"
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
#
+ 2Cov
"

1
,
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
#
3.5 DISTRIBUCIN DE LOS ESTIMADORES 45
sin embargo las covarianzas entre los errores y la variable exgena son nulas,
y adems la varianza de una constante como
1
tambin es nula, de manera
que:
V
h

1
i
= V
"
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
#
= V
h

1
i
=
V
h
P
t=T
t=1
(x
t
x)
t
i

P
t=T
t=1
(x
t
x)
2

2
= V
h

1
i
=
P
t=T
t=1
(x
t
x)
2
V [
t
]

P
t=T
t=1
(x
t
x)
2

2
luego dado que por supuesto de homoscedasticidad V [
t
] =
2
entonces:
V
h

1
i
=
P
t=T
t=1
(x
t
x)
2

P
t=T
t=1
(x
t
x)
2

2
=
2
P
t=T
t=1
(x
t
x)
2

P
t=T
t=1
(x
t
x)
2

2
V
h

1
i
=
2
1
P
t=T
t=1
(x
t
x)
2
Con este procedimiento se ha demostrado entonces que:

1
,
2
1
P
t=T
t=1
(x
t
x)
2
!
de igual manera para el estadstico

0
:

0
,
2
"
1
T
+
x
2
P
t=T
t=1
(x
t
x)
2
#!
3.5.3 Gauss-Markov
Bajo las condiciones de Gauss-Markov, que indican t:
(i) E[
t
] = 0,
(ii) V [
t
] =
2
,
(iii) Cov [
t
,
t+k
] = 0, k 6= 0,
46CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
(iv) Cov [x
t
,
t+k
] = E[x
t

t
] xE[
t
] = E[x
t

t
] = 0, k = 0,
entonces los estimadores mnimo cuadrados, sern los mejores estimadores
lineales insesgados, es decir los estimadores que son una funcin lineal a la
data, insesgados y de menor varianza.
La demostracin consiste en demostrar que un estimador que cumple con
estas condiciones, efectivamente es el estimador de mnimos cuadrados.
Demostracin Teorema Gauss-Markov para

1
Sabemos que el estimador de mnimos cuadrados para
1
es:

1
=
P
t=T
t=1
(x
t
x) y
t
P
t=T
t=1
(x
t
x)
2
=
t=T
X
t=1
a
t
y
t
donde a
t
=
(xt x)
P
t=T
t=1
(x
t
x)
2
.
Supongamos que existe un estimador alternativo denido por:

GM
1
=
t=T
X
t=1
a
t
y
t
La demostracin consiste en encontrar a
t
y vericar que efectivamente
sea equivalente al a
t
denido en el estimador

1
.
Que deba ser linela a la muestra signica que el potencial estimador debe
cumplir con la condicin de que:

GM
1
=
t=T
X
t=1
a
t
y
t
Utilizando la denicin del modelo y
t
=
0
+
1
x
t
+
t
, podemos generar la
restriccin de insesgamiento requerido:

GM
1
=
t=T
X
t=1
a
t
y
t
=
t=T
X
t=1
a
t
(
0
+
1
x
t
+
t
)

GM
1
=
0
t=T
X
t=1
a
t
+
1
t=T
X
t=1
a
t
x
t
+
t=T
X
t=1
a
t

t
E
h

GM
1
i
=
0
t=T
X
t=1
a
t
+
1
t=T
X
t=1
a
t
x
t
3.5 DISTRIBUCIN DE LOS ESTIMADORES 47
pues
P
t=T
t=1
a
t

t
=
P
t=T
t=1
a
t
E [
t
] = 0. Luego las condiciones de insesgamiento
sern que:
t=T
X
t=1
a
t
= 0
t=T
X
t=1
a
t
x
t
= 1
Ya hemos exigido a nuestro potencial estimador que sea lineal e insesgado,
y lo que queda ahora es exigir que sea el mejor, es decir el de menor varianza
disponible. Para esto denamos la varianza del estimador

GM
1
:
V
h

GM
1
i
= V
"

0
t=T
X
t=1
a
t
+
1
t=T
X
t=1
a
t
x
t
+
t=T
X
t=1
a
t

t
#
=
t=T
X
t=1
a
2
t
V [
t
]
=
2
t=T
X
t=1
a
2
t
Luego el problema se reduce a encontrar el parmetro a
t
que cumpla
con las condiciones de insesgamiento y de mnima varianza, problema que
podemos representar por:
Min
t=T
X
t=1
a
2
t
s.a.
t=T
X
t=1
a
t
= 0
t=T
X
t=1
a
t
x
t
= 1
El lagrangeano asociado a este problema ser:
$
{a
t
,,}
=
t=T
X
t=1
a
2
t
+
t=T
X
t=1
a
t
+

1
t=T
X
t=1
a
t
x
t
!
48CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
Las condiciones necesarias de primer orden (CNPO) son:
$
a
t
= 2a
t
+ x
t
= 0
$

=
t=T
X
t=1
a
t
= 0
$

= 1
t=T
X
t=1
a
t
x
t
= 0
De la primera CNPO podemos decir que:
2a
t
x
t
+x
t
x
2
t
= 0
= 2
t=T
X
t=1
a
t
x
t
+
t=T
X
t=1
x
t

t=T
X
t=1
x
2
t
= 0
= 2 +
t=T
X
t=1
x
t

t=T
X
t=1
x
2
t
= 0
Adems sumando directamente sobre la primera CNPO se tiene:
2
t=T
X
t=1
a
t
+T
t=T
X
t=1
x
t
= 0
pero como
P
t=T
t=1
a
t
= 0, entonces:
= x
Reemplazando esta ltima expresin en:
2 +
t=T
X
t=1
x
t

t=T
X
t=1
x
2
t
= 0
2 + x
t=T
X
t=1
x
t

t=T
X
t=1
x
2
t
= 0
= =
2
P
t=T
t=1
x
2
t
T x
2
3.5 DISTRIBUCIN DE LOS ESTIMADORES 49
luego dado que 2a
t
+ x
t
= 0 entonces reemplazando para llegamos a:
a
t
=
x
t

2
=

2
(x
t
x)
a
t
=
(x
t
x)
P
t=T
t=1
x
2
t
T x
2
=
(x
t
x)
P
t=T
t=1
(x
t
x)
2
Queda as demostrado que el estimador que cumple con las condiciones de
Gauss-Markov es el estimador de mnimos cuadrados ordinarios.
3.5.4 Normalidad
A partir del supuesto de normalidad de los residuos es posible determinar la
distribucin que adoptan los estimadores mnimo cuadrado. Sabemos que:

t
N

0,
2

/ (x
t
x)
(x
t
x)
t
N

0, (x
t
x)
2

/
t=T
X
t=1
t=T
X
t=1
(x
t
x)
t
N

0,
t=T
X
t=1
(x
t
x)
2

2
!
/
1
P
t=T
t=1
(x
t
x)
2
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
N

0,
2
"
1
P
t=T
t=1
(x
t
x)
2
#
2
t=T
X
t=1
(x
t
x)
2

P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
N

0,

2
P
t=T
t=1
(x
t
x)
2
!
/ +
1

1
+
P
t=T
t=1
(x
t
x)
t
P
t=T
t=1
(x
t
x)
2
N

,

2
P
t=T
t=1
(x
t
x)
2
!

1
N

1
,

2
P
t=T
t=1
(x
t
x)
2
!
Siguiendo igual procedimiento para el estimador

0
podemos resumir la
distribucin multinormal del vector de estimadores del modelo de regresin
simple como:

2
h
1
T
+
x
2
P
t=T
t=1
(xt x)
2
i


2
x
P
t=T
t=1
(xt x)
2


2
x
P
t=T
t=1
(x
t
x)
2

2
P
t=T
t=1
(x
t
x)
2

50CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
Pero aqu surge el primer problema al querer efectuar un anlisis inferen-
cial. Se desconoce la varianza del error
2
.
Dado que el residuo tiene una distribucin
t
N (0,
2
), entonces sabe-
mos que
2
= E [
2
t
] (E[
t
])
2
= E[
2
t
]. Luego parecera natural que el
estimador de la varianza fuera
2
=
P
t=T
t=1

2
t
T
. Sin embargo este estimador
no cumple con la condicin de insesgamiento. Recordemos que el estadstico
(T k)
s
2

2
(T k). Entonces s
2


2
(Tk)

2
(T k), lo cual implicar que
dado que el valor esperado de una funcin de distribucin chi-cuadrada es
equivalente a sus grados de libertad, entonces:
E

s
2

= E


2
(T k)

2
(T k)

s
2

=

2
(T k)
E

2
(T k)

s
2

=

2
(T k)
(T k)
E

s
2

=
2
Luego el estadstico s
2
=
P
t=T
t=1
e
2
t
Tk
ser un estimador insesgado de la varianza
poblacional
2
. El costo de utilizar un estimador para la varianza poblacional
consiste en que ya no es posible tericamente utilizar la distribucin normal
para hacer inferencia.
Recordemos que si tenemos dos variables aleatorias independientes zN (0, 1)
y V
2
(r), entonces la razn
z

V
r
tiene una distribucin t de student con
r grados de libertad. Es decir en nuestro caso tenemos:
t

1
=

1
r

2
P
t=T
t=1
(x
t
x)
2
r
(Tk)
s
2

2
(Tk)
t

1
=

1
q
s
2
P
t=T
t=1
(x
t
x)
2
t (T 2)
De igual manera para

0
:
3.5 DISTRIBUCIN DE LOS ESTIMADORES 51
t

0
=

0
s

1
T
+
x
2
P
t=T
t=1
(x
t
x)
2

r
(Tk)
s
2

2
(Tk)
t

0
=

0
r
s
2
h
1
T
+
x
2
P
t=T
t=1
(x
t
x)
2
i
t (T 2)
Este estadstico nos permite hacer inferencia respecto al valor que toma
el parmetro estimado

0
y

1
. Adems podemos construir intervalos de
conanza para los parmetros a partir de un nivel de signicancia subjetivo
y de las estimaciones de varianzas de los parmetros. Por ejemplo si denimos
como la desviacin estndar estimada del parmetro estimado

0
como

0
,
entonces el intervalo de conanza para
0
ser:

0
|t

0
Es decir:

0
|t

0

0

0
+|t

0
De igual manera para el parmetro
1
se tiene:

1
|t

1

1

1
+|t

1
3.5.5 Areas de Conanza
Dado que sabemos que

,
2
(x
0
x)
1

donde C = (x
0
x)
1
es una matriz simtrica y denida positiva, entonces
existe una matriz P que cumple con la condicin C
1
= P
0
P.
Denamos las variables z
1
y z
2
como:

z
0
z
1

= P

52CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
entonces la varianza del vector ser:
V

z
0
z
1

= PV

P
0
V

z
0
z
1

= P
2
CP
0
como C
1
= P
0
P =C = P
1
(P
0
)
1
, entonces:
V

z
0
z
1

= P
2
CP
0
= P
2

P
1
(P
0
)
1

P
0
=
2
I
lo que nos indica que
z
0

N (0, 1) y
z
1

N (0, 1). Es decir que z


0
N (0,
2
) y
z
1
N (0,
2
), de manera que los cuadrados de estos estadsticos obedecen a
una distribucin chi-cuadrada con un grado de libertad:

z
2
0

2
(1)
z
2
1

2
(1)

z
2
0
+z
2
1

2
(2)
Trabajando este concepto matricialmente llegamos a que:
h
z
0
z
1
i

z
0
z
1

1
0
P
0
P

1
0
C
1

2
(2)
Dado que desconocemos
2
la estimamos a travs de s
2
, lo cual nos obliga a
utilizar una distribucin alternativa para el test o creacin del trea de con-
anza. Como (T k) s
2

2
(T k), entonces la razn de dos chi-cuadradas
ponderadas por sus grados de libertad genera una F de Fisher:
=
[

1
]
0
C
1
[

1
]
2
2
(Tk)s
2

2
(Tk)
=

1
0
C
1

2s
2
F (2, T k)
3.5 DISTRIBUCIN DE LOS ESTIMADORES 53
La regin o rea de conanza es equivalente a:
P ( < F

) = 1
y estar denido por la siguiente ecuacin de la elipse:
= a
00

2
+a
11

2
+ 2a
01

con a
ij
=
C
1
ij
2s
2
=
1
2s
2
(x
0
x)
1
ij
.
Ejercicio. Consideremos un modelo que entrega los siguientes resulta-
dos como producto del proceso de estimacin de una base de datos de 100
observaciones:

1.45
0.84

con una matriz de varianzas y covarianzas estimada para los parmetros de:

0.136 31 0.171 48
0.171 48 0.266 04

La inversa de la matriz de varianzas y covarianzas estimada de los parmet-


ros estimados obtenida ser:

1
=

38.8 25.01
25.01 19.88

Como sabemos que la expresin para calcular la regin o rea de conanza es


= a
00

2
+ a
11

2
+ 2a
01

, entonces
reemplacemos los valores que se obtienen de los clculos anteriores, con-
siderando un nivel de signicancia del 95% y 99%, para T k = 100 2
grados de libertad, es decir para F
0.95
(2, 98)

= 2.9 y F
0.99
(2, 98)

= 4.4.
1
2

38.8 (1.45
0
)
2
+ 19.88 (0.84
1
)
2
+ 2 25.01 (1.45
0
) (0.84
1
)

= 2.9
1
2

38.8 (1.45
0
)
2
+ 19.88 (0.84
1
)
2
+ 2 25.01 (1.45
0
) (0.84
1
)

= 4.4
54CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
Si desearamos evaluar la hiptesis puntual de que ambos estimadores sumaran
por ejemplo 2, es decir si H
0
:
0
+
1
= 2, entonces podemos vizualizar dicha
hiptesis en el grco incorporando la ecuacin
0
+
1
= 2 en la gura sigu-
iente. Si esta pasa por la regin de conanza entonces no rechazamos la
hiptesis. La elipse ms grande representa el rea de conanza del 99%
mientras que la elipse concentrica interior representa el rea de 95%.
3 2.5 2 1.5 1 0.5 0
3
2
1
0
-1
Beta 0
Beta 1
Beta 0
Beta 1
Areas de 95 y 99% de Conanza para
0
,
1
.
Ejercicio. A partir de estimar el siguiente modelo de regresin Y =
X +, y considerando la siguiente informacin:
e
0
e = 100
T = 70
x
0
x =

50 0
0 50

x
0
y =

0
300

Encuentre analtica y grcamente el intervalo de conanza del 95% para


los coecientes (
0
,
1
). A la luz de su gura, rechazara la hiptesis H
0
:
3.5 DISTRIBUCIN DE LOS ESTIMADORES 55

0
+
1
= 0?
El rea de conanza se obtiene de aplicar la frmula:
F =
1
2

0
h

i
1

F
95%
(2, T k)
Para esto requerimos de los estimadores de los parmetros y de la matriz de
varianzas y covarianzas estimada de estos parmetros:

= (x
0
x)
1
x
0
y =

50 0
0 50

0
300

0.0
6.0

=
e
0
e
T k
(x
0
x)
1
=
140
72 2

50 0
0 50

1
=

0.04 0.0
0.0 0.04

Luego aplicamos la frmula:


F =
1
2

0
h

i
1

F
95%
(2, T k)
F =
1
2

0
1
6
2

0.04 0.0
0.0 0.04

0
1
6
2

F =
1
2

0
1
6
2

25.0 0.0
0.0 25.0

0
1
6
2

F = 12. 5
2
1
+ 12.5(6
2
)
2
= 3.13 = F
95%
(2, 70)
Esta es la ecuacin de un circulo que est centrado en las ordenadas (0, 6).
Recordemos que la frmula del crculo es:
(

1
)
2
+ (

2
)
2
= r
2
lo cual aplicado a nuestro problema ser:
12.5
2
1
+ 12.5(6
2
)
2
= 3.13

2
1
+ (6
2
)
2
=
3.13
12.5
= 0.250 4 = 0.5004
2
56CHAPTER3 MODELOCONUNAVARIABLEEXPLICATIVA
De manera que el radio de esta circunferencia ser de 0.500 40 para una rea
de conanza generada con 95%. El crculo concentrico exterior se gener con
un nivel de conanza del 99%:
F = 12. 5
2
1
+ 12.5(6
2
)
2
= 4.92 = F
99%
(2, 70)
1 0.5 0 -0.5 -1
7
6.5
6
5.5
5
x
y
x
y
Grco de la Elipse (Crculo)
5 2.5 0 -2.5 -5
5
2.5
0
-2.5
-5
x
y
x
y
Grco de la Restriccin o Hiptesis Nula
Con respecto al anlisis de la hiptesis nula, desde un punto de vista grco,
dado que la recta que representa a la hiptesis nula
0
=
1
no pasa cerca
del rea de conanza calculado, locual nos hara rechazar la hiptesis nula.
Chapter 4
Modelo de Regresin Mltiple
El modelo de regresin mltiple permite estudiar la relacin existente entre
una variable dependiente y y un conjunto k 1 de variables independientes
o exgenas, adems de la constante. Su forma general se representa por:
y
t
=
1
+
2
x
2t
+
3
x
3t
+... +
k
x
kt
+
t
Los supuestos asociados a este modelo dieren levemente del caso simple,
y se presentan a continuacin:
1. Los errores tericos tienen un valor esperado cero:
E [
t
] = 0
E[] = E

2
...

Tx1
=

E [
1
]
E [
2
]
...
E[
T
]

0
= E [Y ] = X
2. Existe homoscedasticidad y no autocorrelacin de los residuos tericos,
de manera que la varianza de los errores poblacionales es similar V [
t
] =
2
,
Cov [
t
,
tk
] = 0. Matricialmente recordemos que dado el supuesto (1),
57
58 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
entonces la matriz de varianzas y covarianzas puede representarse por:
E[
0
] = E

1

1

2

1

3
...
1

1

2

2
... ...
2

1
... ... ...
3

T
... ... ... ... ...

1
... ... ...
T

E[
1

1
] E[
1

2
] E[
1

3
] ... E [
1

T
]
E[
2

1
] E[
2

2
] ... ... E [
2

T
]
E[
3

1
] ... ... ... E [
3

T
]
... ... ... ... ...
E [
T

1
] ... ... ... E [
T

T
]

2
0 0 ... 0
0
2
... ... 0
0 ... ... ... 0
... ... ... ... ...
0 ... ... ...
2

=
2
I
T
Una manera alternativa de analizar estos dos supuestos es utilizando la de-
scomposicin matricial de la matriz de varianzas y covarianzas. Esta se
conforma de tres matrices:
E[
0
] =
59
donde cada matriz se dene por:
=

1
0 ... 0 0
0
2
0
... ... ...
0 ... ...
0 0 ...
T

1
1,2
...
1,T1

1,T

2,1
1
2,T
... ... ...

T1,1
... ...

T,1

T,2
... 1

Luego se puede escribir la anterior expresin como:


E [
0
] =

1
0 ... 0 0
0
2
0
... ... ...
0 ... ...
0 0 ...
T

1
1,2
...
1,T1

1,T

2,1
1
2,T
... ... ...

T1,1
... ...

T,1

T,2
... 1

1
0 ... 0 0
0
2
0
... ... ...
0 ... ...
0 0 ...
T

Al asumir homoscedasticidad estamos diciendo que la matriz es una matriz


escalar con en su diagonal, es decir la matriz identidad multiplicada por :
=

1
0 ... 0 0
0
2
0
... ... ...
0 ... ...
0 0 ...
T

0 ... 0 0
0 0
... ... ...
0 ... ...
0 0 ...

1 0 ... 0 0
0 1 0
... ... ...
0 ... ...
0 0 ... 1

= I
T
60 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
De igual forma si incorporamos el supesto de no autocorrelacin de los
residuos estamos imponiendo la condicin que la matriz sea la identidad,
cuyos elementos fuera de la diagonal (unos) son nulos. Es decir entonces:
=

1 0 ... 0 0
0 1 0
... ... ...
0 ... ...
0 0 ... 1

= I
T
Con esto entonces podemos representar los dos supuestos de la siguiente
forma:
E[
0
] = = I
T
I
T
I
T
=
2
I
T
3. No hay correlacin entre el residuo poblacional
t
y la variable exgena
x
t
:
Cov [x
t
,
tk
] = 0 t y k
4. No existe multicolinealidad, es decir se garantiza que la matriz X
0
X es
no singular, es decir su inversa existe y es nica, lo cual ayuda a determinar
con unicidad el vector de parmetros a estimar.
5. Finalmente el supuesto ms importante para nes de inferencia se re-
ere a la necesidad de que los residuos provengan de una distribucin normal:

t
N
Los anteriores supuestos pueden resumirse en que el vector de residuos
tiene distribucin normal multivariada, idntica e independiente, con media
cero y matriz de varianzas y covarianzas
2
I
T
, es decir IIDN (0,
2
I
T
).
A partir del modelo en su versin matricial y = x

+ e, donde x es la
matriz de datos de las variables exgenas incluyendo una primera columna
de unos, podemos obtener los estimadores mnimo cuadrados optimizando la
siguiente funcin de prdida:
min
{}
$ =

y x

y x

= e
0
e
61
Tomando la gradiente o derivada vectorial sobre el vector estimamos los
parmetros del modelo, es decir:
$

= x
0
x

x
0
y = 0
lo cual puede representarse alternativamente por el siguiente sistema de ecua-
ciones normales, denominadas condiciones de ortogonalidad:
x
0
e = 0
Una representacin ampliada y similar a la utilizada en el modelo de
regresin simple consiste en escribir este sistema de ecuaciones normales o
condiciones necesaria de primer orden como:
$

1
= 2
X

y
t

2
x
2t

3
x
3t
...

k
x
kt

= 0
$

2
= 2
X
x
2t

y
t

2
x
2t

3
x
3t
...

k
x
kt

= 0
$

3
= 2
X
x
3t

y
t

2
x
2t

3
x
3t
...

k
x
kt

= 0
....
$

k
= 2
X
x
kt

y
t

2
x
2t

3
x
3t
...

k
x
kt

= 0
lo que al simplicar por 2 nos deja un sistema de k ecuaciones con k incog-
nitas:
$

1
=
X

y
t

2
x
2t

3
x
3t
...

k
x
kt

= 0
$

2
=
X
x
2t

y
t

2
x
2t

3
x
3t
...

k
x
kt

= 0
$

3
=
X
x
3t

y
t

2
x
2t

3
x
3t
...

k
x
kt

= 0
....
$

k
=
X
x
kt

y
t

2
x
2t

3
x
3t
...

k
x
kt

= 0
Al recordar que la expresin entre parntesis no es ms que el residuo mues-
62 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
tral, podemos simplicar an ms la ltima expresin:
$

1
=
X
e
t
= 0
$

2
=
X
x
2t
e
t
= 0
$

3
=
X
x
3t
e
t
= 0
....
$

k
=
X
x
kt
e
t
= 0
lo que en el fondo nos lleva a repetir la expresin de ortogonalidad men-
cionada ms arriba:
x
0
e = 0
Asumiendo rango completo de la matriz x
0
x es decir que esta es invertible
(de aqu la importancia del supuesto de no multicolinealiad), entonces el
vector de estimadores se puede obtener de despejar el vector

del sistema
anterior llegando a:

= (x
0
x)
1
x
0
y
Una forma alternativa de determinar la expresin anterior consiste en
partir del modelo estimado y = x

+ e. Si a esta expresin se le multiplica


por x
0
(debe ser por la izquierda pues la multiplicacin debe hacerse sobre
matrices conformables) nos queda:
x
0
y = x
0
x

+x
0
e
pero la expresin de la derecha x
0
e no es ms que la representacin matricial
del sistema de ecuaciones normales que es igual a cero, luego de aqu tambien
se deduce que

= (x
0
x)
1
x
0
y.
Ejercicio. Un profesor de la Escuela de Economa desea evaluar si la playa
que est a minutos de la universidad, es una mala inuencia en el desempeo
de los alumnos, medido por las notas nales promedio de cada alumno. Para
esto se toma una muestra de diez alumnos con el sigueinet resultado de la
encuesta:
Estime los parmetros de un modelo de regresin lineal simple. Obtenga
la matriz de varianzas y covarianzas y evale la hiptesis al 95% de que la
playa no tiene inuencia en las notas obtenidas por los alumnos.
63
Promedio de Notas 5.5 6 4.8 5 5.1 6.1 6.2 4.2 5.5 4.9
Horas Semanales en Playa 2 3 1 4 3 2 1 5 1 2
Dada la informacin sabemos que:
x
0
=

1 1 1 1 1 1 1 1 1 1
2 3 1 4 3 2 1 5 1 2

y
0
=
h
5.5 6 4.8 5 5.1 6.1 6.2 4.2 5.5 4.9
i
De manera que el vector de estimadores se obtiene de resolver:

= (x
0
x)
1
x
0
y

1 1 1 1 1 1 1 1 1 1
2 3 1 4 3 2 1 5 1 2

1 2
1 3
1 1
1 4
1 3
1 2
1 1
1 5
1 1
1 2

1 1 1 1 1 1 1 1 1 1
2 3 1 4 3 2 1 5 1 2

5. 5
6
4. 8
5
5. 1
6. 1
6. 2
4. 2
5. 5
4. 9

5. 932 9
0.251 22

La matriz de varianzas y covarianzas se obtiene de resolver la siguiente ex-


64 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
presin:

V (

) =
e
0
e
T k
(x
0
x)
1
=
y
0
y y
0
x

T k
(x
0
x)
1
como x
0
y =

53. 3
123. 8

, y
0
y =
X
y
2
= 287. 85

V (

) =
y
0
y y
0
x

T k
(x
0
x)
1
=
287. 85
h
53.3 123.8
i

5. 932 9
0.251 22

10 2

0.451 22 0.146 34
0.146 34 6. 097 6 10
2

= 0.340 93

0.451 22 0.146 34
0.146 34 6. 097 6 10
2

0.153 83 4. 989 2 10
2
4. 989 2 10
2
2. 078 9 10
2

Para testear H
0
:
1
= 0 debemos efectuar un test t:
t
c
=

1
t (T k)
Reemplazando con los datos obtenidos se tiene:
t
c
=
0.25122
2

2. 078 9 10
2
= 1. 742 4
De manera que al comparar con un test t-Student al 95% para 8 grados de
libertad (test de dos colas) cuyo valor es t
0.975
(8) = 2.306 vemos que el test
calculado es inferior al t de tabla luego no rechazamos la hiptesis de que el
parmetro es cero, es decir la playa no tendra incidencia en el desempeo
acadmico de los alumnos.
4.1 TEST DE RESTRICCIONES 65
4.1 Test de Restricciones
Es comn estar interesado en testear si combinaciones lineales de parmetros
obedecen a cierto valor en particular, o de manera general, si un conjunto de
combinaciones de parmetros obedece a valores especcos.
4.1.1 Testeo de Restricciones Escalares H
0
: r
0
= q
Ejercicio. A partir de la siguiente informacin y considerando el modelo
y
t
=
0
+
1
x
1t
+
2
x
2t
+
3
x
3t
+
t
evaluar la hiptesis nula H
0
: 3
1

2
= 5:

4.8
5.7

e
0
e = 60
T = 34
(x
0
x)
1
=

60 13 20 100
5 3 25
8 15
9

Para resolver esta pregunta debemos generar el estimador de la matriz de


66 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
varianzas y covarianzas de los parmetros estimados:

V (

) =
e
0
e
T k
(x
0
x)
1

V (

) =
60
34 4

60 13 20 100
13 5 3 25
20 3 8 15
100 25 15 9

V (

) =

120.0 26.0 40.0 200.0


26.0 10.0 6.0 50.0
40.0 6.0 16.0 30.0
200.0 50.0 30.0 18.0

De manera que el test corresponde a un t-Student pues tenemos una sola


restriccin que evaluar:
t
c
=
3

2
(3
1

2
)
2
r

V

3

t (T k)
t
c
=
3 4.8 5.7 (5)
2
p
3
2
(10) + (16) 2 3 6
= 0.442 23
Al comparar con un test t con 95% (de dos colas, es decir con 0.975) y con
T k = 34 4 = 30 grados de libertad se tiene que t
0.975
(30) = 2.042 es
superior al nuestro t
c
= 0.442 23 de manera que no rechazamos la hiptesis
nula.
4.1.2 Testeo de Restricciones Vectoriales H
0
: R = q
Ejercicio. Supongamos que hemos estimado la siguiente ecuacin para una
muestra de 17 observaciones ( T = 17) utilizando la metodologa de los mn-
imos cuadrados ordinarios (todas las variables estn en logaritmos):
y
t
=
0
+
1
x
1t
+
2
x
2t
+
t
4.1 TEST DE RESTRICCIONES 67
encontrndose los siguientes resultados:

1.37
1.14
0.83

y
0

I x(x
0
x)
1
x
0

y = 0.0028
(x
0
x)
1
=

510.89 254.35 0.42


132.7 6.82
7.11

Calcule las varianzas estimadas de los estimadores


0
,

1
,

2
. Si la variable
x
1
aumenta en un 1% y la variable x
2
lo hace en un 2%, cul ser el efecto
nal sobre la variable dependiente y? Finalmente utilice el test F y evale
la hiptesis nula H
0
:
1
= 1,
2
= 1.
Para calcular las varianzas estimadas del vector de parmetros

debemos
calcular s
2
(x
0
x)
1
:

V (

) =
e
0
e
T k
(x
0
x)
1
=
0.0028
17 3

510.89 254.35 0.42


254.35 132.7 6.82
0.42 6.82 7.11

V (

) =

0.102 18 0.050 87 8. 4 10
5
0.050 87 0.026 54 1. 364 10
3
8. 4 10
5
1. 364 10
3
1. 422 10
3

V (

0
)

V (

1
)

V (

2
)

0.102 18
0.026 54
1. 422 10
3

Si la variable x
1
se incrementa en 1% y la variable x
2
lo hace en 2%, entonces
y lo hara en:
y = 1.14 1 0.83 2 = 0.52%
68 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
Es decir la variable dependiente y cae 0.52%.
Para testear la hiptesis conjunta H
0
:
1
= 1,
2
= 1 hay que aplicar
la siguiente frmula de test F:
F
c
=

R

q

0
Rs
2
(x
0
x)
1
R
0

R

q

J
donde R =

0 1 0
0 0 1

y q =

1
1

entonces reemplazando los resultados conseguidos anteriormente:


F
c
=

0 1 0
0 0 1

1.37
1.14
0.83

1
1

0 1 0
0 0 1

0.102 18 0.050 87 8. 4 10
5
0.050 87 0.026 54 1. 364 10
3
8. 4 10
5
1. 364 10
3
1. 422 10
3

0 1 0
0 0 1

0 1 0
0 0 1

1.37
1.14
0.83

1
1

2
F
c
=

0.14 0.17

39. 633 38. 016


38. 016 739. 7

0.14
0.17

2
= 11. 982
Al comparar con un F
0.05
(2, 14) = 3.74 vemos que rechazamos la hiptesis
nula.
4.2 SIGNIFICANCIA DE LA REGRESIN 69
4.2 Signicancia de la Regresin
Supongamos que tenemos elmodelo de regresin y = x +, modelo que en
su forma extendida se puede representar por:
y
t
=
1
+
2
x
2t
+... +
k
x
kt
+
t
Se sabe que si redenimos a las variables en desviaciones de sus propias
medias, los estimadores mnimos cuadrados no se ven modicados y que
ahora la constante no debiera ser incluida en la estimacin pues se obtiene
de las medias de las otras variables a travs de

1
= y

2
x
2
...

k
x
k
y que por supuesto en el caso hipottico de que los parmetros asociados
a las variables explicativas sean nulos, entonces este parmetro solamente
estar capturando la media de la variable dependiente. Este hecho hace
recomendable que el test no se contamine con el valor de la constante al
momento de evaluar la signicancia del vector de parmetros.
En este caso entonces analicemos la hiptesis nula de que todos los parmet-
ros son cero (recordemos que la constante est fuera de este conjunto de
parmetros analizados), es decir testeemos H
0
:
2
=
3
= ... =
k
= 0.
Paea testear esta hiptesis podemos utilizar nuestra expresin del test F
denido por (J = k 1):
F
c
=

0
R(x
0
x)
1
R
0

/ (k 1)
e
0
e/(T k)
70 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
Dado que en este caso es fcil vericar que:
R =

1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
... ... ... ... ...
0 0 0 0 1

= I
k1
q =

0
0
0
...
0

k1
entonces podemos reescribir el test F como:
F
c
=

(x
0
x)
1

/ (k 1)
e
0
e/(T k)
F
c
=

0
(x
0
x)

e
0
e
T k
k 1
pero sabemos que

= (x
0
x)
1
x
0
y y ademas que a partir de y = x

+ e es
posible deducir que:
e
0
e = y
0
y y
0
x

de manera que reemplazando estas dos representaciones en la expresin del


F
c
, y recordando que la expresin

0
x
0
y es equivalente a y
0
x

pues ambas son


expresiones escalares, nos queda:
F
c
=

0
(x
0
x) (x
0
x)
1
x
0
y
y
0
y y
0
x

T k
k 1
F
c
=
y
0
x

y
0
y y
0
x

T k
k 1
4.2 SIGNIFICANCIA DE LA REGRESIN 71
dividiendo por y
0
y que es equivalente a la suma de los cuadrados totales
(recordemos que las variables estn en desviacin de sus propias medias) y
recordando que el coeciente de determinacin R
2
= 1
e
0
e
y
0
My
:
F
c
=
y
0
x

y
0
y
y
0
yy
0
x

y
0
y
T k
k 1
F
c
=

R
2
1 R
2

T k
k 1

Esta ltima expresin nos indica que aquellas regresiones que tienen bajo
coeciente de ajuste, es decir un bajo R
2
, tienen a su vez un test F tambin
muy bajo lo cual perimtira decir que la probabilidad de aceptar la hipotesis
nula es muy alta, o lo que esw lo mismo, que la probabilidad de rechazar la
hiptesis es muy baja. Este concepto se conoce como el valor de la probabili-
dad (P-Value) y est denido para este test como la integral de la funcin de
densidad f(s) desde el valor del test calculado (F
c
) a innito (), es decir:
PV alue =

Z
Fc
f (s) ds
Ejercicio. Supongamos que se dispone de la siguiente informacin pro-
ducto de estimar una regresin con T = 500 observaciones para el APT de
una accin i con un factor f asociado al volumen de actividad del sector
industrial asociado a la accin:
R
it
= +R
mt
+f
t
+
t
= 0.03 + 1.14R
mt
+ 0.19f
t
(0.08) (0.28) (0.03)
R
2
= 0.67
El nivel de signicancia de la regresin se puede evaluar analizando el test
F de esta ecuacin bajo la hiptesis nula de que todos los parmetros son
cero en la regresin, a excepcin de la constante. La hiptesis a testear es
H
0
: = = 0 versus la alternativa de que al menos uno de estos parmetros
no es cero. Aplicamos la expresin F
c
=

R
2
1R
2

Tk
k1

considerando que
72 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
T = 500, k = 3 y que R
2
= 0.67:
F
c
=

R
2
1 R
2

T k
k 1

=

0.67
1 0.67

500 3
3 1

= 504. 53
Si contrastamos este test F
c
= 504.53 con el valor respectivo de tabla a
un nivel de signicancia del 5%, F
95%
(k 1, T k) = F
95%
(2, 497) = 3,
entonces rechazamos la hiptesis nula de que ambos parmetros son estads-
ticamente iguales a cero.
4.3 Modelo Restringido - No Restringido
Una plicacin adicional del test F corresponde al analisis de modelos re-
stringidos versus no restringidos, entendiendo como que un modelo estar
restringido en la medida que un subconjunto de los parmetros tome valores
especcos asociados a una determinada hiptesis nula. Ejemplos podran
ser estimar una funcin Cobb-Douglas asumiendo que la eslasticidad capital-
producto es igual a 0.5, o estimar una funcin de demanda por dinero con
un coeciente de elasticidad producto igual a 1.
Representemos a ambos modelos no restringidos y restringidos (identi-
cados con el sub-ndice R) por:
y = x

+e
y = x

R
+e
R
Partiendo de la denicin del residuo restringido e
R
podemos decir:
e
R
= y x

R
e
R
= y x

R
+x

e
R
= y x

R
+x

e
R
= e x

R
+x

e
R
= e +x

de manera que el valor de e


0
R
ser igual a:
e
0
R
= e
0
+

0
x
0
4.3 MODELO RESTRINGIDO - NO RESTRINGIDO 73
Multiplicando estas dos ltimas expresiones para generar una relacin entre la
suma del cuadrado de los residuos entre modelos restringidos y no restringidos
llegamos a (note que las multiplicaciones cruzadas no aparecen pues sabemos
por condiciones de ortogonalidad que x
0
e = e
0
x = 0):
e
0
R
e
R
= e
0
e +

0
x
0
x

e
0
e
Modelos Restringidos versus No Restringidos
Reordenando la expresin anterior podemos encontrar una relacin entre
esta y el numerador del test F analizado en la seccin anterior:
e
0
R
e
R
e
0
e =

0
x
0
x

=

R

0
h
R(x
0
x)
1
R
0
i
1

De esta forma podemos ver la relacin que existe entre el anlisis de la difer-
encia de la suma de los residuos al cuadrado entre ambos modelos y el test
F analizado. El test para la hiptesis nula de que H
0
: =
R
se puede
representar entonces como (J es el nmero de parmetros involucrados en la
hiptesis nula):
F
c
=
(e
0
R
e
R
e
0
e) /J
e
0
e/(T k)
F (J, T k)
Considerando que la variable dependiente en ambos modelos es la misma,
entonces la suma de los cuadrados totales es tambin similar, de manera que
podemos dividir el numerador y el denominador por y
0
My para encontrar una
relacin de esta expresin en trminos de los coecientes de determinacin
74 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
de ambos modelos:
F
c
=

e
0
R
e
R
y
0
My

e
0
e
y
0
My

/J
e
0
e
y
0
My
/(T k)
F
c
=
(R
2
R
2
R
) /J
(1 R
2
) /(T k)
F (J, T k)
Ejercicio. Una empresa de asesoras nancieras y de marketing est es-
timando dos modelos de ventas de supermercado considerando dos modelos
alternativos:
v
t
=
1
+
2
y
t
+
2
g
t
+
3
p
t
+
t
v
t
=
1
+
2
y
t
+
2
g
t
+
t
donde v indica ventas del supermercado, y el nivel de actividad de la economa
(PIB), g representa el gasto en publicidad en medios como la TV, diarios y
revistas, y nalmente p mide el gasto en volantes distribudos a residencias
vecinas y automviles del sector.
Los resultados al estimar ambos modelos son los siguientes:
Modelo sin Restricciones
v
t
= 0.14 + 1.15y
t
+ 0.21g
t
+ 0.47p
t
e
0
e = 370.45
R
2
= 0.89
T = 670
Modelo con Restricciones (
3
= 0)
v
t
= 0.29 + 1.42y
t
+ 0.35g
t
e
0
R
e
R
= 399.23
R
2
R
= 0.88154
T = 670
Con estos antecedentes podemos analizar el modelo no restringido (modelo 1)
versus el modelo restringido (modelo 2) al cual se le ha impuesto la condicin
de que el parmetro asociado al gasto el volantes tiene un valor de cero.
Para este ejercicio compararemos los resultados de analizar el test en fun-
cinde las diferencias de las sumas de los residuos al cuadrsdo entre modelos
4.3 MODELO RESTRINGIDO - NO RESTRINGIDO 75
restringidos versus no restringidos, con el del test basado en diferenciales de
R
2
entre ambos modelos. Si vemos primero la frmula en funcin de las
sumas de los cuadrsdos de los residuos tendremos:
F
c
=
(e
0
R
e
R
e
0
e) /J
e
0
e/(T k)
F (J, T k)
F
c
=
(399.23 370.45) /1
370.45/(670 4)
F (1, 670 4)
F
c
= 51. 741
Como este valor es superior a F
95%
(1, 666) = 3.84 entonces rechazamos la
hiptesis de que le parmetro es cero, lo cual implica que la variable gastos
en volantes es relevante como variable explicativa de las ventas del superme-
rcado.
Alternativamente podemos testear esta hiptesis utilizando el test en fun-
cin de los R
2
:
F
c
=
(R
2
R
2
R
) /J
(1 R
2
) /(T k)
F
c
=
(0.89 0.881 45) /1
(1 0.89) /(670 4)
F
c
= 51.741
De igual manera que con el formato de test anterior podemos decir que rec-
hazamos la hiptesis de que la variable p sea no signicativa, recomendando
su inclusin en la estimacin.
Chapter 5
Evaluando Quiebres
Estructurales
5.1 Variables Mudas
Si es posible denir con certeza el momento del eventual quiebre estructural
ya sea en un parmetro como en una combinacin de parmetros entonces
podemos aplicar lo que se conoce como variables mudas.
Una variable muda o cticia generalmente se asocia a una funcin indi-
cadora de un evento determinado. Esta nueva variable articial tomar valor
unitario si el evento est presente y cero si no es as. Ejemplos de este tipo
de funciones son innumerables, por ejemplo:
Guerra Paz
Hombre Mujer
Profesional Tcnico
Gobierno A Gobierno B
Crisis Bancaria Normalidad
Tipo de Cambio Fijo Tipo de Cambio Flexible
Si estas variables no son directamente cuanticables entonces surge la
alternativa de utilizar variables dicotmicas mudas. Volvamos al modelo de
regresin simple para entender cmo testear cambios estructurales en algn
77
78 CHAPTER 5 EVALUANDO QUIEBRES ESTRUCTURALES
t y
t
x
t
d
t
1 y
1
x
1
0
2 y
2
x
2
0
... ... ... ...
s y
s
x
s
0
s + 1 y
s+1
x
s+1
1
s + 2 y
s+2
x
s+1
1
... ... ... ...
T y
T
x
T
1
o algunos parmetros utilizando esta variable. Supongamos que el modelo a
estimar es:
y
t
=
1
+
2
x
t
+
t
t = 1, 2, ..., s, s + 1, ..., T
donde hemos identicado el perodo s, s + 1 como el del eventual quiebre
estructural. Para incorporar este hecho economtricamente, creamos una
nueva serie articial (muda) d
t
que tomar valores de cero antes del perodo
s y de uno desde s + 1 hasta T. Una tabla ayudar a comprender esta
representacin:
Con esta nueva variable podemos testear cambio en el coeciente de in-
tercepto
1
y/o en el de pendiente
2
.
5.1.1 Cambio Estructural de Intercepto
Para analizar esta hiptesis representada por:
H
0
:
1
= t s
:
1
6= t > s
5.1 VARIABLES MUDAS 79
podemos reescribir el modelo a estimar como:
y
t
=
1
+
2
x
t
+
3
d
t
+
t
t = 1, 2, ..., T
y
t
=

1
+
2
x
t
+
t
d
t
= 0 t = 1, 2, ..., s

1
+
2
x
t
+
3
+
t
(
1
+
3
) +
2
x
t
+
t
d
t
= 1 t = s + 1, s + 2, ..., T

El test consiste en evaluar si el parmetro


3
es signicativamente distinto
de cero o no. Para esto generamos un test t con la siguiente hiptesis nula:
H
0
:
3
= 0
t
c
=

3
r

3
Si t
c
(en valor absoluto) es menor a un test t
(
1

2
)
(T k) de tabla entonces
no rechazamos la hiptesis de que el parmetro es cero, no habiendo indicios
de quiebre estructural en el parmetro del intercepto.
5.1.2 Cambio Estructural de Pendiente
Para analizar esta hiptesis representada por:
H
0
:
2
= t s
:
2
6= t > s
podemos reescribir el modelo a estimar como:
y
t
=
1
+
2
x
t
+
4
d
t
x
t
+
t
t = 1, 2, ..., T
y
t
=

1
+
2
x
t
+
t
d
t
= 0 t = 1, 2, ..., s

1
+
2
x
t
+
4
x
t
+
t

1
+ (
2
+
4
) x
t
+
t
d
t
= 1 t = s + 1, s + 2, ..., T

80 CHAPTER 5 EVALUANDO QUIEBRES ESTRUCTURALES


El test consiste en evaluar si el parmetro
4
es signicativamente distinto
de cero o no. Para esto generamos un test t con la siguiente hiptesis nula:
H
0
:
4
= 0
t
c
=

4
r

4
Si t
c
(en valor absoluto) es menor a un test t
(1

2
)
(T k) de tabla entonces
no rechazamos la hiptesis de que el parmetro es cero, no habiendo indicios
de quiebre estructural en el parmetro de la pendiente.
5.1.3 Cambio Estructural en Pendiente e Intercepto
Para analizar esta hiptesis representada por:
H
0
:
1
= ,
2
=

t s
:
1
6= ,
2
6=

t > s
podemos reescribir el modelo a estimar como:
y
t
=
1
+
2
x
t
+
3
d
t
+
4
d
t
x
t
+
t
t = 1, 2, ..., T
y
t
=

1
+
2
x
t
+
t
d
t
= 0 t = 1, 2, ..., s

1
+
2
x
t
+
3
+
4
x
t
+
t
(
1
+
3
) + (
2
+
4
) x
t
+
t
d
t
= 1 t = s + 1, s + 2, ..., T

El test consiste en evaluar si los parmetros


3
y
4
son en forma conjunta
signicativamente distinto de cero o no. Para esto es necesario evaluar la
hiptesis a travs de un test F de Fisher pues los test t no son capaces de
testear ms de una restriccin en la hiptesis nula
H
0
:
3
=
4
= 0
F
c
=
(R R)
0

Rs
2
(x
0
x)
1
R
0

1
(R R)
J
F (J, T k)
F
c
=
(RR)
0
[R(x
0
x)
1
R
0
]
1
(RR)
J
e
0
e
Tk
F (J, T k)
5.2 SPLINES 81
lo cual aplicado a nuestro test implica:
F
c
=
(RR)
0
[
R(x
0
x)
1
R
0
]
1
(RR)
2
e
0
e
T4
F (2, T 4)
Si F
c
es menor a un test F
(

2
)
(2, T 4) de tabla entonces no rechaz-
amos la hiptesis de que ambos parmetros son cero, no habiendo indicios
de quiebre estructural en los parmetros de la pendiente y el intercepto.
5.2 SPLINEs
5.2.1 Regresin Spline
Los SPLINES son mtodos de interpolacin no-paramtrico de los cuales la
regresin spline es la ms usual. Una regresin spline consiste en estimar
una regresin por segmentos discretos pero continuos de la muestra. Se es-
tima una regresin desde la observacin 1 hasta la observacin s
1
, despus
se estima el modelo para el intervalo s
1
, s
2
, despus se estima para el inter-
valo s
2
, s
3
, etc... hasta estimar un modelo con el intervalo nal (hasta T).
Analticamente para el caso de dos parmetros se representa por:
y
t
=
s
1
1
+
s
1
2
x
t
+
t
si t = 1, 2, ..., s
1
y
t
=
s
2
1
+
s
2
2
x
t
+
t
si t = s
1
+ 1, s
1
+ 2, ..., s
2
y
t
=
s
3
1
+
s
3
2
x
t
+
t
si t = s
2
+ 1, s
2
+ 2, ..., s
3
...
y
t
=
T
1
+
T
2
x
t
+
t
si t = ..., T
Esta discontinuidad de pendientes se logra con la introduccin al modelo de
diferentes variables mudas asociadas a los vrtices de la curva estimada. Es
as como denimos a cada variable muda en funcin del intervalo de tiempo
asociado tomando un valor cero si la condicin del intervalo correspondiente
82 CHAPTER 5 EVALUANDO QUIEBRES ESTRUCTURALES
no se cumple:
d
1
= 1 si t = s
1
+ 1, s
1
+ 2, ..., s
2
d
2
= 1 si t = s
2
+ 1, s
2
+ 2, ..., s
3
...
d
J
= 1 si t = ..., T
La expresin analtica de esta secuencia de curvas se representa por:
y
t
=
1
+
2
x
t
+
1
d
1
+
1
d
1
x
t
+
2
d
2
+
2
d
2
x
t
+.... +
J
d
J
+
J
d
J
x
t
+
t
Lo cual en trminos de segmentos muestrales se traduce en:
y
t
=
1
+
2
x
t
+
t
d
i
= 0
y
t
=
1
+
2
x
t
+
1
d
1
+
1
d
1
x
t
+
t
y
t
= (
1
+
1
) + (
2
+
1
) x
t
+
t
d
1
= 1
y
t
=
1
+
2
x
t
+
1
d
1
+
1
d
1
x
t
+
2
d
2
+
2
d
2
x
t
+
t
y
t
= (
1
+
1
+
2
) + (
2
+
1
+
2
) x
t
+
t
d
2
= 1
... ...
y
t
=
1
+
2
x
t
+
1
d
1
+
1
d
1
x
t
+... +
J
d
J
+
J
d
J
x
t
+
t
y
t
=

1
+
P
J
i=1

2
+
P
J
i=1

x
t
+
t
d
J
= 1
Esta expresin puede ser representada grcamente por una secuencia
de lneas rectas que deben cumplir con la condicin de ser contnuas para
tomar la connotacin de una regresin spline. Analticamente la continuidad
se representa por las siguientes condiciones:

1
+
2
x
s
1
= (
1
+
1
) + (
2
+
1
) x
s
1
(
1
+
1
) + (
2
+
1
) x
s
2
= (
1
+
1
+
2
) + (
2
+
1
+
2
) x
s
2
etc...
Simplicando cada restriccin llegamos a:

i
=
i
x
s
i
i = 1, 2, ..., J
5.2 SPLINES 83
Figure 5.1: Regresin por Segmentos o Spline
Incorporando estas condiciones en la expresin generalizada llegamos a:
y
t
=
1
+
2
x
t
+
1
d
1
+
1
d
1
x
t
+
2
d
2
+
2
d
2
x
t
+.... +
J
d
J
+
J
d
J
x
t
+
t
y
t
=
1
+
2
x
t
+
1
d
1
(x
t
x
s
1
) +
2
d
2
(x
t
x
s
2
) +.... +
J
d
J
(x
t
x
s
J
) +
t
5.2.2 Cubic Spline y B-Splines
Un spline de orden n es una aproximacin polinmica, con polinomios de
grado n y diferenciables n 1 veces en toda su extensin. Donde se juntan
los polinomios adyacentes se conocen como nudos (knots). Por ejemplo un
cubic-spline es una curva representada por un polinomio de grado 3 en cada
intervalo, y que es diferenciable dos veces en todo punto de la curva. Tiene la
caracterstica de que en cada nudo las pendientes deben ser iguales y adems
las curvaturas de cada lado de esots nudos debe coincidir.
Una representacin general del cubic-spline es:
s (t) =
3
X
i=0

i
t
i
| {z }
Polinomio Cbico
+
1
3!
n1
X
p=1

t
p

3
+
| {z }
Diferenciable 2 veces en los nudos
donde

t
p

+
= max

t
p
, 0

. Es as como para un spline de n+1 nudos


{
0
,
1
, ...,
n
}, un spline cbico tiene n+3 parmetros

0
,
1
,
2
,
3
,
1
,
2
, ...,
n1

.
84 CHAPTER 5 EVALUANDO QUIEBRES ESTRUCTURALES
En general un grado spline tiene un equivalente a n + parmetros que
estimar.
Sin embargo es comn utilizar versiones generales de s(t) que se pueden
representar por combinaciones lineales de de splines generales, entre las cuales
se encuentran las B-Splines. Para un conjunto de n+1 nudos {
0
,
1
, ...,
n
},
y para p = 0, 1, .., n 4 denimos un spline cbico B
p
(t) por:
B
p
(t) =
p+4
X
i=p

p+4
Q
l=p,l6=i
1
(
l

i
)
!

t
p

3
+
Aqu podemos ver que claramente la funcin B-Spline es nula o cero para
intervalos que esten fuera de

p
,
p+4

.
Ejercicio. Consideremos la siguiente estructura de tasas de inters nom-
inales:
Madurez Tasa
1 da 4.75
1 mes 4.52
3 meses 4.45
1 ao 4.98
2 aos 5.65
8 aos 7.00
20 aos 7.91
Aplicando la opcin spline de MATLABa travs del siguiente cdigo podemos
estimar un cubic-spline con la siguiente estructura interpolada:
y=[4.75 4.52 4.45 4.98 5.65 7 7.91];
x=[1/365 30/365 90/365 1 2 8 20];
xx=0:.25:20;
yy = spline(x,y,xx);
5.3 TEST DE CHOW 85
plot(x,y,o,xx,yy);
0 2 4 6 8 10 12 14 16 18 20
4
4.5
5
5.5
6
6.5
7
7.5
8
Cubic-Spline de Estructura de Tasas
Ejercicio. Aplicaremos la interpolacin cubic-spline para proyectar el
comportamiento de una variable en una muestra estimada. Utilizando la es-
timacion del ejercicio anterior podemos analizar cul sera la tasa que un pa-
pel de 10 aos debiera tener. Analizando la curva estimada esta tasa debiera
ser del orden de 6.896%, cifra obtenida con la instruccin spline(t,y,10)
en MATLAB.
5.3 Test de Chow
La idea de este estadstico es testear la hiptesis de que al menos un parmetro
de los coecientes de la regresin no es igual para toda la muestra. La losofa
86 CHAPTER 5 EVALUANDO QUIEBRES ESTRUCTURALES
consiste en evaluar estadsticamente si el vector de parmetros estimado para
toda la muestra diere de aquel que se calcula considerando dos o ms sub-
muestras.
Un modelo sin restricciones para cada submuestra permite tener vectores
de parmetros que dieren entre estas submuestras. Por ejemplo considere-
mos un modelo aplicado a tres perodos que conformarn un tamao muestral
total de T:
t = 1, ..., s
1
y
1
= x
1

1
+
1
t = s
1
+ 1, ..., s
2
y
2
= x
2

2
+
2
t = s
2
+ 1, ..., T y
3
= x
3

3
+
3
En trminos matriciales este sistema se puede representar por:

y
1
y
2
y
3

Tx1
=

x
1
0 0
0 x
2
0
0 0 x
3

Tx3k

3kx1
+

Tx1
Aplicando la frmula de los mnimos cuadrados ordinarios

= (x
0
x)
1
x
0
y
podemos estimar el vector de parmetros

:

x
0
1
x
1
0 0
0 x
0
2
x
2
0
0 0 x
0
3
x
3

x
0
1
y
1
x
0
2
y
2
x
0
3
y
3

El Modelo restrtingido se obtine de estimar la ecuacin y = x + sin


considerar ninguna subdivisin o particin muestral, es decir considerando
toda la base de datos:
y = x + t = 1, ..., T
de manera que el vector de parmetros estimados ser

= (x
0
x)
1
x
0
y orig-
inndose una suma del cuadrado de los residuos para el modelos restringido
e
0
R
e
R
.
Para testear la hiptesis nula de que los parmetros son iguales en cada
submuestra debemos aplicar el test F que se genera de comparar las sumas
5.4 TEST DE WALD 87
de los cuadrados de los residuos de cada sumuestra en relacin con la del
modelo restringido (e
0
R
e
R
):
e
0
e = e
0
1
e
1
+e
0
2
e
2
+e
0
3
e
3
La ecuacin del test F que aplicaremos en esta situacin corresponde a:
F
c
=
(e
0
R
e
R
e
0
e) / (T k (T mk))
e
0
e/(T mk)
F (J, T k)
F
c
=
(e
0
R
e
R
e
0
e) / ((m1) k)
e
0
e/(T mk)
F (J, T k)
donde m corresponde al numero de submuestras consideradas (en nustro
ejemplo 3), T es el tamao total de la muestra, y k es el nmero de parmetros
a estimar en cada modelo.
5.4 Test de Wald
Una manera alternativa de testear quiebres estructurales consiste en el test
de Wald. Este test analiza eventuales quiebres entre submuestras. Si recor-
damos el teorema que dice que el cuadrado de una distribucin normal mul-
tivariada estandarizada de dimensin J tiene una distribucin Chi-cuadrado
con J grados de libertad, entonces podemos parmetros estimados de pares
de regresiones de la siguiente manera:

1
N
k
(
1
,
1
) Primera Regresin

2
N
k
(
2
,
2
) Segunda Regresin
Al asumir la hiptesis nula de que ambos vectores de parmetros kx1 es-
timados son similares (H
0
:
1
=
2
) al calcular la diferencia entre ambos
vectores y estandarizando tenemos:

2
N
k
(0,
1
+
2
)
de manera que aplicando la decin de la Chi-cuadrado tendremos:
W =

0
[
1
+
2
]
1


2
(k)
88 CHAPTER 5 EVALUANDO QUIEBRES ESTRUCTURALES
La expresin muestral para calcular este test asume conocida las matrices de
varianzas y covarianzas
1
+
2
, de manera que nalmente el test ser:
W
c
=

0
h

1
+

2
i
1


2
(k)
Si se observa que el valor W
c
es superior al valor de referencia obtenido de
tabla, entonces rechazamos la hiptesis nula de que los parmetros son los
mismos, es decir existira evidencia de que hay cambio estructural en estas
submuestras. Alternativamente, al igual que lo que se hizo con el test F,
se puede analizar el valor de probabilidad (P V alue) correspondiente al
test W
c
y si este es inferior a 0.05 entonces rechazamos la hiptesis al 5% de
signicancia.
5.5 Tests CUSUM y CUSUMQ
Hasta ahora hemos asumido que conocemos el momento del eventual quiebre
estructural. es aqu donde se presenta la debilidad de los mtodos de testeo
anteriores. Si el investigador no posee una claridad de cuando ocurri el
quiebre (de existir) y a qu variable asociarlo, entonces es necesario aplicar
test que no requieran de esta informacin y ms bien que entregen o anuncien
el momento eventual de quiebre (denuevo, de existir).
Los tests que se aplican actualmente son los conocidos como CUSUM
y CUSUMQ, siglas que se reeren a la suma de los residuos o los residuos
al cuadrado de una secuencia de modelos estimados. La hiptesis nula es la
estabilidad de los parmetros del modelo H
0
:
t
= , t versus la alternativa
de que para todo o algn t esta relacin se quiebra.
Conceptualmente estos tests se generan del anlisis de los residuos esti-
mando recursivamente ecuaciones lineales incorporando cada vez una base de
datos ms completa hasta que nalmente agotamos toda la muestra. Analti-
camente se representan por:
cusum
t
=
j=t
P
j=k+1
c
j
s
cusumq
t
=
P
j=t
j=k+1
c
2
j
P
j=T
j=k+1
c
2
j
5.5 TESTS CUSUM Y CUSUMQ 89
donde:
c
j
=
y
j
x
j

[j1]
s

1 +x
0
j

X
0
j1
X
j1

1
x
0
j

| {z }
Varianza Predicha del Residuo (por
2
)
N

0,
2

s
2
=
P
j=T
j=k+1
(c
j
c)
2
T k 1
c =
P
j=T
j=k+1
c
j
T k
N

0,

2
T k

Los intervalos de conanza para el CUSUM se generan por la conexin


de dos lneas

k,

T k

y

T, 3

T k

, donde el valor de es 0.948


si se desea un intervalo del 95% y 1.143 si el intervalo es del 99%.
Para generar los intervalos de conanza del CUSUMQ hay que partir de
la distribucin de la media de c:
c N

0,

2
T k

c
q

2
Tk
N (0, 1)
Al aplicar la denicin del test t student a esta distribucin sabremos cul
es el intervalo que debemos agregar al coeciente cusumq:
c
q

2
Tk
q
s
2

2
(T k 1) /(T k 1)
=
c
s

Tk
t(T k 1)
es decir el intervalo para CUSUMQ ser:
P
j=t
j=k+1
c
2
j
P
j=T
j=k+1
c
2
j
t

(T k 1)
c
s

Tk
cusumq
t

P
j=t
j=k+1
c
2
j
P
j=T
j=k+1
c
2
j
+t

(T k 1)
c
s

Tk
Su popularidad se debe a que estos han sido incorporados el software
economtrico y que adicionalmente para su testeo no es necesario contrastar
el estadstico con ningun valor de tabla o P-Value. Es suciente hacer una
90 CHAPTER 5 EVALUANDO QUIEBRES ESTRUCTURALES
inspeccin visual a un par de guras que presentan estos tests. Si los es-
tadsticos generados secuencialmente (CUSUM y CUSUMQ) se salen de los
intervalos de conanza predenidos (por ejemplo la lnea que se sale por el
lmite superior de las guras) entonces podemos decir que se rechaza la es-
tabilidad del modelo. Adicionalmente este test estara indicando cuando se
produce el quiebre estructural.
Test CUSUM: Intervalos de Conanza
Test CUSUMQ: Intervalos de Conanza
Chapter 6
Distorsiones del Modelo de
Regresin
El modelo de regresin simple multivariado asume que los residuos se dis-
tribuyen en forma identica e independiante con valor esperado 0 y matriz de
varianzas y covarianzas
2
I. Este captulo explora las implicancias y mtodos
disponibles para corregir el procedimiento de estimacin de mnimos cuadra-
dos cuando la matriz de varianzas y covarianzas no es
2
I.
6.1 Heteroscedasticidad
Una vez asumido que la matriz de varianzas y covarianzas de los residuos es

2
I, podemos devolvernos a entender el por qu de este resultado. Recorde-
mos que una matriz de varianzas y covarianzas puede ser descompuesta en
tres matrices, dos de las cuales son idnticas:
E[
0
] = =
91
92CHAPTER6 DISTORSIONES DEL MODELODEREGRESIN
donde cada matriz se dene por:
=

1
0 ... 0 0
0
2
0
... ... ...
0 ... ...
0 0 ...
T

1
1,2
...
1,T1

1,T

2,1
1
2,T
... ... ...

T1,1
... ...

T,1

T,2
... 1

Luego se puede escribir la anterior expresin como:


E [
0
] =

1
0 ... 0 0
0
2
0
... ... ...
0 ... ...
0 0 ...
T

1
1,2
...
1,T1

1,T

2,1
1
2,T
... ... ...

T1,1
... ...

T,1

T,2
... 1

1
0 ... 0 0
0
2
0
... ... ...
0 ... ...
0 0 ...
T

Al asumir homoscedasticidad estamos imponiendo que las matrices


sean -escalares es decir = I, y a su vez al imponer no autocorrelacin
la matriz corresponde a la identidad, = I.
Al levantar el supuesto de homoscedasticidad ya no es posible denir a la
matriz de varianzas y covarianzas como
2
I, pues existir una matriz que
no es escalar, en donde los elementos de su diagonal no son constantes. Por
esta razn es que la matriz de varianzas y covarianzas se dene ahora asum-
iendo solamente no autocorrelacin pero si errores heteroscedsticos por:
E[
0
] =
6.1 HETEROSCEDASTICIDAD 93
Si factorizamos la matriz por
2
entonces podemos renombrar a la matriz
de varianzas y covarianzas como:
E[
0
] = = =
2

donde la matriz corresponde a una matriz diagonal denida por:


=

1
0 ... 0
0
2
... 0
... ... ... ...
0 0 ...
T

Considerando la notacin anterior entonces ahora analizaremos los efectos


que produce en los estimadores mnimos cuadrados el asumir heteroscedasti-
cidad en los residuos, es decir ahora asumiremos que:
N

0,
2

donde no es la identidad.
6.1.1 Implicancias para Estimacin
Para vericar si existe algn efecto sobre los estimadores mnimo cuadrados
consideremos el caso de un modelo general en su versin matricial como
y = x + , donde asumiremos que N (0,
2
). lo ms interesante es
vericar si los primeros momentos de este estimador se ven afectados, para lo
cual primero analizaremos el sesgo y segundo la varianza de los estimadores
bajo este nuevo escenario.
1. Sesgo. Si sabemos que

= (x
0
x)
1
x
0
y entonces reemplacemos el mod-
elo en esta expresin:

= (x
0
x)
1
x
0
y
= (x
0
x)
1
x
0
(x +)
= (x
0
x)
1
x
0
x + (x
0
x)
1
x
0

= + (x
0
x)
1
x
0

94CHAPTER6 DISTORSIONES DEL MODELODEREGRESIN


Al aplicar el operador expectativa y considerando que E () = 0, ten-
dremos que:
E

= + (x
0
x)
1
x
0
E ()
E

=
de manera que aun bajo presencia de errores heteroscedsticos los es-
timadores mnimo cuadrados siguen siendo insesgados.
2. Varianza. Apartir de la expresin

= +(x
0
x)
1
x
0
podemos analizar
si los estimadores cumplen con la caracterstica de ser los mejores esti-
madores, es decir aquellos que tienen la mnima varianza.
Al aplicar varianza sobre esta expresin, y recordando que V () = =

2
y que las x son variables determinsticas, llegamos a:

= + (x
0
x)
1
x
0

= V

+ (x
0
x)
1
x
0

= (x
0
x)
1
x
0
V () x(x
0
x)
1
V

= (x
0
x)
1
x
0
x(x
0
x)
1
V

=
2
(x
0
x)
1
x
0
x(x
0
x)
1
Sabemos que de ser la matriz = I, entonces los estimadores mnimo
cuadrados son ecientes (es decir de mnima varianza), de manera que
sabemos entonces que:
I < x
0
x(x
0
x)
1
, 6= I
La implicancia es que indudablemente los valores de las varianzas de los
estimadores sern mayores, de manera que si asumimos homoscedasti-
cidad y calculamos la varianza como
2
(x
0
x)
1
claramente estaremos
subestimando la verdadera volatilidad de los estimadores, creyendolos
ecientes cuando en realidad no lo son, lo cual implica que al aplicar
tests tstudent estemos rechazando hiptesis nulas cuando en realidad
estas son verdaderas (aumentando la probabilidad de error tipo I o er-
ror tipo ). En resumen, en presencia de errores heteroscedsticos los
estimadores mnimo cuadrados son inecientes y los test estadsticos
pierden validez.
6.1 HETEROSCEDASTICIDAD 95
6.1.2 Tests de Heteroscedasticidad
Para iniciar el procedimiento de testeo de heteroscedasticidad es comn en se-
ries de tiempo partir con el anlisis visual de los residuos, puesto que al asumir
que su valor esperado es nulo entonces los cuadrados de estos pueden ser una
buena aproximacin de la varianza residual, es decir, dado que E() = 0,
entonces V (
t
) =
2
t
= E (
2
t
) {E(
t
)}
2
= E (
2
t
).
Estadsticamente los tests de heteroscedasticidad se construyen con la
idea de encontrar alguna dependencia o relacin de causalidad entre los resid-
uos (tpicamente sus cuadrados o el logartmo de ellos) y alguna otra variable
utilizando una ecuacin auxiliar (tpicamente lineal) a estimar. La hiptesis
nula se representa por:
H
0
:
2
t
=
2
, t (Homocedasticidad)
versus la hiptesis alternativa de que para algun t esta relacin no se cumple,
representada por la ecuacin auxiliar siguiente:
H
a
:
2
t
=
0
+z
t

donde z
t
es un vector la de tamao 1xm compuesto por m variables can-
didatas a explicar la heteroscedasticidad en el perodo t, es el vector de
tamao mx1 constante para todo t, y
0
corresponde al escalar que repre-
sentara el valor de la varianza (
2
) de existir homoscedasticidad, es decir si
no se rechaza la hiptesis de que = 0:

2
t
=
0
+z
t

2
t
=
0
+z
t
0

2
t
=
0
Empricamente la batera de tests que se han diseado se focalizan en
evaluar si este vector es estadisticamente cero, para lo cual se efecta una
estimacin por mnimos cuadrados de la ecuacin auxiliar
2
t
=
0
+ z
t

pero reemplazando la varianza por los cuadrados de los residuos del modelo
principal y = x+, es decir se reemplaza
2
t
= e
2
t
=

y
t
x
t

2
y se estima
alguna transformacin de e
2
t
=
0
+z
t
.
A continuacin se presentan los test ms utilizados para vericar la exis-
tenia de errores heteroscedsticos:
96CHAPTER6 DISTORSIONES DEL MODELODEREGRESIN
1. Breusch-Pagan-Godfrey (BPG, 1978-1979). Se estima la siguiente re-
gresin:
e
2
t
=
0
+z
t
+
t
y se testea segn el estadstico

BPG
= TR
2
[a]

2
(m). T corresponde
al nmero de observaciones consideradas en la estimacin del modelo
auxiliar y R
2
[a]
es el coeciente de determinacin de la ecuacin auxiliar.
Si el test calculado

supera el valor de tabla entonces rechazamos
homoscedasticidad.
2. Glejser (1969). Aqu la variable dependiente es el valor absoluto de los
residuos muestrales, de manera que se estima:
|e
t
| =
0
+z
t
+
t
y el test que se distribuye como chi-cuadrado con m grados de libertad
se representa por ( es el vector de residuos estimados de la regresin
auxiliar):

G
=
SCT
[a]
v
0
v
h

1
2

s
2
[a]
i
donde s
2
[a]
=
v
0
v
T(m+1)
, y SCT
[a]
corresponden a la varianza residual
y la suma de los cuadrados totales
P

|e
t
|
_
|e
t
|

2
de la ecuacin
auxiliar respectivamente. Luego si el estadstico

G
supera al
2

(m)
de tabla entonces rechazamos la hiptesis nula de homoscedasticidad
existiendo evidencia de errores heteroscedsticos.
3. Harvey (1976). Andrew Harvey en su artculo "Estimating Regression
Models with Miltiplicative Heteroskedasticity" (ECONOMETRICA,
Vol. 44, pag. 461-465) utiliza como variable explicativa el logaritmo de
los residuos al cuadrado, de manera que la ecuacin a estimar es:
ln

e
2
t

=
0
+z
t
+
t
y el test que se distribuye chi-cuadrado con m grados de libertad es:

H
=
SCT
[a]
4.9348
Al igual que en los casos anteriores, si

H
es superior al respectivo
valor de tabla
2

(m) entonces existe evidencia de heteroscedasticidad


en los residuos.
6.1 HETEROSCEDASTICIDAD 97
4. Modelo Heteroscedstico con Media Condicional. En este caso se asume
que la variable explicativa es la variable dependiente estimada del mod-
elo principal ( y
t
), de manera que el modelo a estimar es:
e
2
t
=
0
+ y
t
+
t
Para este caso el test posee un grado de libertad, y corresponde
al parmetro que acompaa a y
t
. El test a aplicar aqu corresponde
aun chi-cuadrado pero con un grado de libertad y se contrasta con el
estadstico:

MC
= T R
2
[a]
Si

MC
supera a
2

(1) entonces existe evidencia de heteroscedastici-


dad.
5. Modelo Heteroscedstico con Media-Cuadrada Condicional. En este
caso se asume que la variable explicativa es la variable dependiente es-
timada del modelo principal al cuadrado ( y
2
t
), de manera que el modelo
a estimar es:
e
2
t
=
0
+ y
2
t
+
t
Para este caso el test posee un grado de libertad, y corresponde
al parmetro que acompaa a y
2
t
. El test a aplicar aqu corresponde
aun chi-cuadrado pero con un grado de libertad y se contrasta con el
estadstico:

MCC
= T R
2
[a]
Si

MCC
supera a
2

(1) entonces existe evidencia de heteroscedastici-


dad.
6. Modelo Heteroscedstico con log-Media-Cuadrada Condicional. En este
caso se asume que la variable explicativa es la variable dependiente
estimada del modelo principal al cuadrado y en logaritmo (ln( y
2
t
)), de
manera que el modelo a estimar es:
e
2
t
=
0
+ln

y
2
t

+
t
Para este caso el test posee un grado de libertad, y corresponde al
parmetro que acompaa a ln( y
2
t
). El test a aplicar aqu corresponde
aun chi-cuadrado con un grado de libertad y se contrasta con el es-
tadstico:

MLCC
= T R
2
[a]
98CHAPTER6 DISTORSIONES DEL MODELODEREGRESIN
Si

MLCC
supera a
2

(1) entonces existe evidencia de heteroscedasti-


cidad.
7. Modelo Autoregresivo Heteroscedstico Condicional (ARCH). Este tests
est asociado a Robert Engle, quien en 1982 publica en el Journal
of Econometrics el artculo "A General Approach to Lagrange Mul-
tiplier Model Diagnostics". En este tipo de modelos la(s) variable(s)
explicativa(s) es el propio rezago de la variable dependiente, es decir
los cuadrados de los residuos rezagados q veces, representacin que por
lo dems ha sido muy difundida para analizar retornos de precios de
activos (especialmente retornos accionarios).
La representacin a estimar corresponde a:
e
2
t
=
0
+
1
e
2
t1
+
2
e
2
t2
+... +
q
e
2
tq
+
t
El test evala si los coecientes
j
son conjuntamente cero (homoscedas-
ticidad) para lo cual se compara el estadstico:

ARCH
= (T q) R
2
[a]
Si

ARCH
supera al test chi-cuadrado con q grados de libertad,
2

(q),
entonces hay evidencia de errores heteroscedsticos.
8. White (1980). En su artculo "A Heteroskedastic-Consistent Covari-
ance Matrix and a Direct Test for Heteroskedasticity" (ECONOMET-
RICA Vol. 48, pag. 421-48) presenta un test que no requiere de an-
temano listar qu variable o variables son las candidatas a explicar
el comportamiento heteroscedastico de los errores. Simplemente con-
sidera como potenciales variables explicativas a todas las que estn
involucradas en el modelo principal y = x + . Las introduce como
variables en la ecuacin auxiliar de tres formas simultneamente: en
niveles, al cuadrado y multiplicndose entre ellas.
La expresin a estimar ser entonces:
e
2
t
=
0
+z
t

z
+z
2
t

z
2 +
P
z
it
z
jt

ij
+
t
es decir si el modelo original y = x + posee k parmetros a estimar
(la constante y k 1 variables explicativas) entonces el modelo auxiliar
6.1 HETEROSCEDASTICIDAD 99
de White tendr que estimar un total de k
0
=

(k+1)(k+2)
2

parmet-
ros considerando la constante, las variables en niveles, las variables
al cuadrado, y los efectos cruzados de las variables (multiplicacin de
variables entre s).
El test estadstico se distribuye chi-cuadrado con (k
0
1) grados de
libertad y se obtiene de:

W
= T R
2
[a]
Si

W
es superior al chi-cuadrado de tabla
2

(k
0
) entonces rechazamos
la hiptesis nula de homoscedasticidad.
6.1.3 Correccin
Existen bsicamente dos formas de corregir bajo la presencia de heteroscedas-
ticidad. Una es el procedimiento de White o su versin ms general conocida
como el Mtodo de Mnimos Cuadrados Generalizados o Mnimos Cuadrados
Ponderados (MCG) y la segunda es estimacin por mximo verosimilitud,
esta ltima se deja para una discusin posterior.
1. Mnimos Cuadrados Generalizados (MCG). Dado que sabemos que en
general la matriz de varianzas y covarianzas de los parmetros esti-
mados se representa por (x
0
x)
1
x
0
x(x
0
x)
1
y sabemos que los esti-
madores no son los de mnima varianza en este caso. Si conocieramos
la matriz podramos generar residuos cuya matriz sea escalar de man-
era que los estimadores generados a partir de ese modelo corregido si
entrege estimadores de mnima varianza. En esto consiste el mtodo
de mnimos cuadrados ponderados: aplicar mnimos cuadrados a una
transformacin del sistema original y = x +.
Para esto, dado que es una matriz simtrica y denida positiva,
entonces podemos denir una matriz H que satisfaga la condicin
HH
0
= I. En otras palabras vemos que = H
1
H
10
de forma
que
1
= H
0
H.
Si nuestro modelo original es:
y = x +
N (0, )
100CHAPTER6 DISTORSIONES DEL MODELODEREGRESIN
entonces el modelo transformado ser:
Hy = Hx +H
Hy = Hx +
N (0, I)
pues V (H) = H
0
V () H = H
0
H = I. Luego en este sistema si se
sabemos que los estimadores mnimo cuadrados son ecientes (de mn-
ima varianza) de manera que podemos hacer inferencia con los errores
estandar estimados. Los estimadores MCG sern al igual que en el
caso de mnimos cuadrados ordinarios generados a partir de la frmula

= (x
0
x)
1
x
0
y, lo cual aplicado a nuestro sistema modicado ser:

MCG
= ((x
0
H
0
) (Hx))
1
(x
0
H
0
) (Hy)
pero como hemos denido anteriormente que H
0
H =
1
, entonces
simplicamos la expresin anterior a:

MCG
=

x
0

1
x

1
x
0

1
y
Dado que ahora el nuevo residuo tiene una varianza identidad, la
varianza de los estimadores MGC se deducir de al expresin anterior:

MCG
=

x
0

1
x

1
x
0

1
y

MCG
=

x
0

1
x

1
x
0

1
(x +)

MCG
=

x
0

1
x

1
x
0

1
x +

x
0

1
x

1
x
0

MCG
= +

x
0

1
x

1
x
0

Al aplicar varianza a la expresin


MCG

y simplicando nos
queda (recordando que V () = ):

MCG
= V
h

x
0

1
x

1
x
0

MCG
=

x
0

1
x

1
x
0

1
V ()
1
x

x
0

1
x

MCG
=

x
0

1
x

1
x
0

1
x

x
0

1
x

MCG
=

x
0

1
x

1
x
0

1
x

x
0

1
x

MCG
=

x
0

1
x

1
6.1 HETEROSCEDASTICIDAD 101
de manera que nalmente sabemos que la distribucin de los esti-
madores MCG ser insesgada y con matriz de varianzas y covarian-
zas (x
0

1
x)
1
. Dado que el estimador

MCG
es de mnima varianza
en relacin al estimador de mnimos cuadrados bajo presencia de het-
eroscedasticidad entonces podemos decir que:

MCG

MCO

x
0

1
x

1
(x
0
x)
1
x
0
x(x
0
x)
1
Naturalmente para hacer las estimaciones y la aplicacin de este pro-
cedimiento debemos tener un estimador de . Una vez que se encuentre
el estimador

generamos las representaciones muestrales (estimadas)
de las expresiones para los estimadores

EMCG
y la matriz de varianzas
estimada

MCG
:

EMCG
=

x
0

1
x

1
x
0

1
y

MCG
=

x
0

1
x

1
White entrega un estimador para

centrando su atencin en corregir la
matriz de varianzas y covarianzas con el n de hacer inferencia, dejando
inalterado los estimadores mnimos cuadrados.
2. White (1980). En su artculo se presenta cmo obtener consistencia
para la matriz de varianza y covarainzas y as poder calcular errores
estndar correctos de los estimadores y efectuar con conanza tests
t student. Recordemos que en presencia de heteroscedasticidad la
matriz de varianzas y covarianzas se representa por:

= (x
0
x)
1
x
0
x(x
0
x)
1
La proposicin de White es reemplazar por su expresin muestral de
manera que si
t
N (0,
2
t
):

= (x
0
x)
1
x
0

= (x
0
x)
1
T
P
t=1
x
0
t

t
t
102CHAPTER6 DISTORSIONES DEL MODELODEREGRESIN
entonces al aplicar operador varianza:

= (x
0
x)
1
V

T
P
t=1
x
0
t

(x
0
x)
1

= (x
0
x)
1

T
P
t=1
x
0
t
V [
t
] x
t

(x
0
x)
1

= (x
0
x)
1

T
P
t=1
x
0
t

2
t
x
t

(x
0
x)
1

= (x
0
x)
1

T
P
t=1
x
0
t
x
t

2
t

(x
0
x)
1
entonces la matriz de covarianzas consistente se obtiene de reemplazar

2
t
= e
2
t
en la expresin anterior:

= (x
0
x)
1

T
P
t=1
x
0
t
x
t
e
2
t

(x
0
x)
1
Esta matriz ser consistente y puede ser utilizada para hacer inferencia
sobre los parmetros estimados.
6.2 Autocorrelacin
La discusin de la autocorrelacin sigue un procedimiento muy similar la caso
de la heteroscedasticidad y los problemas que causa sobre los estimadores
mnimo cuadrados tambin.
Recordemos nuevamente que una matriz de varianzas y covarianzas puede
ser descompuesta en tres matrices, dos de las cuales son idnticas:
E[
0
] = =
donde al igual que en caso de la heteroscedasticidad cada matriz se dene
6.2 AUTOCORRELACIN 103
por:
=

1
0 ... 0 0
0
2
0
... ... ...
0 ... ...
0 0 ...
T

1
1,2
...
1,T1

1,T

2,1
1
2,T
... ... ...

T1,1
... ...

T,1

T,2
... 1

Luego se puede escribir la anterior expresin como:


E [
0
] =

1
0 ... 0 0
0
2
0
... ... ...
0 ... ...
0 0 ...
T

1
1,2
...
1,T1

1,T

2,1
1
2,T
... ... ...

T1,1
... ...

T,1

T,2
... 1

1
0 ... 0 0
0
2
0
... ... ...
0 ... ...
0 0 ...
T

Al asumir no autocorrelacin de los residuos estamos imponiendo que la


matriz sea la matriz identiodad, = I, y a su vez al imponer homoscedas-
ticidad la matrices corresponden a matrices escalares I.
Al levantar el supuesto de no autocorrelacin ya no es posible denir
a la matriz de varianzas y covarianzas como
2
I, pues existir una matriz
que no es la identidad. Por esta razn es que la matriz de varianzas
y covarianzas se dene ahora asumiendo homoscedasticidad pero si errores
autocorrelacionados:
E [
0
] = =
2

Considerando la notacin anterior analizaremos los efectos que produce en


los estimadores mnimos cuadrados el asumir autocorrelacin en los residuos,
104CHAPTER6 DISTORSIONES DEL MODELODEREGRESIN
es decir asumiremos que:
N

0,
2

donde no es la identidad.
6.2.1 Implicancias para Estimacin
Para vericar si existe algn efecto sobre los estimadores mnimo cuadrados
consideremos el caso de un modelo general en su versin matricial como
y = x + , donde asumiremos que N (0,
2
). lo ms interesante es
vericar si los primeros momentos de este estimador se ven afectados, para lo
cual primero analizaremos el sesgo y segundo la varianza de los estimadores
bajo este nuevo escenario donde 6= I.
1. Sesgo. Si sabemos que

= (x
0
x)
1
x
0
y entonces reemplacemos el mod-
elo en esta expresin:

= (x
0
x)
1
x
0
y
= (x
0
x)
1
x
0
(x +)
= (x
0
x)
1
x
0
x + (x
0
x)
1
x
0

= + (x
0
x)
1
x
0

Al aplicar el operador expectativa y considerando que E () = 0, ten-


dremos que:
E

= + (x
0
x)
1
x
0
E ()
E

=
de manera que aun bajo presencia de errores autocorrelacionados los
estimadores mnimo cuadrados siguen siendo insesgados.
2. Varianza. Apartir de la expresin

= +(x
0
x)
1
x
0
podemos analizar
si los estimadores cumplen con la caracterstica de ser los mejores esti-
madores, es decir aquellos que tienen la mnima varianza.
Al aplicar varianza sobre esta expresin, y recordando que V () = =
6.2 AUTOCORRELACIN 105

2
y que las x son variables determinsticas, llegamos a:

= + (x
0
x)
1
x
0

= V

+ (x
0
x)
1
x
0

= (x
0
x)
1
x
0
V () x(x
0
x)
1
V

= (x
0
x)
1
x
0
x(x
0
x)
1
V

=
2
(x
0
x)
1
x
0
x(x
0
x)
1
Sabemos que de ser la matriz = I, entonces los estimadores mnimo
cuadrados son ecientes (es decir de mnima varianza), de manera que
sabemos entonces que:
I < x
0
x(x
0
x)
1
, 6= I
La implicancia es que indudablemente los valores de las varianzas de
los estimadores sern mayores, de manera que si asumimos no autocor-
relacin y calculamos la varianza como
2
(x
0
x)
1
claramente estaremos
subestimando la verdadera volatilidad de los estimadores, creyndolos
ecientes cuando en realidad no lo son, lo cual implica que al aplicar
tests t student estemos rechazando hiptesis nulas cuando en real-
idad estas son verdaderas (aumentando la probabilidad de error tipo
I o error tipo ). En resumen, en presencia de autocorrelacin de los
residuos, los estimadores mnimo cuadrados son inecientes y los test
estadsticos pierden validez.
6.2.2 Tests de Autocorrelacin
Para iniciar el procedimiento de testeo de autocorrelacin de los residuos el
primer paso consiste en una inspeccin grca de los residuos en el tiempo.
Este procedimiento es estadticamente muy dbil y solamente si la autocor-
relacin es muy fuerte entonces se observar algo en la grca, pero de ser
uns correlacin dbil es necesario la aplicacin de una batera de tests espe-
cialmente diseada para tal efecto.
Estadsticamente los tests de heteroscedasticidad se construyen con la
idea de encontrar alguna dependencia o relacin de causalidad temporal entre
106CHAPTER6 DISTORSIONES DEL MODELODEREGRESIN
los residuos estimando una ecuacin auxiliar al igual que con la heteroscedas-
ticidad. La hiptesis nula se representa por:
H
0
: = 0 , t (No Autocorrelacin)
versus la hiptesis alternativa de que para algn t esta relacin no se cumple.
La ecuacin auxiliar general se puede representar por:
H
a
:
t
=
1

t1
+
2

t2
+... +
q

tq
donde es un vector de tamao qx1. De no existir autocorrelacin de los
residuos el vector de parmetros compuesto por q residuos rezagados para
explicar la autocorrelacin. De no existir autocorrelacin residual de orden
q la hiptesis nula = 0 no es rechazada.
Empricamente la batera de tests que se han diseado se focalizan en
evaluar si este vector es estadisticamente cero, para lo cual se efecta una
estimacin por mnimos cuadrados de la ecuacin auxiliar pero reemplazando

t
por los residuos muestrales del modelo principal y = x + , es decir se
reemplaza
t
= e
t
=

y
t
x
t

y se estima e
t
=
1
e
t1
+
2
e
t2
+...+
q
e
tq
+

t
.
A continuacin se presentan los test ms utilizados para vericar la exis-
tenia de errores autocorrelacionados:
1. Durbin-Watson (1950, 1951). El estadstico de Durbin y Watson (d) es
uno de los test ms tradicionales para evaluar autocorrelacin residual
de primer orden (q = 1). A partir de la estimacin de modelo principal
se generan los residuos muestrales e
t
. A partir de estos se calcula el
estadstico d como:
d =
P
T
t=2
(e
t
e
t1
)
2
P
T
t=1
e
2
t
Este estadstico tiene una estrecha relacin con el coeciente de au-
tocorrelacin de la regresin auxiliar. Si estimamos utilizando
el mtodo de los mnimos cuadrados aplicado a la ecuacin auxiliar
e
t
= e
t1
+
t
, el coeciente estimado sera (recordemos que e 0):
=
P
T
t=2
e
t1
e
t
P
T
t=2
e
2
t1
6.2 AUTOCORRELACIN 107
De la expresin para el test d se puede concluir que:

d =
P
T
t=2
(e
t
e
t1
)
2
P
T
t=1
e
2
t

d =
P
T
t=2

e
2
t
+e
2
t1
2e
t
e
t1

P
T
t=1
e
2
t

d =
P
T
t=2
e
2
t
P
T
t=1
e
2
t
+
P
T
t=2
e
2
t1
P
T
t=1
e
2
t

P
T
t=2
2e
t
e
t1
P
T
t=1
e
2
t
Dado que los dos primeros trminos son bastante similares, y adems
reemplazando
P
T
t=1
e
2
t

P
T
t=2
e
2
t1
entonces podemos escribir esta l-
tima expresin como:

d 2
P
T
t=2
2e
t
e
t1
P
T
t=2
e
2
t1

d 2

1
P
T
t=2
e
t
e
t1
P
T
t=2
e
2
t1
!
Note sin embargo que esta ltima expresin tambin se puede escribir
como:

d 2

1
P
T
t=2
e
t
e
t1
P
T
t=2
e
2
t
!
donde hemos utilizado la aproximacin
P
T
t=2
e
2
t

P
T
t=2
e
2
t1
de manera
que en la prctica el coeciente lo podemos extraer de una estimacin
del tipo e
t
= e
t1
+
t
o una expresin auxiliar inversa como e
t1
=
e
t
+
t1
. Este punto es relevante para otros tests que se presentarn
ms adelante.
Finalmente reemplazando por el coeciente estimado del factor de au-
tocorrelacin llegamos a la expresin que relaciona el estadstico d
con el coeciente de autocorrelacin de primer orden :

d 2 (1 )
Claramente la hiptesis nula = 0 indica implcitamente la hiptesis
H
0
: d = 0. Para vericar los extremos del estadstico d analicemos los
108CHAPTER6 DISTORSIONES DEL MODELODEREGRESIN
valores posibles del coeciente de autocorrelacin:
= 1 =

d = 4 Autocorrelacin Negativa
= 0 =

d = 2 No Autocorrelacin
= 1 =

d = 0 Autocorrelacin Positiva
Este test es uno de los pocos que se contrasta con dos valores de una
misma tabla. Considerando un nivel de signicancia de % se debe de-
terminar el nmero de parmetros estimados en la ecuacin o modelo
principal y = x + sin considerar la constante (k 1), y el nmero
de observaciones utilizadas en la estimacin (T). Con esta informacin
la tabla entrega dos estadsticos d
l
, d
u
, donde d
l
< d
u
. Dado que el
estadstico d pertenece al intervalo [0, 4] los valores de tabla tambin
estarn acotados a ese mismo intervalo. Dependiendo del valor que
toma el estadstico d en relacin a los valores de tabla, rechazaremos o
no la hiptesis nula de no autocorrelacin de primer orden de los resid-
uos. La siguiente tabla entrega estas relaciones de la cual se concluye
que rechazamos la hiptesis nula de no autocorrelacin si el estadstico
d cae duera del intervalo [d
l
, 4 d
l
]:
d < d
l

Rechazo H
0
Autocorrelacin Positiva

d
l
< d < d
u
Regin Inconclusa
d
u
< d < 4 d
u
No Rechazo H
0
4 d
u
< d < 4 d
l
Regin Inconclusa
d > 4 d
l

Rechazo H
0
Autocorrelacin Negativa

Ejercicio. Supongamos que estimamos un modelo de demanda por


un producto q con dos variables explicativas: ingreso (y) y precio del
producto (p), con los siguientes resultados:
q
t
= 25.89 1.12p
t
+ 0.89y
t

d = 1.39
T = 85
6.2 AUTOCORRELACIN 109
Si observamos los valores de tabla de referencia al 5% para k 1 = 2
con 85 observaciones se obtiene:
d
l
= 1.600
d
u
= 1.696
Dado que el estadstico

d = 1.39 < d
l
= 1.6 entonces rechazamos la
hiptesis nula que los residuos no estn autocorrelacionados en favor
de que eventualmente existe autocorrelacin positiva.
Asumamos que esa autocorrelacin provendra del hecho de que de-
jamos fuera una variable relevante como es el precio del producto susti-
tuto (p
s
) y estimamos el modelo con esta variable includa. Los resul-
tados son:
q
t
= 23.19 1.01p
t
+ 0.94y
t
+ 0.43p
st

d = 1.89
T = 230
Ahora el estadstico

d = 1.89 con k 1 = 3, y cae en el intervalo
[d
u
, 4 d
u
] = [1.721, 2.279] de manera que ahora con el modelo cor-
regido e incorporando la variable causante de la autocorrelacin, no
rechazamos la hiptesis nula de no autocorrelacin de los residuos.
2. Durbin-h (1970). Este test se utiliza cuando la ecuacin principal tiene
como variables explicativas rezagos de la variable endgena o dependi-
ente, es decir variables y
tj
con j > 1. La hiptesis nula sigue siendo no
autocorrelacin de primer orden y el sistema a estimar se representar
por:
y = x +y
j
+

t
=
t1
+
t
donde en este caso el parmetro posee una dimensin jx1 donde j es el
nmero de rezagos que presenta la variable y como variable explicativa.
Recordemos que el parmetro de autocorrelacin lo podemos tambin
calcular de la expresin auxiliar inversa
t1
=
t
+
t1
En este caso el test h se distribuye asintticamente como una normal
estandarizada denida por:

h =
"
T j
1 (T j)

V


[1]

#1
2
N (0, 1)
110CHAPTER6 DISTORSIONES DEL MODELODEREGRESIN
donde j corresponde al nmero de rezagos utilizados de la variable
endgena como variable explicativa,
[1]
es el parmetro asociado al
primer rezago de estas variables endgenas explicativas, y T j cor-
responde al nmero de observaciones utilizadas en la estimacin del
modelo principal.
Dado que

h N (0, 1) entonces si este estadstico pertenece al intervalo
[1.96, 1.96] al 5% (o al intervalo [1.645, 1.645] con un nivel de sig-
nicancia del 10%) no rechazamos la hiptesis nula de que los residuos
no siguen un proceso de autocorrelacin de primer orden.
Ejercicio. Supongamos que en una regresin para estudiar la inacin
se utilizan dos rezagos de la inacin como variables explicativas. El
resultado de las estimaciones es el siguiente (errores estndar entre
parntesis):

t
= 2.21 + 0.65
t1
+ 0.12
t2
+ 0.89 m
t
(0.04) (0.04) (0.06) (0.12)

d = 0.87
T = 180
donde es la inacin en t, y m es la tasa de crecimiento de la cantidad
de dinero en t.
A partir de estos resultados sabemos queno podemos aplicar el test
tradicional de Durbin-Watson. En este caso al existir variables de-
pendientes rezagadas en la ecuacin entonces debemos aplicar el test
h-Durbin:

h =
"
T j
1 (T j)

V


[1]

#1
2

h = 0.87

180 2
1 (180 2) (0.04)
2
1
2

h = 13.725
Claramente este valor supera los valores relevantes de una tabla estads-
tica normal (1.645 1.96), lo cual implica que rechazamos la hiptesis
de no autocorrelacin de primer orden de los residuos.
6.2 AUTOCORRELACIN 111
3. Multiplicador de Lagrange para Correlacin Serial. Este test es muy
utilizado para evaluar modelos con procesos autoregresivos de los resid-
uos superiores a uno. A diferencia de los test anteriores, la ecuacin
auxiliar a estimar contiene el conjunto de variables explicativas del
modelo principal adems de los rezagos de los residuos por analizar:
y = x +

t
= x +
1

t1
+
2

t2
+... +
q

tq
+
t
Reemplazando los residuos poblacionales por los muestrales (
t
= e
t
)
implementamos el test como:

LM
= (T q) R
2
[a]

2
(q)
Al igual que en los casos anteriores donde se aplicaron test de esta
clase, la hiptesis nula H
0
:
1
=
2
= ... =
q
= 0 (no autocorrelacin
de orden q de los residuos) ser rechazada si es que el estadstico

LM
supera a su similar de tabla
2

(q).
4. Multiplicador de Lagrange para Correlacin Serial con Rezagos de y.
La diferencia de este test con respecto al del punto anterior es que
es ms general pues permite la existencia de variables rezagadas (y
j
)
como variables explicativas de y. La ecuacin auxiliar a estimar con-
tiene el conjunto de variables explicativas del modelo principal adems
de los rezagos de los residuos por analizar:
y = x +y
j
+

t
= x +y
j
+
1

t1
+
2

t2
+... +
q

tq
+
t
Reemplazando los residuos poblacionales por los muestrales (
t
= e
t
)
implementamos el test como:

LME
= (T (j +q)) R
2
[a]

2
(q)
donde ahora restamos al nmero de observaciones T el nmero de ob-
servaciones perdidas en estimar el modelo original j y las del mod-
elo auxiliar q. Al igual que en el caso anterior, la hiptesis nula
H
0
:
1
=
2
= ... =
q
= 0 (no autocorrelacin de orden q de los
residuos) ser rechazada si es que el estadstico

LME
supera a su sim-
ilar de tabla
2

(q).
112CHAPTER6 DISTORSIONES DEL MODELODEREGRESIN
5. Box-Pierce (1970) o test Q. Este test se basa en el anlisis conjunto de
los coecientes estimados de la ecuacin auxiliar para vericar si son
estadsticamente ceros. Estos coecientes son las correlaciones de los
residuos de manera que se analizan:

t
=
Cov (
s
,
t
)
V ar (
t
)
=
E(
s
,
t
)
E(
2
t
)
Tal como sabemos este coeciente es equivalente al parmetro de la
ecuacin auxiliar inversa:

ts
=
s

t
+
ts
s = 1, 2, ..., q
donde el se calcula como la razn entre las covarianzas y la varianza
de la variable dependiente. Estimando la expresin anterior utilizando
los residuos e
t
en lugar de
t
estimamos un vector de dimensin qx1.
Los autores demuestran que el estadstico relevante para evaluar la
hiptesis nula de que no existe autocorrelacin de residuos se dene
por (expresiones equivalentes):
Q = T
q
P
s=1

2
s

2
(q)
Q = T
0

2
(q)
de manera que si este estadstico supera a su equivalente
2

(q) entonces
rechazamos la nula presentndose evidencia de autocorrelacin de orden
q de los residuos.
6. Ljung-Box (1978) o test Q. Una perfeccin de este test lo presentan
Ljung y Box. Utilizando la misma ecuacin auxiliar del test Box-Pierce
denen al estadstico:
Q
0
= T (T + 2)
q
P
s=1


2
s
(T s)


2
(q)
Si el estadstico Q
0
es mayor a su equivalente de tabla
2

(q), entonces
rechazamos la hiptesis nula H
0
:
1
=
2
= ... =
q
= 0.

You might also like