Professional Documents
Culture Documents
INTERMEDIA Y BÁSICA
ALVARO MONTENEGRO
Profesor Titular
Departamento de Economía
Universidad Javeriana
Bogotá
Montenegro ECONOMETRÍA
CONTENIDO
HETEROSCEDASTICIDAD Y AUTOCORRELACIÓN
CAUSALIDAD E IMPACTO
BOOTSTRAPPING Y PERMUTACIÓN
MODELOS ARCH
EJERCICIOS
RESPUESTAS
REFERENCIAS
Montenegro ECONOMETRÍA
PRESENTACIÓN
Sobre el autor:
ALVARO MONTENEGRO PhD en Economía de New York University; magíster en
economía de la Universidad Javeriana; ingeniero electrónico de la Universidad Javeriana.
En el pasado: director del Centro sobre Desarrollo Económico CEDE de la Universidad
de los Andes, profesor titular de la Facultad de Economía de la Universidad de los Andes;
asesor del Instituto de Ahorro y Vivienda, de la Superintendencia de Industria y
Comercio, de la Contraloría General de la República; y columnista y editorialista del
diario El Tiempo. Áreas de interés: macroeconomía cuantitativa, desarrollo económico,
econometría y series de tiempo. Sus contribuciones han sido publicadas en Journal of
Econometrics, Constitutional Political Economy, Journal of Applied Statistics, Labour,
Applied Financial Economics, Desarrollo y Sociedad, y Revista de Economía
Institucional, entre otras. Es autor de libros sobre temas de crecimiento económico (con
Lauchlin Currie), economía experimental y análisis de series de tiempo. Actualmente es
miembro de la Academia Colombiana de Ciencias Económicas.
Montenegro ECONOMETRÍA
Capítulo 1
y = f ( x1 , x2 ,K, xk , ε ) (1.1)
Supuesto 1
y = β 0 + β1 x1 + β 2 x2 + L + β k xk + ε (1.2)
Montenegro ECONOMETRÍA
β0
1
y
β1
x1
β2
x2
M
βk
xk
1
ε Figura 1.1
y2 = β 0 + β1 x12 + β 2 x22 + L + β k xk 2 + ε 2
(1.3)
M
yn = β 0 + β1 x1n + β 2 x2 n + L + β k xkn + ε n
y1 1 x11 x21 L xk 1 β 0 ε1
y 1 x x22 L xk 2 β1 ε 2
2 = 12
+ (1.4)
M M M M L M M M
yn 1 x1n x2 n L xkn β k ε n
n×1 n× k +1 k +1×1 n×1
y1
y
y = 2 (1.5)
M
yn
n×1
1 x11 x21 L xk 1
1 x x22 L xk 2
X = 12
(1.6)
M M M L M
1 x1n x2 n L xkn
n× k +1
β0
β
β = 1 (1.7)
M
β k
k +1×1
Montenegro ECONOMETRÍA
ε1
ε
ε = 2 (1.8)
M
ε n
n×1
y = Xβ + ε (1.9)
βˆ0
ˆ
β
β = 1
ˆ (1.10)
M
ˆ
β k
k +1×1
εˆ1
εˆ
ε = y − Xβ = y − y = 2
ˆ ˆ ˆ (1.11)
M
εˆn
εˆ1
εˆ
∑ εˆ 2
= εˆ12 + εˆ22 + L + εˆn2 = [εˆ1 εˆ2 L εˆn ] 2 = εˆ′εˆ (1.12)
i
M
εˆn
= ( y′ − βˆ ′ X ′)( y − Xβˆ )
(1.13)
= y′y − y′Xβˆ − βˆ ′X ′y + βˆ ′X ′Xβˆ
= y′y − 2 βˆ ′X ′y + βˆ ′X ′Xβˆ
∂ εˆ′εˆ ∂
= ( y′y − 2 βˆ ′X ′y + βˆ ′X ′Xβˆ ) = 0 (1.14)
∂β ˆ ∂βˆ k +1×1
∂ y′y
= 0 (1.15)
∂βˆ k +1×1
∂ (−2 βˆ ′X ′y )
= − 2 X ′y (1.16)
∂βˆ k +1×1
∂ βˆ ′X ′Xβˆ
= 2 X ′Xβˆ (1.17)
∂βˆ k +1×1
∂ εˆ′εˆ
= −2 X ′y + 2 X ′Xβˆ = 0 (1.18)
∂βˆ k +1×1
X ′Xβ̂ = X ′y (1.19)
Supuesto 2
( X ′X ) −1 existe (1.20)
r ( X ) = r ( X ′) = r ( X ′X ) = r ( XX ′) = k + 1 (1.21)
y2
Figura 1.2
y1
x1 x2
β̂ = ( X ′X ) −1 X ′ y (1.22)
Montenegro ECONOMETRÍA
donde
1 1 L 1 εˆ1 0
x x12 L x1n εˆ2 0
X ′εˆ = 11 = (1.24)
M M M M
xk 1 xk 2 L xkn εˆn 0
k +1× n n ×1 k +1×1
∑ εˆ = ∑ x εˆ =∑ x
i 1i i εˆ = L = ∑ xkiεˆi =0
2i i (1.25)
εˆ
x1
Figura 1.3
ŷ
x2
y1 x1 ε1
y x
2 = 2 β + ε 2 (1.26)
M M 1×1 M
yn xn ε n
n ×1 n ×1 n ×1
−1
x1 y1
x y
β = ( X ′X ) X ′y = [x1
ˆ −1
x2 L xn ] 2 [x1 x2 L xn ] 2 =
1×1 M M
xn yn
(1.27)
(∑ x ) ∑ x y = ∑ xxy
2 −1 i i
∑ 2
i i i
i
y1 1 x1 ε1
y 1 x β
2 = 2 0 ε 2
+ (1.28)
M M M β1 M
2×1
yn 1 xn ε n
n×1 n×2 n×1
−1
n
∑ x ∑ y
i i
∑ xi ∑ x ∑ x y
2
i i i
Invertir una matriz a mano es en general una tarea difícil, excepto cuando se
trata de un escalar o de una matriz de orden 2 × 2 , como el caso del ejemplo.
Para invertirla, se cambian de lugar los dos elementos de la diagonal
principal, se cambia el signo de los dos elementos que están fuera de la
Montenegro ECONOMETRÍA
∑ xi2 − ∑ xi
∆ ∑ yi =
= ∆
− ∑ xi n ∑ xi yi
∆ ∆
(1.29)
∑ xi2 ∑ yi − ∑ xi ∑ xi yi
∆
− ∑ xi ∑ yi + n∑ xi yi
∆
Cov ( x, y )
Mostramos a continuación que βˆ1 = , lo cual es cierto solo para
Var ( x)
este ejemplo donde hay una constante y una variable; la expresión de β̂1 será
diferente si hay más variables explicativas o falta el intercepto. La
demostración puede hacerse dividiendo la expresión de β̂1 arriba y abajo por
n 2 y recordando la definición de varianza y covarianza,
− ∑ xi ∑ yi + n∑ xi yi
βˆ1 = ∑ i ∑ i
− x y + n∑ xi yi n2
=
n∑ xi2 − (∑ xi )
2
∆
n2
(1.30)
− ∑ xi ∑ yi ∑ xi yi
+
= n2 n = − ExEy + Ex y = Cov( x, y )
∑ xi2 − (∑ xi )
2
Ex 2 − ( Ex) 2 Var ( x)
2
n n
ˆ
β 0
En el ejemplo anterior puede notarse que si xi = yi entonces βˆ = 0 = .
ˆ
β1 1
−1
∑ x22 − ∑ x1 x2
∑ x12 ∑ x1x2 ∑ x1 y ∆ ∆
∑ x1 y
= = (1.32)
∑ x1 x2 ∑ x22 ∑ 2 ∑ x1 x2
x y − ∑ x12 ∑ x2 y
∆ ∆
∑ x22 ∑ x1 y − ∑ x1 x2 ∑ x2 y
= ∆
∑ x1 ∑ x2 y − ∑ x1 x2 ∑ x1 y
2
∆
También vale la penar notar de este ejemplo que para que todos los
coeficientes estimados β̂1 y β̂ 2 sean cero es necesario que ∑ x1 y = ∑ x 2 y =0 .
Ejemplo de estimación
Dependent Variable: NP
Method: Least Squares
Date: 10/19/17 Time: 12:25
Sample: 1 59
Included observations: 59
Cuadro 1.1
Insesgamiento
βˆ = ( X ′X ) −1 X ′y = ( X ′X ) −1 X ′( Xβ + ε )
(1.33)
= ( X ′X ) −1 X ′Xβ + ( X ′X ) −1 X ′ε = β + ( X ′X ) −1 X ′ε
Eβˆ = β + E [( X ′X ) −1 X ′ε ] (1.34)
Supuesto 3
Eε1 X 0
Eε 2 X 0
Eε X = 0 = = (1.35)
n×1 M M
Eε n X 0
Eβˆ X = β + ( X ′X ) −1 X ′ Eε X = β (1.36)
Varianza de β̂
′
( )( ) ( )(
Var ( βˆ ) = E βˆ − E ( βˆ ) βˆ − E ( βˆ ) = E βˆ − β βˆ − β )′ (1.39)
βˆ0 − β 0
ˆ
β1 − β1 ˆ
E
M 0
[β − β0 βˆ1 − β1 L βk − βk
ˆ
]
βˆk − β k
(1.40)
E ( βˆ0 − β 0 ) 2 E ( βˆ0 − β 0 )( βˆ1 − β1 ) L E ( βˆ0 − β 0 )( βˆk − β k )
ˆ
E ( β1 − β1 )( βˆ0 − β 0 ) E ( βˆ1 − β1 ) 2 L E ( βˆ1 − β1 )( βˆk − β k )
=
M M O M
E ( β k − β k )( β 0 − β 0 ) E ( β k − β k )( βˆ1 − β1 )
ˆ ˆ ˆ L E ( βˆk − β k ) 2
(
Var ( βˆ ) = E ( X ′X ) −1 X ′ ε ε ′ X ( X ′X ) −1 ) (1.41)
Supuesto 4
σ ε2 0 L 0 1 0 L 0
0
0 σ ε2 L 0 1 L 0
Eεε ′ X = = σ ε2 = σ ε2 I (1.43)
M M O M M M O M
2
0 0 L σ ε 0 0 L 1
( )
Var ( βˆ X ) = E ( X ′X ) −1 X ′ ε ε ′ X ( X ′X ) −1 X = ( X ′X ) −1 X ′ E (εε ′ X )X ( X ′X ) −1
k +1× k +1
(1.44)
= ( X ′X ) X ′ (σ ε I )X ( X ′X ) = σ ε ( X ′X ) X ′X ( X ′X ) = σ ε ( X ′X )
−1 2 −1 2 −1 −1 2 −1
Ejemplo
∑ x22 − ∑ x1 x2
( X ′X )−1 = ∆ ∆ (1.45)
∑ x1 x2
− ∑ x12
∆ ∆
∑ x22 − ∑ x1 x2
2 ∑ x1 ∑ x2 − (∑ x1 x2 ) ∑ x12 ∑ x22 − 2(∑ x1x2 )
2 2
βˆ1 2 −1
2 2
Var = σ ε ( X ′X ) = σ ε
ˆ
β2 − ∑ x1 x2 ∑ x1
∑ x12 ∑ x22 − (∑ x1 x2 ) ( )
2 2
∑ 1 ∑ 2 ∑ 1 2
x 2
x 2
− x x
σ ε2 ∑ x22
Var ( βˆ1 ) =
∑ x ∑ x − (∑ x x )
2 2 2
1 2 1 2
(1.46)
σε ∑ x
2 2
Var ( βˆ2 ) = 1
∑ x ∑ x − (∑ x x )
2 2 2
1 2 1 2
ˆ σ ε2
Var ( β1 ) =
∑ x12
(1.47)
2
σ
Var ( βˆ2 ) = ε 2
∑ x2
donde en general puede verse que cuanto mayor sea la variación en las
variables, ∑ x12 o ∑ x 22 , menores serán las varianzas de β̂1 o β̂ 2 .
~ ~ ~
( )(
Var ( β ) = E β − β β − β )′ = σ 2
ε ( X ′X ) −1 + Ρ (1.48)
k +1×k +1
∑ xi2 − ∑ xi y1
∆ 1 1 L 1 y2
= ∆ (1.49)
− ∑ xi n x1 x2 L xn M
∆
∆ yn
∑ xi2 − x1 ∑ xi ∑x 2
− x2 ∑ xi − xn ∑ xi y1
∑x 2
y2
i i
L
= ∆ ∆ ∆
− ∑ xi + nx1 − ∑ xi + nx2
L
− ∑ xi + nxn M
∆ ∆ ∆ y
n
y finalmente
Montenegro ECONOMETRÍA
βˆ0 = ∑
xi2 − x1 ∑ xi ∑x 2
i − x2 ∑ xi ∑x 2
i − xn ∑ xi
y1 + y2 + L + yn
∆ ∆ ∆
(1.50)
nx1 − ∑ xi nx2 − ∑ xi nxn − ∑ xi
βˆ1 = y1 + y2 + L + yn
∆ ∆ ∆
donde puede verse que los β̂ estimados son combinaciones lineales de los
valores y1 , y2 ,K, yn .
Aclarado este punto, pasamos a la demostración del teorema de Gauss
Markov, sin olvidar que siguen vigentes los cuatro supuestos hechos hasta el
momento.
Definamos cualquier otro estimador lineal insesgado de β , el cual
~
denotamos β , cuya expresión deberá conformarse a
~
β = A y
k +1× n n ×1
(1.51)
k +1×1
~
donde A es una matriz de coeficientes. En otras palabras, β será una
combinación lineal del vector y
~
β 0 A01 A02 L A0 n y1
~
~ β1 A11 A12 L A1n y2
β= = (1.52)
M M M O M M
~
β k Ak 1 Ak 2 L Akn yn
~
Una condición que debe cumplir β es la de ser insesgado. Esto requiere que
~
Eβ X debe ser igual a β , de manera que, de (1.53) se deduce que
AX = I
k +1× k +1
(1.54)
1 0.5
− 2 0 1 − 2 + 3 − 1 + 1 1 0
− 2 1 0 2 2 = − 2 + 2 − 1 + 2 = 0 1 (1.55)
3 1
~ ~ ~ ′
( )( )
Var ( β X ) = E β − β β − β X = E [ Aεε ′A′] X
(1.57)
= AE (εε ′ X ) A′ = σ ε2 AA′
A = ( X ′X ) −1 X ′ + Β (1.58)
′
( )( ) ( )(
AA′ = ( X ′X ) −1 X ′ + Β ( X ′X ) −1 X ′ + Β = ( X ′X ) −1 X ′ + Β X ( X ′X ) −1 + Β′ )
(1.59)
−1 −1 −1 −1
= ( X ′X ) X ′X ( X ′X ) + ( X ′X ) X ′ Β′ + Β X ( X ′X ) + ΒΒ′
AX = I = ( X ′X ) −1 X ′X + ΒX = I + ΒX (1.60)
ΒX = 0 = X ′Β′ (1.61)
k +1× k +1
con lo cual
Tr (σ ε2 ( X ′X ) −1 + σ ε2ΒΒ′) ≥ Tr (σ ε2 ( X ′X ) −1 ) (1.64)
λ ′Ωλ ≥ 0 (1.65)
a b
Por ejemplo, ilustramos tres casos sencillos para una matriz Ω =
b d
Montenegro ECONOMETRÍA
b 1 1
[1 0]
a
= [a b] = a ≥ 0
b d 0 0
b 0 0
[0 1]
a
= [b d ] = d ≥ 0 (1.66)
b d 1 1
b 1 1
[1 1]
a
= [a + b b + d ] = a + b + b + d ≥ 0
b d 1 1
λ ′ Β Β′λ ≥ 0 (1.67)
1× n n ×1 1×1
Estimación de σ ε2
εˆ = y − yˆ = y − Xβˆ = y − X ( X ′X ) −1 X ′ y = (I n − X ( X ′X ) −1 X ′) y
( )
= I n − X ( X ′X ) −1 X ′ ( Xβ + ε )
(1.68)
(
= Xβ − X ( X ′X ) −1 X ′Xβ + I n − X ( X ′X ) −1 X ′ ε )
( )
= I n − X ( X ′X ) −1 X ′ ε = M ε
n× n
( )(
MM = I n − X ( X ′X ) −1 X ′ I n − X ( X ′X ) −1 X ′ )
= I n − X ( X ′X ) −1 X ′ − X ( X ′X ) −1 X ′ + X ( X ′X )−1 X ′X ( X ′X )−1 X ′ (1.69)
= I n − X ( X ′X ) −1 X ′ = M
εˆ = My = Mε (1.70)
m m12 ε1 ε
E [ε 1 ε 2 ] 11 = E [m11ε1 + m12ε 2 m12ε 1 + m22ε 2 ] 1
m12 m22 ε 2
ε 2
(1.72)
( 2
= E m ε + m12ε 1ε 2 + m12ε 1ε 2 + m ε
11 1
2
22 2 ) = σ (m
2
ε 11 + m22 )
(
Eεˆ′εˆ = E m11ε12 + 2m12ε 1ε 2 + 2m13ε 1ε 3 + L + m22ε 22 + L + mnnε n2 )
(1.73)
= σ ε (m11 + m22 + L + mnn )
2
(
Eεˆ′εˆ = σ ε2Tr (M ) = σ ε2Tr I n − X ( X ′X ) −1 X ′ )
( ( )) ( (
= σ ε2 Tr (I n ) − Tr X ( X ′X ) −1 X ′ = σ ε2 Tr (I n ) − Tr ( X ′X ) −1 X ′X )) (1.74)
= σ ε2 (Tr (I n ) − Tr (I k +1 )) = σ ε2 (n − (k + 1))
εˆ′εˆ
E = σ ε2 (1.75)
n − (k + 1)
Montenegro ECONOMETRÍA
εˆ ′εˆ
En otras palabras, el valor esperado de la expresión es el
(n − (k + 1))
verdadero parámetro, lo que quiere decir que podemos usar esta expresión
como estimador insesgado de σ ε2 , así
εˆ′εˆ
σˆ ε2 = (1.76)
n − (k + 1)
Ejemplo
En el Cuadro 1.1 la raíz del estimador de la varianza del error aparece como
εˆ′εˆ 5.010794
σˆ ε2 = = = 0.299130 . También se presenta la desviación
n − (k + 1) 56
estándar (raíz de la varianza) de los coeficientes estimados; estos son
0.079308 para la constante, 0.031901 para MAT y 0.001585 para EST.
−1
1 0 L 0 1 1
0 1 1 1
′ −1
M = In − X ( X X ) X =
′ − [1 1 L 1] [1 1 L 1]
M O M M
0 1 1 1
1 0 L 0 1 1 − n −1 − n −1 L − n −1
0 1 1
− n −1 1 − n −1
=
M
−
O M
−1
( )
n [1 1 L 1] =
M
O
−1
0 1 1 − n 1 − n −1
Supuesto 5
ε X ~ N (0,σ ε2 I ) (1.78)
βˆ X ~ N (β , σ ε2 ( X ′X ) −1 ) (1.79)
Capítulo 2
R Cuadrado
Una forma popular de evaluar una regresión es por medio del R 2 , el cual
se define como la variación explicada (explained sum of squares, ESS), que
n
se calcula como ∑ ( yˆ − y )
i =1
i
2
, dividida por la variación total de la variable
n
dependiente (total sum of squares, TSS), que se calcula como ∑ ( y − y)
i =1
i
2
,
esto es,
n
∑ ( yˆ − y )
i
2
R2 = i =1
n
(2.1)
∑ ( y − y)
i =1
i
2
k
R 2 adj = R 2 − (1 − R 2 ) (2.2)
n − (k + 1)
n n
∑ ( yi − y )2 = ∑ (( yi − yˆi ) + ( yˆi − y ))
i =1 i =1
2
n
(
= ∑ ( yi − yˆi ) 2 + ( yˆi − y )2 + 2( yi − yˆi )( yˆi − y ) )
i =1
n n
(
= ∑ ( yi − yˆi ) 2 + ( yˆi − y )2 + 2∑ ( yi − yˆi )( yˆi − y ) ) (2.3)
i =1 i =1
n n
( )
= ∑ εˆi2 + ( yˆi − y ) 2 + 2∑ εˆi ( yˆi − y )
i =1 i =1
n n n
=∑ ( )
εˆi2 + ( yˆi − y ) 2 = ∑ εˆi2 + ∑ ( yˆi − y ) 2
i =1 i =1 i =1
n
En la derivación anterior el término 2∑ εˆi ( yˆ i − y ) desaparece porque, como
i =1
∑ ( yˆ − y )
i =1
i
2
, lo que nos lleva a la conocida identidad, TSS=RSS+ESS.
n n n
Despejando de (2.3) escribimos ∑ i =1
( yˆ i − y ) 2 = ∑
i =1
( yi − y ) 2 − ∑ εˆ
i =1
i
2
y
∑ ( yˆi − y )2 ∑ ( yi − y )2 −∑ εˆi2 ∑ εˆ i
2
R2 = i =1
n
= i =1
n
i =1
=1− n
i =1
(2.4)
∑ ( y − y)
i =1
i
2
∑ ( y − y)
i =1
i
2
∑ ( y − y)
i =1
i
2
n
término ∑ εˆ
i =1
i
2
, que entra restando, podría aumentar hasta el punto de arrojar
un R 2 o R 2 adj negativos; y aunque R 2 sea positivo, la omisión de la
constante hace difícil interpretar el R 2 o el R 2 adj . En contraste, la expresión
del R 2 en (2.1) no llega a ser negativa. Por lo anterior, usualmente se
recomienda incluir la constante en las regresiones.
En el Cuadro 1.1, del capítulo 1, se lee que el R 2 es 0.357642 y el R 2 adj
es 0.334700. Estos cálculos se realizan con la información contenida (a
veces de manera indirecta) en el mismo Cuadro 1.1.
Pruebas de Hipótesis
H 0 : g (β ) = q (2.5)
r ×1
H 0 : Rβ = q (2.6)
r ×1
Ejemplo
β0
0 1 0 0 0 β1 0
0 0 1 2 0 β = 0
2
0 0 1 0 − 1 β 3 1
β 4
∑z 2
i ~ χ m2 (2.7)
Montenegro ECONOMETRÍA
tiene una distribución chi cuadrado con m grados de libertad. Los grados de
libertad son iguales al número de términos independientes que entran en la
suma, lo cual no necesariamente es igual al número de términos que entran
en la suma. De la ecuación anterior podemos inferir que una variable chi
cuadrado solo toma valores positivos. La Figura 2.1 ilustra la forma general
de esta distribución.
f ( x)
Figura 2.1
La media de una chi cuadrado es igual a sus grados de libertad, en este caso
m y su varianza es igual al doble de sus grados de libertad, en este caso 2m .
Para m términos independientes, es fácil mostrar que la media es m
escribiendo
m m
E ∑
I =1
z i2 = ∑ E( z
i =1
2
i )=m
i =1 i =1 i =1
(2.8)
m m
( )
= ∑ E zi4 − 2 zi2 + 1 =∑ (3 − 2 + 1) = 2m
i =1 i =1
z
~ tm (2.9)
u
m
v/s
~ Fs , m (2.10)
u/m
La Prueba t
ε ′Mε
2
~ χ n2− ( k +1) (2.12)
σε
βˆi − q
σ ε2 ( X ′X )i−1 βˆi − q
= ~ tn − ( k +1) (2.14)
(n − (k + 1)) σˆ ε2 / σ ε2 σˆ ε2 ( X ′X )i−1
n − (k + 1)
Montenegro ECONOMETRÍA
βˆi
~ tn − ( k +1) (2.15)
σˆ ε2 ( X ′X )i−1
La Prueba F
∑ εˆ 2 − ∑ εˆNR
2
R 1
σε2 r
~F (2.16)
∑ εˆNR
2 r , n − ( k +1)
1
σ 2 n − (k + 1)
ε
∑ εˆ
2
donde R
es la suma de residuos al cuadrado de la regresión a la cual se le
aplican las restricciones dictadas por H 0 y ∑ εˆ NR es la suma de residuos al
2
∑ εˆ 2 − ∑ εˆNR
2
R n − (k + 1) ~ F (2.17)
∑ εˆNR r
2 r , n − ( k +1)
β0
0 1 0 L 0 0
0 β1
0 1 L 0 0
β2 = (2.18)
M M M O M M
M
0 0 0 L 1 0
k ×k +1
β k k ×1
k +1×1
∑ εˆ − ∑ εˆ 1
2 2
R NR
∑ ( y − y) ri
2
∑ εˆ 2
NR 1
∑ ( y − y ) n − (k + 1)
i
2
(2.19)
((1 − R ) − (1 − R ))1r
2
R
2
(R − R )1r
NR
2
NR
2
R
= = ~F
(1 − R ) n − (1k + 1) (1 − R ) n − (1k + 1)
r , n − ( k +1)
2 2
NR NR
(R )1r
2
NR (R ) n − (k + 1) ~ F
2
= NR
(2.20)
(1 − R ) n − (1k + 1) (1 − R ) k
2 k , n − ( k +1)
2 NR
NR
El Tamaño de la Muestra
E (ε − εˆ )′(ε − εˆ ) E (ε − Mε )′(ε − Mε )
=
Eε ′ε Eε ′ε
(2.21)
E (ε ′ε − ε ′Mε ) nσ ε2 − (n − (k + 1))σ ε2 k + 1
= = =
Eε ′ε nσ ε2 n
E (ε − εˆ )′(ε − εˆ)
Por ejemplo, si queremos < 0.1 entonces n deberá ser mayor
Eε ′ε
que 10(k + 1) ; así, esto indicaría mínimo 20 datos en una regresión con una
E (ε − εˆ )′(ε − εˆ)
variable y constante. Igualmente, la condición < 0.05 exigiría
Eε ′ε
Montenegro ECONOMETRÍA
Propiedades Asintóticas
Xn
1 Figura 2.2
Convergencia en Probabilidad
Montenegro ECONOMETRÍA
plim X n = X (2.23)
n→∞
P[ X n − X < δ ]
Figura 2.3
Ejemplo
Convergencia en Distribución
Montenegro ECONOMETRÍA
Propiedades de Estimadores
Consistencia de MCO
Montenegro ECONOMETRÍA
X ′X −1 X ′ε X ′X
−1
X ′ε
ˆ
plim β = β + plim = β + plim plim (2.24)
n n n n
−1
X ′X
plim βˆ = β + plim −1
(0) = β + Q (0) = β (2.25)
n
X ′ε 1
E X = E X ′ε X = 0
n n
Montenegro ECONOMETRÍA
para cualquier n , lo que quiere decir que el sesgo es cero. Por el lado de la
varianza del vector X ′ε ,
X ′ε 1 1
lim Var (
X = lim 2 E (X ′εε ′X X ) = lim 2 X ′σ ε2 IX )
n →∞
n n →∞ n n→∞ n
σ ε σ ε2
2
X ′X
= lim
n →∞ n
= Q nlim =0
→∞ n
n
lo que quiere decir que la varianza es cero. Como el error cuadrado medio es
igual a la suma del sesgo al cuadrado más la varianza, y dado que ambos son
cero, concluimos que hay convergencia en error cuadrado medio alrededor
de cero, lo que implica plim
X ′ε
= 0 . Notamos que en la derivación
n
anterior, dado X , Q = plim
X ′X X ′X
= .
n n
Volviendo a la expresión βˆ = β +
X ′X X ′ε
vemos que, dado X , la
n n
−1 −1
X ′ε d X ′X X ′ε d X ′X
condición → F implicaría → F por la
n n n n
propiedad de la convergencia en distribución vista arriba (continuous
mapping theorem). Se deduce entonces que la forma de la distribución
X ′ε X ′ε
asintótica de β̂ está dada por la distribución de . Ahora bien, es el
n n
promedio de términos de la forma xiε i con varianzas xi2σ ε2 . Existe una
versión del Teorema del Límite Central (Lindberg Levy) que permite
X ′ε
varianzas diferentes y garantiza que converja a una distribución normal.
n
−1
Por tanto,
X ′X X ′ε
converge a una normal. Sabemos que la media de
n n
esta distribución normal es cero y su varianza será la varianza de
−1
X ′X X ′ε
, esto es,
n n
Montenegro ECONOMETRÍA
−1 −1 −1 −1
X ′X X ′ε X ′X X ′X E ( X ′εε ′X X ) X ′X
Var =
n n n n n2 n
(2.26)
−1 −1
X ′X X ′X σ ε X ′X
2
2 −1
=
= σ ε ( X ′X )
n n n n
βˆ →
d
N (β ,σ ε2 ( X ′X ) −1 ) (2.27)
X ′X
−1
n ( βˆ − β ) →
d
N 0, σ ε2 (2.28)
n
o también
n ( βˆ − β ) →
d
(
N 0, σ ε2 Q −1 ) (2.29)
dado X .
Montenegro ECONOMETRÍA
Capítulo 3
f ( y)
Figura 3.1
y
sean tenidas en cuenta junto con lo que digan los datos, debemos usar el
método de estimación llamado Bayesiano, pero ese es otro tema.
La distribución normal es un buen punto de partida porque es de
aplicación general y es la que usaremos en la ilustración del método. En la
práctica se debe utilizar otra distribución si la normal no parece una buena
aproximación a los datos, como en la Figura 3.1.
La distribución de probabilidad normal para n observaciones de la
variable y , independientes, con media µ y varianza σ 2 , esto es,
y ~ N ( µ , σ 2 ) , tiene la siguiente expresión matemática
n
∑ ( yi − µ )
2
n
1
(
f y µ ,σ 2 ) =
2 2
exp − i =1
2
2σ 2
(3.1)
πσ
n
∑ ( yi − µˆ )
2
n
1 2
( )
L µˆ , σˆ 2 y =
2
exp − i =1 (3.2)
2π σˆ 2σˆ 2
n n 1 n
( )
l = ln L µˆ , σˆ 2 y = − ln(2π ) − ln(σˆ 2 ) − ∑ (y − µˆ )
2
(3.3)
2σˆ 2
i
2 2 i =1
∂l 1 n
= 2
∂µˆ σˆ
∑ (y
i =1
i − µˆ ) = 0 (3.4)
n n
de donde ∑ yi = ∑ µˆ = nµˆ , lo que
i =1 i =1
lleva al estimador de máxima
verosimilitud para la media,
n
∑y i
µ̂ = i =1
=y (3.5)
n
∂l n 1 n
∂σˆ 2
=− 2 +
2σˆ 2σˆ 4
∑(y
i =1
i − µˆ ) 2 = 0 (3.6)
1 n
σˆ 2 = ∑ ( yi − y )2
n i=1
(3.7)
1 ′
n n
l = − ln(2π ) − ln(σˆ ε2 ) −
2 2 2
2σˆ ε
(
y − Xβˆ y − Xβˆ )( ) (3.8)
( )′ ( )
n
∑ (y )
2
también podríamos escribir i − xi′β̂ , en lugar de y − Xβˆ y − Xβˆ , donde
i =1
∂l ∂ ′ ∂
ˆ
=
∂β ∂β ˆ
(
y − Xβˆ y − Xβˆ =)(
∂βˆ
) (
y′y − 2 βˆ ′ X ′ y + βˆ ′ X ′Xβˆ = 0
k +1×1
) (3.9)
∂l 1 ′
2
∂σˆ ε
n
=− 2 + 4
2σˆ ε 2σˆ ε
( )(
y − Xβˆ y − Xβˆ = 0
1×1
) (3.10)
′
σˆ 2
MV =
( y − Xβˆ )(y − Xβˆ ) εˆ′εˆ
= (3.11)
n n
εˆ′εˆ
Comparando este estimador de la varianza, σˆ MV
2
= , con el estimador
n
εˆ ′εˆ
insesgado derivado por MCO, σˆ ε2 = , concluimos que el estimador
n − (k + 1)
de máxima verosimilitud de la varianza del error es sesgado; sin embargo, es
consistente porque la diferencia entre ambos disminuye a medida que n
crece.
El Cuadro 1.1 muestra el valor -10.97205 que corresponde a la
verosimilitud logarítmica (3.8) maximizada.
Montenegro ECONOMETRÍA
βˆ MV →
d
(
N β , (I ( β ) )
−1
) (3.12)
∂ 2l
I (β ) = − E (3.13)
∂β ∂β ′
Razón de Verosimilitud
LR = −2(l R − l NR )
n n 1 n 2 n n 1 n 2
= −2 − ln(2π ) − ln(σˆ 2 ) −
2 2
∑
2σˆ 2 i =1
ε Ri +
2
ln( 2π ) +
2
ln(σˆ 2
) + ∑ ε NRi
2σˆ 2 i =1
(3.15)
1 n ε Ri2 1 n ε NRi
2
n ε Ri2 n 2
ε NRi
− 2 − ∑ 2 + ∑ 2 = ∑ 2 − ∑ 2 → d
χ r2
2 i =1 σˆ 2 i =1 σˆ i =1 σˆ i =1 σˆ
Prueba de Wald
′
1×1
( )( (
W = g ( βˆ ) − q Var g ( βˆ ) − q )) (g (βˆ ) − q )→
−1 d
χ 2
r (3.16)
el cual, bajo la hipótesis nula, tiene distribución asintótica chi cuadrado con
r grados de libertad. Debe ser clara la intuición de por qué W es una suma
de variables normales estándar elevadas al cuadrado, lo que por definición es
una distribución chi cuadrado. Un valor de W mayor que el valor crítico
lleva al rechazo de H 0 .
Montenegro ECONOMETRÍA
( ) ∂ g βˆ
Var g ( βˆ ) − q =
( ) Var (βˆ ) ∂ g (βˆ )′ (3.17)
ˆ ∂βˆ ′
∂β ′
la cual se obtiene por el método Delta o sea usando una aproximación lineal
de Taylor evaluada en β̂ . Var ( βˆ ) es el inverso de la matriz de información.
Esto puede intuirse considerando una sola variable, digamos x , y una
función no lineal f (x) , como se ve en la Figura 3.2.
f (x)
f (a )
Figura 3.2
a x
Sabemos que
f ( x) − f (a ) df
≈ x =a (3.18)
x−a dx
df
f ( x) ≈ f (a) + ( x − a) x=a (3.19)
dx
2
df
Var ( f ( x)) ≈ x = a Var ( x ) (3.20)
dx
Montenegro ECONOMETRÍA
df
donde la derivada x =a es constante. La expresión (3.20) tiene una forma
dx
similar a (3.17); f hace el papel de g y x el del parámetro a estimar β . Si
f es lineal entonces (3.17) se reduce a la conocida expresión de la varianza
de una variable multiplicada por una constante al cuadrado.
En un ejemplo sencillo de una sola restricción H 0 : β = q , la prueba Wald
se escribiría,
W=
(βˆ − q ) 2
~ χ12
Var ( βˆ )
Multiplicador de Lagrange
l ∗ (β ) = l(β ) + λ ′( g ( β ) − q ) (3.21)
′
∂l ∗ ( β ) ∂l( β ) ∂g ( β )
= + λ = 0
∂β ∂β ∂β
(3.22)
∂l ( β )
∗
= g (β ) − q = 0
∂λ
∂l( βˆR )
→0 (3.23)
∂βˆR
′
∂l( βˆ R ) ∂l( βˆ R ) d
LM =
∂βˆ
(
I ( βˆ R ) ) −1
∂βˆ
→ χ r2 (3.24)
R R
Ejemplo
y = β 0 + β 1 x1 + β 2 x 2 + β 3 x3 + β 4 x 4 + ε
y = βˆ0 + βˆ1 x1 + βˆ 2 x 2 + uˆ
uˆ = α 0 + α 1 x1 + α 2 x 2 + α 3 x3 + α 4 x 4 + v
∑ vˆ NR2
∑ vˆ − ∑ vˆ
2 2
∑ vˆ 2
∑ vˆ 2
nR 2 = n 1 − = d
χ r2 (3.26)
R NR R NR
= − →
∑ vˆ R2 ∑ vˆ 2
R σˆ 2
v σˆ 2
v
W ≥ LR ≥ LM (3.27)
Estos criterios son algo ad hoc pero populares como guía para escoger el
número de variables en un modelo. No tienen gran utilidad para evaluar un
solo modelo sino que se utilizan para comparar entre diferentes modelos
estimados.
El de Akaike (AIC) tiene la siguiente expresión
el de Schwarz (SC)
SC = −2l + (k + 1) ln n (3.29)
y el de Hannan Quinn
Figura 3.3
dl
β t +1 = β t + Λ (3.31)
dβ
dl
donde el símbolo Λ es el tamaño del paso. Obsérvese que si >0
dβ
dl
estaremos en la subida y entonces β t +1 > β t ; de igual forma cuando <0
dβ
dl
estaremos en la bajada y entonces β t +1 < β t . Al acercarnos a la cima será
dβ
cada vez menor de manera que la diferencia entre β t +1 y β t también será
menor.
dl
No siempre se puede obtener una expresión útil y manejable para .
dβ
Cuando sí sea posible, simplemente se evalúa la expresión de la derivada
reemplazando el valor de β en ese punto. De lo contrario, se debe utilizar
una aproximación numérica a la primera derivada. Por ejemplo, evaluada en
el punto β t , esto es, en l( β t ) , dicha aproximación numérica podría ser
Montenegro ECONOMETRÍA
β t +1 = β t − 2
1 dl
(3.33)
d l dβ
2
dβ
∂l
donde los β son vectores de k elementos, es el vector de las primeras
∂β
∂ 2l
derivadas de l con respecto a cada una de las k variables (o ejes) y
∂β ∂β '
es la matriz de segundas derivadas de orden k × k , conocida también como
matriz Hessiana, y donde las derivadas se evalúan en el punto β t .
Muchas de las variaciones que existen en la optimización numérica
surgen con el objeto de mejorar la expresión anterior o para acomodar el
hecho de que no siempre la función a optimizar tiene un comportamiento
ideal como el de la Figura 3.3. Las superficies pueden tener, por ejemplo,
varias cimas y valles o tener segundas derivadas positivas (y no negativas
como aquí) lejos de la vecindad del máximo. En cualquier caso, las
diferentes versiones utilizadas para optimizar funciones de verosimilitud son
intuitivamente similares al método de Newton aquí explicado.
Para encontrar otro uso importante de la segunda derivada preguntamos
¿cuál de los dos β̂ estimados, el de la Figura 3.4a o el de la Figura 3.4b,
tendría mayor confiabilidad, significancia o precisión? La respuesta es el de
la Figura 3.4b porque se puede ver que un cambio alrededor de β̂ tendría
mucho más impacto sobre el nivel de l que en la Figura 3.4a. En
consecuencia, el parámetro de la Figura 3.4b se puede estimar con mayor
precisión; esto es, con menor varianza.
Montenegro ECONOMETRÍA
∂ 2l
−1
ˆ
β
→ N β , − E
d
(3.35)
∂β ∂β '
∂ 2l
donde − E es la matriz de información. La matriz de varianza
∂β ∂β '
covarianza del vector β̂ se evalúa en β̂ . Si no se dispone de una expresión
matemática para estas segundas derivadas, será necesario aproximarlas
Montenegro ECONOMETRÍA
Capítulo 4
ESPECIFICACIÓN, NO LINEALIDAD Y
MULTICOLINEALIDAD
y = β 0 + β1 x1 + β 2 x 2 + L + β k x k + ε
y = α + β Cos ( x) + ε
1
y =α +β +ε
x
(4.1)
y = α + β log( x) + ε
y = α + β x2 + ε
y = α x β eε (4.2)
Montenegro ECONOMETRÍA
ln y = ln α + β ln x + ε (4.3)
y = α xβ + ε (4.4)
min ∑ ( y − α x β ) 2 (4.5)
{α , β }
min ∑ ( y − f ( x, β )) 2 (4.6)
{β }
β 0 + β1 x1
y= +ε
1 + β 2 x2
y = β 0 + β1e − β 2 x + ε
(4.7)
y = β1Sen ( β 2 x1 + β 3 ) + β 4Cos ( β 5 x2 + β 6 ) + ε
1
y =α + +ε
β+x
1 dy 1
=β (4.8)
y dx x
dy
x dy y
= =β (4.9)
y dx dx
x
y =α + β x+ε
dy
obtenemos = β y, para acomodar la definición de elasticidad, hacemos
dx
Montenegro ECONOMETRÍA
dy
x dy y βx
= = (4.10)
y dx dx α + β x + ε
x
ln y = α + β x + ε (4.11)
la derivada será
d ln y 1 dy
= =β (4.12)
dx y dx
y = α + β ( x + 1) + ε = α + β + β x + ε (4.13)
α + β + β x + ε − (α + β x + ε ) = β
ln y x =1 =α + β +ε
ln y x =0 =α +ε
Montenegro ECONOMETRÍA
y restando
y x =1
ln y x =1 − ln y x =0 = ln =β
y x =0
de donde
y x =1
= eβ
y x =0
y
y
x =1
(
− 1100 = e β − 1 100 )
x =0
y =α + β x +γ z +ε
dy dz
= β +γ
dx dx
Ejemplo
1 dy 1
= 0.08
y dx x
La elasticidad será
x dy
= 0.08
y dx
Montenegro ECONOMETRÍA
1 dy
= 0.04
y dx
de donde escribimos
dy
= 0.04dx
y
Ejemplo
1000 y = 2000 + 40 x
Dicho sea de paso, el error ε también se multiplica por 1000 pero, igual, no
lo vemos. Cambiar de horas a minutos multiplica la variable x por 60 y para
mantener la igualdad dividimos el coeficiente por 60, así
40 2
(1000 y ) = 2000 + (60 x) = 2000 + (60 x)
60 3
donde las nuevas variables con las cuales se corre la regresión están en
paréntesis; esto es, se corre 1000 y contra una constante y 60 x , y los nuevos
coeficientes serán 2000 y 2 / 3 .
Ejemplo
( y + 3) = α + 3 + 2 β + β ( x − 2) + ε
Ejemplo
Coeficientes Estandarizados
y = β x+ε
y
= β DS x x + ε
DS
y
DS y DS x
DS x
βˆestandarizado = βˆ MCO (4.14)
DS y
Prueba RESET
yi = β xi + θ yˆ i2 + ε i (4.15)
Supongamos el modelo
y = f (X ,β ) + ε (4.17)
n×1 n×1 n×1
′
min ( y − f ( X , β ) ) ( y − f ( X , β ) )
β
′ ′ ′
∂f ∂f ∂f
− 2 y + 2 f = ( y − f ) = 0 (4.18)
∂βˆ ∂βˆ ∂βˆ n×1 k ×1
k ×n
Montenegro ECONOMETRÍA
′
−1
ˆ ∂f ∂f
→ N β , σˆ ε2
β MCNL d
(4.19)
∂β ∂β
′
∂f
donde la varianza es una matriz k × k en razón de que es k × n .
∂β̂
∂f
En el caso del modelo lineal f = Xβ y = X , de manera que remplazando
∂β
en (4.18) obtendríamos el mismo resultado que obtuvimos para el modelo
lineal
′ ′
∂f ∂f
′ ˆ (4.20)
∂βˆ y − ∂βˆ f = X y − X X β = 0
′
Transformación Box-Cox
xλ − 1
y = α 0 + α1 + ε (4.21)
λ
para x > 0 y cualquier λ ≠ 0 . Por ejemplo, ayudaría a decidir entre las dos
especificaciones siguientes,
Montenegro ECONOMETRÍA
y = α 0 − α1 + α1 x + ε si λ → 1
y = α 0 + α1 ln x + ε si λ → 0
d λ
( x − 1)
dλ d λ
plim = plim x = plim x λ ln x = ln x
λ →0 d λ → 0 dλ λ →0
λ
dλ
xλ − 1
La transformación no funciona si en el término no se resta -1 ya que
λ
xλ 1
en este caso plim = de manera que no podemos aplicar L´Hôpital,
λ →0 λ 0
procedimiento que es válido solo si los límites del numerador y el
denominador son ambos cero o ∞ . Agregar − 1 habilita la aplicación de
xλ − 1 0
L´Hôpital ya que plim = .
λ →0 λ 0
Se pueden usar la transformación Box-Cox en varias variables en un
modelo, incluyendo la dependiente. También se puede utilizar sobre una
variable individual con el objeto que, al transformarla, su distribución se
acerque más a la normal.
El modelo con la transformación Box-Cox puede estimarse por MCO
para una grilla de λ ’s dados (digamos de − 2 a + 2 , en pequeños
incrementos), escogiendo el mejor resultado. Pero si tratamos el parámetro
λ como una incógnita adicional entonces tenemos una especificación con no
linealidad en los coeficientes y la estimación podría hacerse por MCNL o
MV.
Multicolinealidad
ŷ
Figura 4.1
x1 x2
Ejemplo
Ejemplo
β0
1
y
β1
x1
2
z β2
x2
ε Figura 4.2
Detección
Soluciones
Montenegro ECONOMETRÍA
β̂ RIDGE = ( X ′X + cI ) −1 X ′y (4.22)
EβˆRIDGE = E ( X ′X + cI ) −1 X ′y = ( X ′X + cI ) −1 X ′Xβ + E ( X ′X + cI ) −1 X ′ε
(4.23)
−1
= ( X ′X + cI ) X ′Xβ ≠ β
′
( )(
Var ( βˆRIDGE ) = E βˆRIDGE − EβˆRIDGE βˆRIDGE − EβˆRIDGE)
(
= E ( X ′X + cI ) −1 X ′ε ε ′X ( X ′X + cI ) −1 ) (4.24)
= σ ε2 ( X ′X + cI ) −1 X ′X ( X ′X + cI ) −1
Capítulo 5
HETEROSCEDASTICIDAD Y
AUTOCORRELACIÓN
Var ( βˆ ) = ( X ′X ) −1 X ′ E (εε ′ X )X ( X ′X ) −1 = ( X ′X ) −1 X ′V X ( X ′X ) −1
k +1×k +1
(5.2)
= σ ε2 ( X ′X ) −1 X ′φ X ( X ′X ) −1 ≠ σ ε2 ( X ′X ) −1
σˆ ε2 =
∑ εˆ i
2
φ −1 = P′P (5.3)
φ = (P ′P )−1 = P −1 P ′ −1
de donde
Montenegro ECONOMETRÍA
Pφ P′ = I (5.4)
y varianza
Py = PXβ + Pε (5.7)
y∗ = X ∗β + ε ∗ (5.8)
n ×1
′ ′
2
σˆ ε =
(y ∗
)( ) (
− X ∗ βˆMCG y ∗ − X ∗βˆMCG
=
) (
y − XβˆMCG φ −1 y − XβˆMCG ) (5.12)
n − (k + 1) n − (k + 1)
βˆMCG ~ N (β , σ ε2 ( X ′φ −1 X ) −1 ) (5.13)
X ′φ −1 X
−1
ˆ (
n β MCG − β d
) 2
→ N 0, σ ε lim
(5.14)
n
Heteroscedasticidad
V11 0 L 0 φ11 0 L 0
0 V L 0 0 φ L 0
Eεε X =V =
′ 22 2 2
= σεφ = σε 22
(5.15)
M M O M M M O M
0 0 L Vnn 0 0 L φnn
σ 12 0 L 0
0 σ 22 L 0
Eεε ′ X = (5.16)
M M O M
0 0 L σ n2
εˆi2
x, yˆ
Figura 5.1
Montenegro ECONOMETRÍA
εˆi
x, yˆ
Figura 5.2
εˆ = α 0 + α1 z h + error (5.17)
εˆ = α 0 + α 1 z + error
1
εˆ = α 0 + α 1 + error
z
Montenegro ECONOMETRÍA
εˆ = α 0 + α 1 z + error
α 0 + α 1 z1 + α 2 z 2 + L + α p z p
α1 = α 2 = L = α p = 0 (5.18)
∑ εˆ i
2
σˆ 2 = i =1
(5.19)
n
εˆi2
En un tercer paso se corre 2 contra una constante y las variables
σˆ
z1 , z 2 , K , z p . Luego, con la variación explicada de la regresión anterior
(explained sum of squares, ESS ); esto es, con
Montenegro ECONOMETRÍA
2
εˆ 2
ESS = ∑ αˆ 0 + αˆ1 z1i + L + αˆ p z pi − i 2 (5.20)
σˆ
ESS
~ χ p2 (5.21)
2
Bajo la hipótesis nula todos los coeficientes de las variables anteriores son
cero, lo cual puede probarse, por ejemplo, con una F .
Para ilustrar, supongamos el modelo
yi = b1 + b2 xi + b3 zi + ε i (5.23)
donde todos los coeficientes, excepto a0 deben ser cero bajo la hipótesis
nula. Además de la F , también se puede usar el R 2 de la ecuación auxiliar
para formar un multiplicador de Lagrange nR 2 que converge a una chi
cuadrado con grados de libertad igual al número de variables explicativas en
la ecuación auxiliar, sin contar la constante (serían 5 en el ejemplo anterior).
Es importante tener en cuenta que si una de las variables originales es una
dummy, aunque no sea cero y uno, elevarla al cuadrado resulta en una
relación lineal exacta. Una dummy que toma valores 0 y 1 (o cero y
cualquier otro número como 0 y -1, 0 y 2, 0 y -2, 0 y 3, etc.) tendrá una
relación lineal exacta con ella misma al elevarla al cuadrado. Por ejemplo, la
relación entre una variable D que toma los valores 0 y 1 y su cuadrado es
D = D 2 ; entre una que toma los valores 0 y 2 y su cuadrado es 2 D = D 2 ; entre
una que toma los valores 0 y -2 y su cuadrado es − 2 D = D 2 ; etc. En estos
casos hay multicolinealidad perfecta porque una columna de la matriz X es
igual a un escalar por otra columna. En consecuencia, el software descarta la
dummy al cuadrado cuando realiza la prueba de White.
∑ εˆ
2
RSSU /(nU − k ) /(nU − k )
= U
~ FnU − k , n L − k (5.25)
RSS L /(nL − k ) ∑ εˆ 2
L /(nL − k )
Autocorrelación
v V12 L V1n
V v L V2 n
Eεε ′ X =V = 12 (5.26)
M M O M
V1n V2 n L v
σ 2 σ 12 L σ 1n
σ σ2 L σ 2n
Eεε ′ X = 12 (5.27)
M M O M
σ 1n σ 2 n L σ 2
εt
autocorrelación
positiva
Figura 5.3
εt
autocorrelación
negativa
Figura 5.4
Montenegro ECONOMETRÍA
εt
autocorrelación
positiva
ε t −1
Figura 5.5
εt autocorrelación
negativa
ε t −1
Figura 5.6
ε t = ϕ ε t −1 + vt (5.28)
Montenegro ECONOMETRÍA
∑ (εˆ t − εˆt −1 ) 2
DW = t =2
n
(5.29)
∑ εˆ
t =1
2
t
donde puede verse que el primer y tercer término del numerador tienden a
ser iguales al denominador. Por otro lado, el segundo término del numerador
dividido por el denominador tiende a ser el estimador de MCO de ϕ del
modelo (5.28). En otras palabras, para n grande (y suprimiendo los límites
∑ εˆ εˆ ∑ εˆ εˆ
por simplicidad), ∑ εˆt2 ≈ ∑ εˆt2−1 y t t −1
≈
t t −1
≈ ϕˆ .
∑ εˆ t
2
∑ εˆ 2
t −1
V11 0 L 0
0 V L 0
V = 22
(5.32)
M M O M
0 0 L Vnn
Para dar algo de intuición podemos trabajar con un modelo de una sola
variable, sin constante, y i = β xi + ε i . Sabemos que el estimador del
Montenegro ECONOMETRÍA
1 1 1
Var ( βˆ ) =
(∑ x ) ∑ (∑ x ) ∑ (∑ x ) ∑
Var ( x ε ) =
2 2 i i E(x ε ) = x E (ε
2 2 i i
2
2 2
2
i i
2
) (5.33)
i i i
1 σ ε2
Var ( βˆ ) = σε ∑ x =
2 2
(5.34)
(∑ x ) 2 2
∑x 2
i
i i
usar ∑ x εˆ 2 2
i i
como estimador consistente de la varianza heteroscedástica
(∑ x ) 2 2
i
∑ x E (ε
2
i i
2
)
. La demostración utiliza la ley de los grandes números junto con
(∑ x ) 2 2
i
n n
Var ( βˆ )W = ( X ′X ) −1 ∑ εˆi2 xi xi′ ( X ′X ) −1 (5.35)
k ×k n−k i =1
E ε 12 0 L 0 x11 x 21
x x12 L x1 n 0 Eε 2
x12 x 22
X ′ E ε ε ′ X = 11 2
x 21 x 22 L x 2 n M O M M
0 E ε n2 x1 n x2n
x11 x 21
x Eε x 22
2
x12 E ε 2
L x1 n E ε x12
2
= 11 1 2 n
x 21 E ε 1
2
x 22 E ε 2
2
L x2n Eε M
n
2
M
x1 n x2n
x x x x
= Eε 12 11 [x11 x21 ] + Eε 22 12 [x12 x22 ] + Eε 32 13 [x13 x23 ] + L + Eε n2 1n [x1n x2 n ]
x21 x22 x23 x2 n
n
= ∑ ( Eε i2 ) xi xi′
i =1
n n L
l n
Var ( βˆ ) NW = ( X ′X ) −1 ∑ εˆi2 xi xi′ + ∑ 1 − ∑ ( xiεˆiεˆi − l xi′− l + xi − lεˆi − lεˆi xi′ ) ( X ′X )
−1
k ×k n−k i =1 l =1 L + 1 i = l +1
(5.37)
2
n 9
L = entero 4 (5.38)
100
2
heteroscedasticidad, o en lugar de los
n
(n − 1) + 1 = n − n + 2 elementos
2 2
cuando solo hay autocorrelación y no heteroscedasticidad.
G
Var ( βˆ )C = ( X ′X ) −1 ∑ X ′jεˆ jεˆ′j X ′j ( X ′X ) −1 (5.39)
k×k j =1
Capítulo 6
E (error ) X = 0 (6.1)
y = β 0 + β1 x1 + β 2 x2 + ε
(6.2)
x1 = α x2 + z
β0
1
y
β1
z x1
α
β2
x2
ε Figura 6.1
y = β 0 + β 1 x1 + ( β 2 x 2 + ε ) = β 0 + β1 x1 + error
(6.3)
x1 = α x 2 + z
β0
1
y
β1
z x1
x2
ε Figura 6.2
y = X 1 β1 + X 2 β 2 + ε (6.4)
donde
Montenegro ECONOMETRÍA
X = X1 X2 (6.5)
n× k +1+ j
n×k +1 n× j
vez, contra todas las de X 1 , y cada una de estas regresiones genera un vector
de coeficientes de orden k + 1 × 1 . El término ( X 1′ X 1 ) −1 X 1′ X 2 se forma juntando
todos los j vectores de coeficientes, de manera que la expresión del valor
esperado (6.7) queda
donde
a01 a02 L a0 j
a a12 L a1 j
( X 1′ X 1 ) X 1′ X 2 =
11
−1
(6.9)
M M O M
ak 1 ak 2 L akj
E ( βˆ ) = β + ∑xi
β0 (6.11)
∑x
2
i
Montenegro ECONOMETRÍA
haciendo que β̂ sea sesgado a menos que xi tenga media cero (por lo que no
tendría poder explicativo sobre la constante). En la expresión anterior, cada
xi dentro de la suma ∑ xi va multiplicado por 1 (por la columna de 1’s que
en este caso es la variable dependiente).
Por definición una constante β 0 tiene correlación cero con cualquier
variable x dado que E ( β 0 − Eβ 0 )( x − Ex) = E (0)( x − Ex) = 0 , de manera que
podría pensarse que omitir la constante no causa sesgo. Pero recordamos que
la expresión que origina el sesgo, ( X 1′ X 1 ) −1 X 1′ X 2 , son coeficientes de
regresión, no coeficientes de correlación, que son distintos.
Ejemplo
Suponga que el verdadero modelo que relaciona el ingreso salarial con las
variables años de educación y años de experiencia, es
Ejemplo
gi = α + β ci + γ ei + ε i (6.16)
coeficient e de c en una
ˆ
E ( β ) = β + regresión de e contra γ < β (6.17)
una constante y c (+)
(−)
Montenegro ECONOMETRÍA
βˆ ∗ = ( X ′∗ X ∗ ) −1 X ′∗ y = ( X ′∗ X ∗ ) −1 X ′∗ ( X 1β1 + ε ) (6.18)
−1
x11 x21 x11
βˆ1 x11 x12 L x1n x12 x22 x11 x12 L x1n x12
E = β1
ˆ
β 2 x21 x22 L x2 n M M x21 x22 L x2 n M
x1n x2 n x1n
−1
∑ x22 − ∑ x1 x2
∑x 2
∑ x1 x2 ∑ x β = ∆
2
∆
∑ x12
= 1 1
β (6.20)
∑ x1 x2 ∑ x22 ∑ x2 x1 1 − ∑ x1 x2 ∑ x12 ∑ x2 x1 1
∆ ∆
∑ x22 ∑ x12 − (∑ x1 x2 )2
1 β
= ∆ β1 = β1 = 1
− ∑ x1 x2 ∑ x1 + ∑ x1 ∑ x2 x1
2 2
0 0
∆
Por otro lado, nótese que el término del numerador del coeficiente de la
variable irrelevante, − ∑ x1 x2 ∑ x12 + ∑ x12 ∑ x2 x1 , es cero, lo cual hace que
Eβˆ2 = 0 .
Probar Relevancia
Errores en Variables
donde u es la matriz de errores de medición con media cero. Cada una de las
k columnas de u contiene los errores asociados a la variable de la columna
~
correspondiente de X ; por ejemplo, la primera columna de u contiene los
~
errores de la primera variable de X ; la segunda columna de u contiene los
~
errores de la segunda variable de X , y así con las demás. Algunas columnas
pueden ser ceros si las variables correspondientes se miden sin error.
~
Suponemos que X , u y ε son independientes entre sí. La Figura 6.3 ilustra
este modelo
ε
y
~ β
X
u X
Figura 6.3
~
Despejando de (6.22) y reemplazando X = X − u en el modelo tenemos
y = ( X − u ) β + ε = Xβ + ε − uβ (6.23)
βˆ = ( X ′X ) −1 X ′y = ( X ′X ) −1 X ′( Xβ + ε − uβ )
(6.24)
−1 −1
= β + ( X ′X ) X ′ε − ( X ′X ) X ′uβ
y = ( X − u ) β + ε = Xβ + ε + uθ (6.26)
y=~
y +u
Montenegro ECONOMETRÍA
y = Xβ + ε + u
Sesgo de Simultaneidad
x = α 0 + α1 y + α 2 z + ε x (6.27)
y = β 0 + β1 x + β 2 z + ε y (6.28)
E ( βˆ ) = β + E ( X ′X ) −1 X ′ε ≠ β
Montenegro ECONOMETRÍA
C =α + βY +ε
(6.29)
Y =C+I
α
1
ε C
β
I
Y
Figura 6.4
coeficiente de Y en una
ˆ
E ( β ) = β + regresión de ε contra (1) > β (6.30)
una constante y Y
(+)
α 1 1
Y= + I+ ε
1− β 1− β 1− β
(6.31)
α β 1
C= + I+ ε
1− β 1− β 1− β
Capítulo 7
ε
y
β0
1
α0
β1
x1
u
γ2
α1 β2
z x2 Figura 7.1
Montenegro ECONOMETRÍA
y = β 0 + β1 x1 + β 2 x2 + ε (7.1)
x1 = α 0 + α1 z + γ 2 x2 + u (7.2)
y = β 0 + β 1(α 0 + α1 z + γ 2 x2 + u ) + β 2 x2 + ε
(7.3)
= β 0 + β1 (α 0 + α1 z + γ 2 x2 ) + β 2 x2 + β1u + ε
y = β 0 + β1 x1 + β 2 x2 + ε = β 0 + β1 ( xˆ1 + uˆ ) + β 2 x2 + ε
(7.6)
= β 0 + β1 xˆ1 + β 2 x2 + uˆβ1 + ε = Xˆβ + uˆβ1 + ε
donde
1 xˆ11 x21
1 xˆ x22
X =
ˆ 12
(7.7)
M M M
1 xˆ1n x2 n
β0
β = β1 (7.8)
β 2
Xˆ = Zαˆ = Z ( Z ′Z ) −1 Z ′X (7.9)
siendo
Montenegro ECONOMETRÍA
1 z1 x21
1 z x22
Z = 2
(7.10)
M M M
1 zn x2 n
1 αˆ 0 0
αˆ = 0 αˆ1 0 (7.11)
0 γˆ2 1
−1 −1
Xˆ ′Xˆ Xˆ ′uˆβ1 Xˆ ′Xˆ Xˆ ′ε
plim βˆVI = β + plim plim
n
+ plim
n
plim
n
n
−1
(7.14)
Xˆ ′Xˆ Xˆ ′ε
= β + plim
plim =β
n n
Montenegro ECONOMETRÍA
Xˆ ′uˆβ
donde, como se anotó antes, el vector plim es cero porque û es
1
n
ortogonal a todas las variables de X̂ . Por otro lado, para ver por qué es cero
Xˆ ′ε
el vector plim es conveniente reescribirlo usando Xˆ = Zα̂ ,
n
Xˆ ′ε αˆ ′Z ′ε
plim = plim Z ′ε
= plim αˆ ′ plim
Z ′ε
= α ′ plim = α ′ (0 ) = 0
n n n n
y = β 0 + β1 x1 + L + β g xg + β g +1 xg +1 + L + β k xk + ε (7.15)
Para cada endógena xi ( i = 1,K, g ) hay una regresión de primera etapa, cuya
estimación x̂i entra remplazando a xi en la regresión de segunda etapa (más
el efecto uˆi βi que se suma al error).
En cualquier caso, se requiere al menos una variable instrumental por
cada variable endógena, de lo contrario habría multicolinealidad perfecta
entre las columnas de la matriz X̂ y la segunda etapa no correría. Esto es, el
número de variables instrumentales debe ser mayor o igual que g .
Por ejemplo, yendo al extremo, si tenemos una endógena x1 y no usamos
variable instrumental alguna, la x̂1 que se forme en la primera etapa será una
combinación lineal exacta de las demás variables exógenas. Al introducir
una instrumental se soluciona este problema.
Si tenemos dos variables endógenas, digamos x1 y x2 , y solo una
instrumental, los x̂1 y x̂ 2 de la primera etapa terminarán siendo
combinaciones lineales de las columnas de X̂ . Esto se puede ilustrar
suponiendo el modelo y = β 0 + β1 x1 + β 2 x2 + ε y las estimaciones de la primera
etapa xˆ1 = αˆ 0 + αˆ1 z y xˆ2 = γˆ0 + γˆ1 z . Tendremos multicolinealidad perfecta en la
segunda etapa al correr y contra una constante y x̂1 y x̂2 porque
αˆ1γˆ0 αˆ1
xˆ1 = αˆ 0 − + xˆ2 . Pero si usamos dos instrumentales, la combinación
γˆ1 γˆ1
lineal no es posible. Y así sucesivamente con más variables.
Montenegro ECONOMETRÍA
1 z1 x 21 L x k1
1 z x 22 L x k 2
Z= 2
(7.16)
M M M O M
1 z n x2n L x kn
1
plim Z ′ε = 0 (7.17)
n
1
plim Z ′X = Σ ZX (7.18)
n
donde Σ ZX es una matriz no singular (no singular quiere decir que tiene
inverso).
Montenegro ECONOMETRÍA
1 1 1
Z ′y = Z ′Xβ + Z ′ε (7.19)
n n n
1 1 1 1
plim Z ′y = plim Z ′Xβ + plim Z ′ε = plim Z ′Xβ (7.20)
n n n n
−1
1
premultiplicando por plim Z ′X obtenemos
n
−1
1 1 −1
plim Z ′X plim Z ′y = plim (Z ′X ) Z ′y = β (7.21)
n n
vemos que β̂VI tiene plim βˆVI = β y es, por lo tanto, un estimador consistente.
Nótese que existe similitud con la expresión del estimador de MCO.
Subrayamos que la fórmula (7.22) es válida solo para el caso exactamente
identificado (más adelante encontraremos una fórmula general). Con
identificación exacta no es fácil encontrar la media o varianza del estimador
β̂VI . También, de manera similar a la derivación de MCO, la covarianza
entre Z y εˆ es cero, Z ′εˆ = Z ′( y − X ( Z ′X ) −1 Z ′y ) = Z ′y − Z ′X ( Z ′X ) −1 Z ′y = 0 .
Dado que en muestras finitas tanto MCO como VI son sesgados, y que la
ventaja (consistencia) de VI solo se hace evidente asintóticamente, puede
suceder que en muestras pequeñas MCO sea mejor que VI según el criterio
del mínimo error cuadrado medio. Por esta razón se sugiere presentar ambas
estimaciones en los estudios econométricos.
−1
x11 x21 y1
ˆ
βˆ1VI x11 x12 L x1n x12 x22 x11 x12 L x1n y2
βVI = =
βˆ z1 z2 L zn M M z1 z2 L zn M
2VI
x1n x2 n yn
−1
∑ z x2 − ∑ x1 x2
∑ x12
=
∑ x1x2 ∑ 1 = ∆
x y ∆
∑ x1 y
(7.24)
∑ z x1 ∑ z x2 ∑ z y − ∑ z x1 ∑ x12 ∑ z y
∆ ∆
∑ z x2 ∑ x1 y − ∑ x1 x2 ∑ z y
= ∆
− ∑ zx1 ∑ x1 y + ∑ x1 ∑ z y
2
∆
Montenegro ECONOMETRÍA
1 xˆ11 x21 L xk 1
1 xˆ x22 L xk 2
X =
ˆ 12
(7.25)
M M M O M
1 xˆ1n x2 n L xkn
(( )(
( Xˆ ′Xˆ ) −1 Xˆ ′y = X ′Z ( Z ′Z ) −1 Z ′ Z ( Z ′Z ) −1 Z ′X ))
−1
X ′Z ( Z ′Z ) −1 Z ′y (7.26)
(
= X ′Z ( Z ′Z ) −1 Z ′X )
−1
X ′Z ( Z ′Z ) −1 Z ′y
(
= ( Z ′X ) −1 X ′Z ( Z ′Z ) −1 )−1
X ′Z ( Z ′Z ) −1 Z ′y (7.27)
= ( Z ′X ) −1 Z ′y
Restricción de Exclusión
Montenegro ECONOMETRÍA
ε
y
β1
x1
α
βz
Figura 7.2
z
plim βˆ1 = plim ( xˆ1′xˆ1 ) −1 xˆ1′ y = plim ( xˆ1′xˆ1 ) −1 xˆ1′ ( xˆ1β1 + uˆβ1 + zβ z + ε )
(7.28)
= β1 + plim ( xˆ1′xˆ1 ) −1 xˆ1′zβ z ≠ β1
Ejemplo
y = 3x1 + z + ε
Montenegro ECONOMETRÍA
x1 = 0.5 z + ε
coeficiente de x1 en una
E ( βˆ1 ) = β1 + (1) = β1 + (1)(1) = 3 + 1 = 4
regresión de ε contra x1 y z
coeficiente de z en una
E ( βˆz ) = β z + (1) = β z + (−0.5)(1) = 1 − 0.5 = 0.5
regresión de ε contra x1 y z
yˆ = 4 x1 + 0.5 z
= β1 + (2)(1) + (0)(1) = 3 + 2 = 5
ε
y
α β
z x
Figura 7.3
log Qi = α + β log Pi + ε i
Montenegro ECONOMETRÍA
Instrumentos Débiles
Prueba de Hausman
′
(βˆ
VI )( )(−1
− βˆMCO Var ( βˆVI ) − Var ( βˆMCO ) βˆVI − βˆMCO ) (7.29)
la cual converge a una chi cuadrado con grados de libertad igual al número
de variables endógenas. La prueba estimada debe ser pequeña bajo H 0 y
grande bajo H A . La prueba no es válida si los instrumentos utilizados en la
estimación no son válidos. La prueba requiere que bajo H 0 ambos
estimadores sean consistentes y que además uno de ellos, MCO en este caso,
sea eficiente para que Var ( βˆVI ) > Var ( βˆMCO ) . Sin embargo, en la muestra a
Montenegro ECONOMETRÍA
veces sucede que Var ( βˆVI ) < Var ( βˆMCO ) y la prueba no funciona. Por ejemplo,
si hay heteroscedasticidad, MCO incumple el teorema de Gauss Markov y
deja de ser eficiente.
Por estas razones se apela a otra versión de la prueba que involucra una
regresión auxiliar [ver Kennedy (2008), p. 154]. Para ilustrar, supongamos el
modelo y = β0 + x1β1 + x2 β 2 + ε donde x 2 es exógena y vamos a probar la
hipótesis nula H 0 : Ex1′ε = 0 . Supongamos que tenemos dos variables
instrumentales, aunque podría ser una o más de dos. Corremos la primera
etapa
x1 = α 0 + α1 z1 + α 2 z2 + α 3 x2 + u (7.30)
y = β 0 + x1β1 + x2 β 2 + γ uˆ + ε (7.31)
Eε 1 X 0
Eε 2 X 0
Eε X = 0 = =
n×1 M M
Eε n X 0
1 n
∑ xiε i = 0
n i =1
(7.33)
Supongamos el modelo
yi = x1i β 1 + x 2i β 2 + ε i
1 n
∑ x1i ( yi − x1i βˆ1 − x2i βˆ2 ) = 0
n i =1
(7.34)
1 n
∑ x2i ( yi − x1i βˆ1 − x2i βˆ2 ) = 0
n i =1
los cuales proveen las dos ecuaciones necesarias para estimar las dos
incógnitas, β1 y β 2 . Si una de las dos ecuaciones anteriores no es igual cero,
pero equivocadamente la usamos igualándola a cero, alguno o ambos β1 o
β 2 estimados resultarían sesgados e inconsistentes. Por otro lado, si uno de
los dos momentos no fuera igual a cero sino igual a una constante conocida
c , entonces lo podríamos usar para estimar β1 y β 2 ; el problema es que no
conocemos el valor de c .
Siguiendo con el ejemplo, supongamos que el primer momento es igual a
un valor desconocido diferente de cero; esto es, Ex1iε i ≠ 0 . En este caso la
estimación por MCO sería inconsistente. Pero si podemos encontrar otro
momento que involucre una variable z ortogonal a ε , esto es,
1 n
∑ zi ε i = 0
n i =1
(7.35)
recuperamos las dos ecuaciones necesarias para resolver las dos incógnitas y
podremos proceder con la estimación, solo que en este caso ya no se llama
estimación por MCO sino por variable instrumental VI. Los momentos
serían
1 n
∑ zi ( yi − x1i βˆ1VI − x2i βˆ2VI ) = 0
n i =1
(7.36)
1 n
1 n
∑ zi ( yi − xi′β )
n i=1
(7.37)
β1
β
1 n 1 n
∑ zi ( yi − x1i β1 − x2i β 2 − L − xki β k ) = n ∑ zi yi − [x1i L xki ]
2
x2i
n i =1 i =1
M
β k
′
1 n 1 n
min ∑ zi ( yi − xi′β ) W ∑ zi ( yi − xi′β ) (7.38)
{β } n i =1 R × R n i =1
1× R R ×1
1 1
min ( Z ′( y − Xβ ))′ W ( Z ′( y − Xβ ))
{β } n
(7.39)
R× R n
1× R R ×1
la cual es un escalar por ser una suma. Para obtener los β̂VI se igualan a cero
las k derivadas con respecto al vector β ,
− X ′ Z W Z ′ y + X ′Z W Z ′XβˆVI = 0 (7.40)
k ×1
βˆVI = ( X ′Z W Z ′X ) −1 X ′Z W Z ′ y (7.41)
k ×1 k ×k k ×1
Nótese que β̂VI no está definido si R < k porque X ′Z tendría rango menor
que k ; y para que exista el inverso ( X ′Z W Z ′X ) −1 la matriz X ′Z W Z ′X debe
tener rango completo k , y el rango de un producto de matrices no supera el
menor rango entre las matrices constituyentes del producto.
Cualquier W positiva definida simétrica (la matriz identidad, por
ejemplo) produce estimadores β̂VI consistentes pero puede demostrarse que
los estimadores son eficientes usando una W proporcional al inverso del
segundo momento (varianza) de Z ′ε (algo similar a GLS). Esto quiere decir
que los momentos muestrales con mayor varianza reciben menos peso en la
estimación porque son menos precisos y confiables. La matriz de varianza
covarianza de Z ′ε es
Var ( Z ′ε ) = E ( Z ′ε ) ( Z ′ε )′ = E Z ′εε ′Z = σ ε2 E Z ′Z
R ×1 1× R
σ ε2
la cual se estima por Z ′Z . En la práctica, en lugar de W utilizamos el
n
σ ε2
inverso de la matriz Z ′Z , de orden R × R , omitiendo dado que este
n
término es solo un factor de escala y no afecta el resultado, y además porque
Montenegro ECONOMETRÍA
β̂VI = ( X ′Z ( Z ′Z ) −1 Z ′X ) −1 X ′Z ( Z ′Z ) −1 Z ′ y (7.42)
−1 −1
Xˆ ′Xˆ Xˆ ′Uˆβ Xˆ ′Xˆ Xˆ ′ε
plim βˆVI = β + plim plim
n
+ plim
n
plim
n =β
(7.44)
n
Montenegro ECONOMETRÍA
1 n
σˆ ε2 = ∑ ( y i − xi′βˆVI ) 2 (7.46)
n i =1
se obtiene con los residuos calculados utilizando los coeficientes β̂VI y las
variables originales del modelo. La consistencia de σˆ ε2 depende de la
consistencia de los elementos del vector β̂VI .
En general, el uso del estimador β̂VI se justifica asintóticamente ya que,
en muestras finitas, su media y varianza pueden ser difíciles de precisar y, en
cualquier caso, es segado (al igual que MCO). Con frecuencia, su varianza
es mayor que la MCO resultando en que MCO sea preferible a VI en
muestras finitas según el criterio de error cuadrado medio. Como se
mencionó antes, conviene mostrar ambas estimaciones. También vale la
pena recordar que el popular R 2 solo tiene sentido para MCO y puede llegar
a ser negativo en la estimación por variable instrumental.
Mostramos a continuación que si R = k la fórmula del estimador β̂VI se
reduce a la fórmula (7.22) que derivamos para el caso exactamente
identificado. Para ello escribimos, de (7.41),
n ( βˆGMM − β ) →
d
N (0,V ) (7.49)
−1
′
∂m ∂m
V = E W E (7.50)
∂β ∂β
Montenegro ECONOMETRÍA
−1
1
wˆ i = ∑ mˆ i2 (7.51)
n
donde, a su vez, m̂i se estima con el β̂ consistente inicial junto con las
observaciones muestrales. Aunque se podría completar Var (m( β )) calculando
los elementos que van por fuera de la diagonal, es usual suponer que
Var (m( β )) es diagonal de manera que W también sea diagonal para
simplificar su estimación.
Mínimos cuadrados ordinarios, variable instrumental (y GIVE) pueden
verse como casos particulares de GMM en los cuales los momentos son
lineales. Inclusive máxima verosimilitud, con las derivadas de la función
objetivo (condiciones de primer orden) vistas como momentos igualables a
cero, también cabe dentro del marco de GMM. El método generalizado de
momentos, GMM, no requiere suponer distribuciones de probabilidad y
permite heteroscedasticidad (recordamos que en GIVE la matriz W = ( Z ′Z ) −1
se derivó bajo homoscedasticidad). Un problema es que la distribución
asintótica normal de GMM es una mala aproximación a la distribución de
muestras finitas.
Existen pruebas de sobreidentificación (Sargan, Hansen), algo debatidas,
que consisten en examinar la suma de momentos al cuadrado; esta suma no
debe ser muy grande, de lo contrario indica que al menos uno de los
momentos propuestos e incluidos en el vector m( β ) es falso (o que un
instrumento es defectuoso), aunque no dice cuál. Este estadístico, tipo Wald,
tiene distribución chi cuadrado con grados de libertad igual a R − k .
Montenegro ECONOMETRÍA
Capítulo 8
∑x t
También se definen la media x = t =1
de la serie (el promedio de los
n
n
∑ (x t − x)2
datos) y la varianza σˆ x2 = t =1
(puede dividirse por n − 1 pero
n
generalmente en series de tiempo suponemos que n >> 1 ). El concepto de
varianza tiene poco sentido en series que caen o suben indefinidamente.
La media de una serie puede ser positiva, negativa o cero. En muchos
casos es deseable o necesario trabajar con series cuya media sea cero; pero si
no es cero, simplemente se resta x a cada una de las observaciones de la
serie obteniendo así una nueva serie con media cero, que preserva todas las
demás características y el comportamiento de la serie original.
La estacionalidad se refiere a un movimiento que se repite de manera
similar en la misma época del año; por ejemplo, cuando las ventas de
juguetes se elevan todos los diciembres o cuando los precios caen en el
trimestre de cosecha. No confundir este concepto con el de estacionariedad
que describe a continuación.
Estacionariedad
Montenegro ECONOMETRÍA
indicadas para una serie con tendencia lineal y los cambios porcentuales para
una con tendencia exponencial (ya que en esta última las primeras
diferencias crecen con el tiempo y no serían estacionarias).
Ruido Blanco
xt ~ iid ( µ ,σ 2 ) (8.1)
Función de Autocovarianza
Cov(x, y ) = E ( x − µ x )( y − µ y ) (8.2)
Cov( x, y )
ϕ xy = (8.5)
Var ( x )Var ( y )
R(0)
r (0) = = 1. (8.7)
R(0)
R(τ ) = R(−τ )
(8.8)
r (τ ) = r (−τ )
1 n
(
Rˆ (τ ) = ∑ ( xt − x ) xt − τ − x
n t =1+ τ
) (8.9)
Rˆ (τ )
rˆ(τ ) = (8.10)
Rˆ (0 )
Montenegro ECONOMETRÍA
1
rˆ(τ ) d
→ N 0, (8.11)
n
Figura 8.2
Ejemplo
1
R(0 ) = ∑ (xt − x )2 = 1 (1 + 4 + 0 + 1 + 0 + 4) = 10 = 1.666
6 6 6
Montenegro ECONOMETRÍA
1
R(1) = ∑ (xt − x )(xt −1 − x ) = 1 [(1)(2) + (2)(0) + (0)(− 1) + (− 1)(0) + (0)(− 2)] = 2 = 0.333
6 6 6
1
R(2 ) = ∑ (xt − x )(xt −2 − x ) = 1 [(1)(0) + (2)(− 1) + (0 )(0) + (− 1)(− 2)] = 0
6 6
1
R(3) = ∑ (xt − x )(xt −3 − x ) = 1 [(1)(− 1) + (2)(0 ) + (0 )(− 2)] = − 1 = −0.166
6 6 6
R( 0) R(1) R( 2) R( 3)
r ( 0) = =1 r (1) = = 0.2 r ( 2) = =0 r ( 3) = = −0.1
R( 0) R( 0) R( 0) R( 0)
Rxy (τ ) = E ( xt − µ x )( yt −τ − µ y ) (8.12)
Rxy (τ )
rxy (τ ) = (8.13)
Rx (0)Ry (0)
donde R x (0) y R y (0) son las varianzas (o autocovarianzas para rezago cero)
de x y y .
Al igual que la ACF, la función de correlación cruzada también tiene el
intervalo aproximado del 95% en ± 2 n , pero a diferencia de la ACF, no
necesariamente tendrá su máximo en τ = 0 ni será simétrica, aunque estará
entre -1 y 1.
Operador de Rezago
Montenegro ECONOMETRÍA
Lτ xt = xt −τ (8.14)
Lxt = xt −1
L0 xt = xt
L3 xt = xt −3 (8.15)
−2
L xt = xt + 2
( L2 )3 = L6
Lc = c
1 2 3
= 1 + αL + (αL ) + (αL ) + L para α < 1 (8.16)
1 − αL
(1 + αL + (αL ) 2 3
)
+ (αL ) + L (1 − αL ) = 1
donde se puede ver que todos los términos se cancelen excepto el último que
será de la forma α n Ln , el cual tiende a cero cuando n tiende a infinito
siempre que α < 1 . Por lo tanto, ambos lados de la ecuación son iguales
(1=1) y se demuestra la propiedad. También se puede demostrar utilizando
una expansión de Maclaurin (una serie de Taylor alrededor de cero) de la
1
función .
1 − αL
De manera similar tenemos que
Montenegro ECONOMETRÍA
1 2 3
= 1 − αL + (αL ) − (αL ) + L para α < 1 (8.17)
1 + αL
xt = α xt −1 + ε t (8.18)
(1 − αL ) xt = ε t (8.19)
y, despejando,
εt
xt =
1 − αL
( 2 3
= 1 + αL + (αL ) + (αL ) + L ε t )
xt = ε t + α ε t −1 + α 2ε t − 2 + α 3ε t −3 + L (8.20)
xt = α1 xt −1 + α 2 xt − 2 + L + α p xt − p + ε t (8.21)
Montenegro ECONOMETRÍA
(1 − α1L − α 2 L2 − L − α p Lp ) xt = ε t (8.22)
εt
xt = (8.23)
1 − α1L − α 2 L2 − L − α p Lp
εt
xt = (8.24)
(1 − λ1L)(1 − λ2 L)L(1 − λ p L)
xt = α xt −1 + ε t
xt = α [α xt − 2 + ε t −1 ] + ε t = α 2 xt −2 + α ε t −1 + ε t
xt = α [α [α xt −3 + ε t −2 ] + ε t −1 ] + ε t = α 3 xt −3 + α 2ε t − 2 + α ε t −1 + ε t
donde notamos que los primeros términos tienden a cero si α < 1 , de manera
que, reordenando, podemos escribir
xt = ε t + α ε t −1 + α 2ε t −2 + α 3ε t −3 + L
Ejemplo
xt − .2 xt −1 = ε t
escribimos
(1 − .2 L) xt = ε t
de donde despejamos
εt
xt = = (1 + .2 L + .04 L2 + .008 L3 + L) ε t = ε t + .2ε t −1 + .04ε t −2 + .008ε t −3 + L
1 − .2 L
Ejemplo
6 xt + 5 xt −1 + xt − 2 = ε t
(6 + 5L + L ) x
2
t = εt
(L + 2)(L + 3) xt = ε t
εt εt
xt = =
(L + 2)(L + 3) L L
6 1 + 1 +
2 3
y se expande cada uno de los factores por separado, primero uno y luego el
otro. Como se anotó antes, la solución será convergente si las raíces de la
ecuación auxiliar son mayores que la unidad en magnitud, como en efecto
sucede en este ejemplo donde las raíces son –2 y –3.
Montenegro ECONOMETRÍA
Raíces Imaginarias
2± 4−8 1 −4 1 −1
− =− ± =− ±
4 2 4 2 2
Operador de Diferencia
∆xt = xt − xt −1 = (1 − L) xt (8.25)
Ejemplo
∆2 xt = ∆∆xt = ∆( xt − xt −1 ) = xt − xt −1 − ( xt −1 − xt − 2 )
= xt − xt −1 − xt −1 + xt − 2 = xt − 2 xt −1 + xt − 2
∆2 xt = (1 − L)(1 − L) xt = (1 − 2 L + L2 ) xt = xt − 2 xt −1 + xt − 2
Suavizado Aritmético
Montenegro ECONOMETRÍA
1 m
st = ∑ xt + i
2m + 1 i = − m
(8.26)
1 m
st = ∑ xt −i
m + 1 i =0
(8.27)
1 m
st = ∑ xt + i
m + 1 i =0
(8.28)
0.5 xt −1 + xt + 0.5 xt +1
st =
2
= (1 + (1 − A) L + (1 − A) 2 L2 + (1 − A) 3 L3 + L) Axt
Axt
=
1 − (1 − A) L
de donde,
st − (1 − A) st −1 = Axt
st = Axt + (1 − A) st −1 (8.29)
s2 = Ax2 + (1 − A) x1
s3 = Ax3 + (1 − A) s2
M
xˆt +T = st + T Γt (8.31)
En cuanto más bajos sean los coeficientes A y C , más estable será la serie
st , ya que menores valores implican que se otorga más peso al pasado.
También existe una versión que incluye factores estacionales.
n n −1
∑ (x
t =1
t − st ) + λ ∑ [( st +1 − st ) − ( st − st −1 )]2
2
t =2
(8.32)
-1
92 94 96 98 00 02 04 06 08
Inflación
Tendencia Hodrick Prescott
Figura 8.3
Ajuste Estacional
st = (0.5 xt − 6 + xt − 5 + L + xt + L + xt + 5 + 0.5 xt + 6 ) / 12
si la serie es mensual y
st = (0.5 xt − 2 + xt −1 + xt + xt +1 + 0.5 xt + 2 ) / 4
si la serie es trimestral.
Montenegro ECONOMETRÍA
-1
92 94 96 98 00 02 04 06 08
Inflación
Inflación desestacionalizada
Figura 8.4
Montenegro ECONOMETRÍA
Capítulo 9
xt = c + α1 xt −1 + α 2 xt − 2 + L + α p xt − p + ε t (9.1)
donde c es una constante, p es el orden del modelo (el rezago más distante),
y ε t es ruido blanco con media cero y varianza constante σ ε2 . En la literatura
de series de tiempo, la secuencia {ε t } se conoce indistintamente como ruido,
error, residuos, innovaciones o shocks.
El AR(1)
xt = c + α xt −1 + ε t (9.2)
Montenegro ECONOMETRÍA
c + Eε t c
Ext = = (9.4)
1−α 1−α
Figura 9.1
xt − xt −1 = α xt −1 − xt −1 + ε t
o, simplificando,
∆xt = (α − 1) xt −1 + ε t
∆xt
= (α − 1) xt −1 + ε t
∆t
dx(t )
= (α − 1) x(t ) + ε (t )
dt
R(τ ) = E ( xt xt −τ ) = α E ( xt −1 xt −τ ) + E (ε t xt −τ ) (9.5)
de donde, para
M M
Figura 9.2
σ ε2
Var ( xt ) = R(0) = α 2 R(0) + σ ε2 =
1−α 2
El AR(2)
xt = c + α1 xt −1 + α 2 xt − 2 + ε t (9.6)
c + Eε t
Ext =
1 − α1 − α 2
(1 − α 1 L − α 2 L2 ) xt = c + ε t
Para que el proceso sea estable, es necesario que las raíces de la ecuación
auxiliar (1 + α 1 L + α 2 L2 ) sean mayores que 1 en magnitud, ya que de otra
forma la expansión resulta explosiva.
La función de autocorrelación se encuentra multiplicando ambos lados de
la ecuación (9.6) por xt −τ y tomando expectativas (se omite c sin pérdida de
generalidad)
E ( xt xt −τ ) = α 1 E ( xt −1 xt −τ ) + α 2 E ( xt −2 xt −τ ) + E (ε t xt −τ )
donde, para
M M
α1
Dividiendo (9.7b) por R(0) encontramos que r (1) = α 1 + α 2 r (1) = . A su
1−α2
α 12
turno, de (9.7c) encontramos r (2 ) = α 1 r (1) + α 2 = +α2 , y así
1− α2
sucesivamente para encontrar las demás autocorrelaciones. Siendo una
ecuación en diferencias de orden dos, el modelo AR(2) está en capacidad de
reproducir un comportamiento oscilatorio, como el del péndulo. Su ACF
puede caer exponencialmente de manera similar a la del AR(1) o puede tener
Montenegro ECONOMETRÍA
Figura 9.3
σ ε2
Var ( xt ) = R(0) = α 1 r (1) R(0) + α 2 r (2) R(0) + σ ε =
2
1 − α 1 r (1) + α 2 r (2)
El AR(p)
(1 − α 1 L − α 2 L2 − L − α p L p ) xt = ε t
Eε t
Ext =
1 − α1 − L − α p
xt − µ = α1 ( xt −1 − µ ) + α 2 ( xt − 2 − µ ) + L + α p (xt − p − µ ) + ε t
xt = (µ − α1µ − α 2 µ − L − α p µ ) + α1 xt −1 + α 2 xt − 2 + L + α p xt − p + ε t
xt = µ (1 − α1 − α 2 − L − α p ) + α1 xt −1 + α 2 xt − 2 + L + α p xt − p + ε t
xt = c + α1 xt −1 + α 2 xt −2 + L + α p xt − p + ε t (9.8)
xt = c + ε t + β1ε t −1 + β 2ε t − 2 + L + β qε t − q (9.9)
MA(1)
xt = c + ε t + βε t −1 (9.10)
donde es evidente que Ext = c (si no hubiera una constante entonces sería
Ext = 0 ).
La función de autocovarianza se obtiene multiplicando la ecuación del
MA(1) por xt −τ = ε t −τ + βε t −τ −1 , para cada τ , y tomando expectativas (se omite
la constante sin pérdida de generalidad),
R(0) = E ( xt xt ) = E (ε t + βε t −1 )(ε t + βε t −1 ) = (1 + β 2 )σ ε2
R(1) = E ( xt xt −1 ) = E (ε t + βε t −1 )(ε t −1 + βε t − 2 ) = Eβε t2−1 = β σ ε2
R(2) = E ( xt xt − 2 ) = E (ε t + βε t −1 )(ε t − 2 + βε t − 3 ) = 0
R(3) = 0
M
Se deja como ejercicio mostrar que se cumple la propiedad de simetría, por
ejemplo, que R(− 1) = βσ ε2 = R(1) .
Montenegro ECONOMETRÍA
( )
β − (1 + β 2 ) 2β + (1 + β 2 ) = 0
−2 −1
(
− 2β 2 1 + β 2 ) −1
+1 = 0
(
2β 2 = 1 + β 2 ) ⇒ β 2 = 1 ⇒ β = ±1
β ±1 1
r (1)max = 2
= =± (9.11)
1+ β 1+1 2
MA(2)
xt = c + ε t + β 1ε t −1 + β 2 ε t −2
R(0) = E ( xt xt ) = E (ε t + β 1ε t −1 + β 2ε t − 2 )(ε t + β 1ε t −1 + β 2 ε t − 2 ) = σ ε2 (1 + β 12 + β 22 )
R(1) = E ( xt xt −1 ) = E (ε t + β1ε t −1 + β 2ε t − 2 )(ε t −1 + β1ε t − 2 + β 2ε t −3 )
= Eβ1ε t2−1 + Eβ 2 β1ε t2− 2 = ( β1 + β1β 2 ) σ ε2
R(2) = E ( xt xt − 2 ) = E (ε t + β1ε t −1 + β 2ε t − 2 )(ε t − 2 + β1ε t −3 + β 2ε t − 4 )
= Eβ 2ε t2− 2 = β 2 σ ε2
R(3) = 0
R ( 4) = 0
Montenegro ECONOMETRÍA
M
Con respecto al MA( q ), podemos inferir de los resultados anteriores para
el MA(1) y el MA(2) que, en general, la ACF teórica puede tener
autocorrelaciones significativas sólo hasta el rezago q , de ahí en adelante
desaparecen. Sin embargo, es importante subrayar que en la práctica, aunque
es de esperar una disminución de la magnitud en las autocorrelaciones
después del rezago q , por error estadístico es posible encontrar alguna
autocorrelación estimada significativa para rezagos superiores a q .
Invertibilidad
1 + β1L + β 2 L2 + L + β q Lq (9.12)
xt = ε t + βε t −1
xt = (1 + β L )ε t
ε=
xt
1+ β L
[ 2 3
= 1 − β L + (β L ) − (β L ) + L x t ]
ε t = xt − β xt −1 + β 2 xt − 2 − β 3 xt − 3 + L (9.13)
lo cual se puede hacer sólo si β < 1 . Nótese que el MA(1) de este ejemplo se
convirtió en un AR( ∞ ) ya que, despejando xt , tenemos
xt = β xt −1 − β 2 xt − 2 + β 3 xt −3 − L + ε t
Montenegro ECONOMETRÍA
xt = α xt −1 + ε t
(1 − αL) xt = ε t
εt
xt =
1 − αL
xt = ε t + αε t −1 + α 2ε t − 2 + α 3ε t − 3 + L (9.14)
Ejemplo
( )
xt − α xt − 2 = 1 − αL2 xt = ε t
de donde
Montenegro ECONOMETRÍA
xt =
εt
1 − αL2
[
= 1 + αL2 + (αL2 ) + (αL2 ) + L ε t
2 3
]
= ε t + αε t − 2 + α 2ε t − 4 + α 3ε t − 6 + L
Modelo ARMA( p , q )
xt = c + α1 xt −1 + α 2 xt − 2 + L + α p xt − p + ε t + β1ε t −1 + β 2ε t − 2 + L + β qε t − q (9.15)
(1 − α L − α L
1 2
2
) (
− L − α p Lp xt = c + 1 + β1L + β 2 L2 + L + β q Lq ε t )
de donde se infiere que el modelo ARMA puede expresarse como un AR o
un MA, posiblemente de orden infinito, despejando, respectivamente, ε t o
xt .
Como ilustración, la Figura 9.4 muestra el diagrama de un ARMA(1,1),
xt = c + α xt −1 + ε t + βε t −1 , donde se observa la parte promedio móvil y la parte
autorregresiva. El paso de las variables xt y ε t por el operador de rezago L
produce xt −1 y ε t −1 . El diagrama se puede generalizar fácilmente a otros
modelos ARMA( p , q ).
Montenegro ECONOMETRÍA
1
c
εt xt
L L
β α
Figura 9.4
x t = c + ατ ,1 xt −1 + ατ , 2 xt − 2 + L + ατ ,τ −1 xt − (τ −1) + ατ ,τ xt −τ + ε t (9.17)
x t − α 1 xt −1 − α 2 xt − 2 − L − α p xt − p
= E (α 1 xt −1 + α 2 xt − 2 + ε t ) xt −3 − α 1 Ext −1 xt −3 − α 2 Ext −2 xt −3
Figura 9.5
Ejemplo
xt = ε t + βε t −1 ≈ α1 (ε t −1 + βε t − 2 ) + α 2 (ε t − 2 + βε t −3 ) +
α 3 (ε t − 3 + βε t − 4 ) + L + ατ (ε t −τ + βε t −τ −1 ) + ε t
xt = α1 xt −1 + α 4 xt − 4 + ε t (9.18)
(1 − α1 L )(1 − α 4 L4 ) xt = ε t
(1 − α L − α
1 4 )
L4 + α 1α 4 L5 xt = ε t
xt = α1 xt −1 + α 4 xt − 4 − α1α 4 xt − 5 + ε t (9.21)
xt = (1 + β1L + β 2 L2 )ε t (1 + β 4 L4 ) (9.22)
xt = c + α 1 xt −1 + α 2 xt − 2 + L + α p xt − p + ε t
xˆn +1 = c + α1 xn + α 2 xn −1 + L + α p xn +1− p
xˆn + 2 = c + α1 xˆn +1 + α 2 xn + L + α p xn + 2 − p
(9.23)
xˆn + 3 = c + α1 xˆn + 2 + α 2 xˆn +1 + L + α p xn + 3− p
M
Ejemplo
xˆ n +1 = c + α x n
xˆ n + 2 = c + α xˆ n+1 = c + α (c + α x n ) = c(1 + α ) + α 2 x n
xˆ n +3 = c + α [c(1 + α ) + α 2 x n ] = c(1 + α + α 2 ) + α 3 x n
M
xˆ n +T = c(1 + α + α 2 + α 3 + L + α T −1 ) + α T x n
c
xˆ n +T = = E ( xt )
1−α
xt = c + ε t + β1ε t −1 + β 2ε t − 2 + L + β qε t − q
xt = c + α 1 xt −1 + α 2 xt −2 + L + α p xt − p + ε t + β 1ε t −1 + L + β q ε t −q
xt = ε t + β 1ε t −1 + β 2 ε t −2 + β 3ε t −3 + L
Predicción: Error:
modelo y otra parte para evaluarlo; por ejemplo, usar el 75% de las
observaciones para estimar y el 25% restante para probar y evaluar.
Una condición importante es que la serie de los errores de predicción εˆt +T
sea ruido blanco, de lo contrario la predicción es subóptima. Es subóptima
porque si los errores de predicción están autocorrelacionados quiere decir
que se podrían predecir de su propio pasado, y que debimos haber
aprovechado esa información para mejorar la predicción, en lugar de
suponer ciegamente que Eε t +T = 0 . Predicción óptima es lo mismo que
expectativa racional, donde se usa eficientemente toda la información
disponible y no se cometen errores sistemáticos.
A continuación se describen varios indicadores comúnmente utilizados
para evaluar predicciones. Aunque no hay consenso sobre cuál es mejor, los
más usados son la raíz del error cuadrado medio, el error medio absoluto y el
error medio absoluto porcentual. De nuevo, enfatizamos que los indicadores
calculados sobre la misma muestra utilizada en la estimación del modelo,
incluyendo el R 2 , el error estándar del residuo, la verosimilitud, los criterios
de Akaike y Schwartz, suelen ser mejores que los calculados por fuera de
esta.
Regresión
xt +T = α + β xˆt +T + ut +T (9.27)
xt +T − xˆt +T
MAPE = E (9.30)
xt +T
Indice de Theil
2
E ( xt + T − xˆt + T )
Theil = (9.31)
Ext2+ T + Exˆt2+ T
Montenegro ECONOMETRÍA
donde xt y x̂t tienen media cero o se les ha restado la media. Este índice es
adimensional y va de cero a uno, siendo cero si la predicción es perfecta
porque en este caso xˆ t +T = xt +T y el numerador es cero.
Nótese que el término bajo el radical en el numerador puede expresarse
como
(
E xt2+T − 2 xt +T xˆt +T + xˆt2+ T ) (9.32)
Ex 2 = E ( x − µ x ) 2 + µ x2 = σ x2 + µ x2
y que
Exxˆ = E ( x − µ x )( xˆ − µ xˆ ) + µ x µ xˆ = ρσ xσ xˆ + µ x µ xˆ
proporción de sesgo =
(µ x − µ xˆ )2 (9.35)
2
E ( xt +T − xˆt + T )
(σ x − σ xˆ )2
proporción de varianza = 2
(9.36)
E ( xt + T − xˆt + T )
2σ xσ xˆ (1 − ρ )
proporción de covarianza = 2
(9.37)
E ( xt +T − xˆt + T )
La proporción de sesgo nos dice qué tan lejos está la media de las
predicciones de la media de las observaciones; la proporción de la varianza
dice qué tan lejos está la varianza de las predicciones de la varianza de la
serie; y la proporción de la covarianza mide el residuo o los errores no
explicados por las dos anteriores. Estas proporciones suman uno. Si MSE = 0
estas proporciones no están definidas. En general, un buen pronóstico debe
tener proporciones de sesgo y varianza pequeñas.
Montenegro ECONOMETRÍA
Capítulo 10
Q = n(n + 2)∑
s
[rˆ(τ )] 2 (10.1)
τ =1 n −τ
la cual está distribuida, bajo la hipótesis nula que la serie es ruido blanco
(independencia lineal), como una variable chi-cuadrado con s grados de
libertad, donde s es el número de términos que se incluyen en la prueba. La
distribución de la prueba se puede intuir suponiendo n grande y recordando
que para ruido blanco se cumple rˆ(τ ) → d
N (0,1 n ) . Si la serie probada
corresponde a los residuos de un modelo ARMA entonces los grados de
libertad se ajustan por el número de parámetros estimados, s − p − q sin
constante y s − p − q − 1 con constante. Es importante que el parámetro s
alcance a cubrir posibles estacionalidades; por ejemplo, mayor que rezago 4
si los datos son trimestrales, mayor que rezago 12 si los datos son
mensuales, etc. Si Q es pequeño es porque las autocorrelaciones son
pequeñas e insignificantes y se acepta que la serie bajo prueba es ruido
blanco.
Otra prueba, del tipo multiplicador de Lagrange, para detectar
autocorrelación en los residuos es la Breusch-Godfrey, mencionada en un
capítulo anterior. En esta prueba se corren los residuos estimados contra
todas las variables explicativas del modelo original más h rezagos de los
residuos. Bajo la hipótesis nula de no autocorrelación por lo menos hasta de
orden h , ninguna de las variables explicativas de la regresión original ni los
h rezagos del residuo tendrán poder explicativo (ni siquiera la constante ya
que el valor esperado de los residuos debe ser cero). Bajo la hipótesis nula,
el estadístico de prueba nR 2 estará asintóticamente distribuido como una chi-
cuadrado con h grados de libertad.
La prueba Durbin Watson, vista en un capítulo anterior, no es confiable
(se sesga hacia 2) cuando los residuos son generados por modelos que
utilizan rezagos de la variable dependiente como variables explicativas, lo
que es usual en series de tiempo.
La ACF y PACF
Montenegro ECONOMETRÍA
xt = α1 xt −1 + α 2 xt − 2 + L + α p xt − p + ε t (10.2)
n 2
∑ (x
t = p +1
t − α1 xt −1 − α 2 xt − 2 − L − α p xt − p ) (10.3)
para t = 1 ε 1 = x1 − α 1 x0 − α 2 x −1 − L − α p x1− p
M
para t = p ε p = x p − α 1 x p −1 − α 2 x p −2 − L − α p x0
x1 x0 ε1
x x
2 = 1 α + ε 2 (10.4)
M M M
xn xn −1 ε n
αˆ = ( X ' X )−1 X ' x = ( X ' X )−1 X ' Xα + ( X ' X )−1 X 'ε = α + ( X ' X )−1 X 'ε (10.5)
Montenegro ECONOMETRÍA
x 2 = α x1 + ε 2 = α (α x0 + ε 1 ) + ε 2
x3 = α x 2 + ε 3 = α (α x1 + ε 2 ) + ε 3 = α (α (α x0 + ε 1 ) + ε 2 ) + ε 3
y así sucesivamente.
En consecuencia, el valor esperado de α̂ será
−1
Eαˆ = α + E[( X ' X ) X ' ε ] ≠ α (10.6)
−1
x0 ε1
x1 ε
[
Eαˆ = α + E ( X ' X ) X 'ε = E ( x0
−1
] x1 L xn −1 )
M
(x0 x1 L xn −1 ) 2
M
x ε
n −1 n
1
=α + E 2 2 2 2 2 2 2 0 1
[x ε + x1ε 2 + x2ε 3 + x3ε 4 + L + xn −1ε n ]
x0 + x1 + x2 + x3 + x4 + x5 + L + xn −1
(10.9)
x1 x0 x−1 ε1
x x x0 ε
2 1 1
α 2
M= M x1 + M
α
M 2
xn xn −1 xn − 2 ε n
x ε + x ε + x2ε 3 + L + xn −1ε n
X 'ε = 0 1 1 2 (10.13)
x−1ε1 + x0ε 2 + x1ε 3 + L + xn − 2ε n
con el determinante
Teorema de Mann-Wald
Se divide arriba y abajo por n porque plim X ' ε no existe. Aunque el valor
esperado de X ' ε sea cero, su varianza no cae a cero; pero al dividir por n su
varianza desaparece cuando n → ∞ , de manera que el límite existe y es
X 'ε
plim = 0 . Adicionalmente, como la matriz X ' X podría ser singular,
n
X'X
suponemos que plim = Q , donde Q es una matriz finita no singular.
n
¿Y si hubiera correlación serial en ε t ? En este caso tenemos que EX ' ε ≠ 0
porque en un autorregresivo los sumandos de x0ε 1 + x1ε 2 + x 2ε 3 + x3ε 4 + L
tienden a ser del mismo signo al estar los x del pasado relacionados con los
ε del futuro a través de la correlación serial. En consecuencia,
X 'ε
plim ≠ 0 y MCO sería sesgado e inconsistente.
n
Formalizamos este resultado debido a Mann y Wald (1943). Para un
AR( p ) estacionario con ε t ∼ iid (0, σ ε2 ) , la estimación por MCO es consistente
y
n (αˆ − α ) d
→ (
N 0,σ ε2Q −1 ) (10.16)
Montenegro ECONOMETRÍA
X'X
donde Q = plim . Alternativamente, se puede usar la expresión
n
αˆ d
→ N (α , σ ε2Q −1 / n ) (10.17)
Ejemplo
Para n grande, estimamos por MCO los dos AR(1) siguientes y comparamos
los resultados
xt = α xt −1 + ε t y xt = γ xt +1 + u t
−1
x0 x1
x x
1 2
α̂ = [x0 x1 x2 L x n−1 ] x 2 [ x0 x1 x2 L x n−1 ] x3
M M
x n −1 x n
x0 x1 + x1 x 2 + x 2 x3 + L + x n −1 x n Rˆ (1)
αˆ = =
x02 + x12 + x 22 + L + x n2−1 Rˆ (0 )
−1
x2 x1
x x
3 2
γˆ = [x 2 x3 L x n x n +1 ] M [x 2 x3 L x n x n+1 ] x3
xn M
x n+1 x n
x 2 x1 + x3 x 2 + L + x n x n −1 + x n +1 x n Rˆ (1)
γˆ = =
x 22 + x32 + L + x n2 + x n2+1 Rˆ (0 )
Ejemplo
xt = ε t + β1ε t −1 + β 2ε t − 2 + L + β qε t − q (10.18)
ε1 = x1
ε 2 = x2 − β1ε1
ε 3 = x3 − β1ε 2 − β 2ε1
ε 4 = x4 − β1ε 3 − β 2ε 2 − β 3ε1
M (10.19)
ε q = xq − β1ε q −1 − β 2ε q − 2 − L − β q −1ε1
ε q +1 = xq +1 − β1ε q − β 2ε q −1 − L − β q −1ε 2 − β qε1
M
ε t = xt − β1ε t −1 − β 2ε t − 2 − L − β qε t − q
∑ε
t =1
t
2
(10.20)
ε 4 = x4 − β1 ( x3 − β 1ε 2 − β 2ε 1 ) − β 2 ( x2 − β1ε 1 ) − β 3 x1
xt = α1 xt −1 + L + α p xt − p + ε t + β1ε t −1 + L + β qε t − q (10.21)
ε p +1 = x p +1 − α1 x p L − α p x1
ε p + 2 = x p + 2 − α1 x p +1 − L + α p x2 − β1ε p +1
M
ε p + q = x p + q − α1 x p + q −1 − L − α p xq − β1ε p + q −1 − L − β q −1ε p +1 (10.22)
ε p + q +1 = x p + q +1 − α1 x p + q − L − α p xq +1 − β1ε p + q − L − β q −1ε p + 2 − β qε p +1
M
ε t = xt − α1 xt −1 − L − α p xt − p − β1ε t −1 − L − β qε t − q
∑ε
t = p +1
t
2
= ε p2 +1 + ε p2 + 2 + L + ε n2 (10.23)
1 n
σˆ ε2 =
n− p
∑ εˆ
t = p +1
t
2
(10.24)
Montenegro ECONOMETRÍA
1 n
aunque también se puede usar σˆ ε2 = ∑ εˆt2 , donde el divisor
n − 2 p − q t = p +1
n − 2p − qse explica porque hay n − p datos utilizables menos p + q
parámetros lo cual da n − p − p − q = n − 2 p − q .
Ejemplo
Sea xt de la forma
xt = α 1 xt −1 + L + α p xt − p + ε t + β 1ε t −1 + L + β q ε t −q
εˆt = xt − αˆ 1 xt −1 − αˆ 2 xt −2 − L − αˆ k xt −k
para correr una nueva regresión de xt contra xt −1 , xt − 2 ,K, xt − p , y εˆt −1 ,K, εˆt −q , sin
incluir εˆt ya que éste será representado por el error usual de la regresión; de
otra forma se asignará un coeficiente de 1 a εˆt en la estimación. De esta
regresión de obtienen los parámetros estimados αˆ1 ,K,αˆ p , βˆ1 ,K, βˆq .
Se puede adicionar un tercer paso que consiste en repetir la regresión del
paso dos con los residuos de la estimación del ARMA del paso dos,
llamados εˆˆt ; esto es, correr xt contra xt −1 , xt − 2 ,K, xt − p y εˆˆt −1 ,K, εˆˆt −q ; aunque
generalmente este tercer paso no es necesario.
Montenegro ECONOMETRÍA
Capítulo 11
Los modelos de series de tiempo vistos hasta ahora han sido básicamente
univariados, esto es, que explican xt en función de su propio pasado y de
una serie de errores {ε t } . A continuación vamos a estudiar un modelo con
más variables, conocido como vector autorregresivo, VAR.
Antes de detallar el VAR, recordemos el caso particular de un AR con
constante y variables exógenas, cuya expresión es
El Modelo VAR
x1t
x
xt = 2t (11.2)
M
x
mt
xt = A0 + A1 xt −1 + A2 xt − 2 + L + Ap xt − p + ε t (11.3)
x1t α 01 α 1,11 α 1,12 x1t −1 α 2,11 α 2,12 x1t −2 α 3,11 α 3,12 x1t −3 ε 1t
= + + + +
x 2t α 02 α 1, 21 α 1, 22 x 2t −1 α 2, 21 α 2, 22 x 2t − 2 α 3, 21 α 3, 22 x 2t −3 ε 2t
(11.4)
Montenegro ECONOMETRÍA
x1t = α 01 + α 1,11 x1t −1 + α 1,12 x 2t −1 + α 2,11 x1t −2 + α 2,12 x 2t − 2 + α 3,11 x1t −3 + α 3,12 x 2t −3 + ε 1t
E xt = (I − A1 − A2 − L − Ap ) −1 A0 (11.5)
x c α α 12 x1t −1 ε
E 1t = E 1 + 11 E + E 1t
x 2t c 2 α 21 α 22 x 2t −1 ε 2t
1 0 α 11 α 12 x1t c1
− E =
0 1 α 21 α 22 x 2t c 2
−1
x1t 1 − α 11 − α 12 c1 1 1 − α 22 α 12 c1
E = =
x 2t − α 21 1 − α 22 c 2 ∆ α 21 1 − α 11 c 2
(1 − α 22 )c1 + α 12 c 2
Ex1t =
(1 − α 11 )(1 − α 22 ) − α 12α 21
α 21c1 + (1 − α 11 )c 2
Ex 2t =
(1 − α 11 )(1 − α 22 ) − α 12α 21
m(m + 1)
coeficientes (una por cada rezago) más elementos en la matriz Σ .
2
Esto último se debe a que la matriz Σ es simétrica y sólo es necesario
estimar los elementos que están sobre la diagonal y a un lado de ésta, lo cual
m(m + 1)
da elementos. En resumen, si hay constante, el número de
2
parámetros será m + pm 2 + m(m + 1) / 2 . Por ejemplo, si tenemos tres rezagos
( p = 3 ) y dos variables ( m = 2 ) se requiere estimar 2+3(2×2)+3=17
parámetros. Si fueran cuatro variables ( m = 4 ) y los mismos ( p = 3 ) rezagos
tendríamos 4+3(4×4)+10=62 parámetros a estimar. Excepto para muestras
grandes, los VAR’s usualmente no pasan de cuatro o cinco variables y tres o
cuatro rezagos. Esto es especialmente crítico en la estimación simultánea.
Los rezagos lejanos, por ejemplo para representar la estacionalidad (12, 24,
..., si es mensual ó 4, 8, ..., si es trimestral), se pueden incluir como variables
exógenas de manera que no se haga inmanejable el número de rezagos del
VAR.
Para seleccionar p en un VAR con n observaciones, pueden minimizarse
las versiones vectoriales de criterios como el AIC y SC presentados en el
capítulo 3. Estas versiones vectoriales son
2k
(
AIC = ln det Σˆ p + )n
(11.6)
k ln n
( )
SC = ln det Σˆ p +
n
Estimación
Obsérvese que las ecuaciones del VAR son ecuaciones de forma reducida
y, como no tienen términos de promedio móvil en el error, pueden ser
estimadas individualmente por MCO o por máxima verosimilitud. Esto
simplifica la estimación. El Cuadro 11.1 muestra la estimación de un VAR
con p = 4 y m = 2 para las variables trimestrales COLOC (tasa de interés de
colocación o de préstamos) y CAPTA (tasa de interés de captación o al
ahorro).
La ecuación estimada para la variable COLOC es
COLOC CAPTA
C 26.49473 15.15278
(9.06698) (8.84354)
[ 2.92211] [ 1.71343]
Cuadro 11.1
y agrupando términos,
1 − α 22 L α12 L
1t ∆
x ∆
ε
= 1t (11.9)
x2t α 21L 1 − α11L ε 2t
∆ ∆
1 − α 22 L α L ε α ε α ε
ε1t + 12 ε 2t 1t − 22 1t −1 + 12 2t −1
= ∆ ∆ = ∆ ∆ ∆
α L
21 ε + 1 − α L α ε ε α ε
1t
11
ε 2t 21 1t −1 + 2t − 11 2t −1
∆ ∆ ∆ ∆ ∆
Ejemplo
Montenegro ECONOMETRÍA
Para ilustrar el papel de las raíces de la ecuación auxiliar (en este caso el
determinante) sobre la estabilidad de un VAR, consideramos el siguiente
modelo numérico
x1t 2 1 x1t −1 ε 1t
= +
x 2t 1 2 x 2t −1 ε 2t
1 − 2L L
x1t ∆
∆ ε 1t
=
x 2t L 1 − 2 L ε 2t
∆ ∆
x10 0
=
x20 1
x11 α11 α12 0 α12
= =
x α
21 21 α 22 1 α
22 (11.12)
x12 α11 α12 α12 α11α12 + α12α 22
= = 2
x22 α 21 α 22 α 22 α 21α12 + α 22
M
xt = c + A1 xt −1 + L + Ap xt − p + ε t (11.13)
Montenegro ECONOMETRÍA
xˆn +1 = c + A1 xn + A2 xn −1 + L + Ap xn +1− p
xˆn + 2 = c + A1 xˆn +1 + A2 xn + L + Ap xn + 2 − p
(11.14)
xˆn + 3 = c + A1 xˆn + 2 + A2 xˆn +1 + L + Ap xn + 3− p
M
Ejemplo
x1t c1 α 11 α 12 x1t −1 ε 1t
= + +
x c
2t 2 21 α α x
22 2 t −1 ε 2t
Varianza de Predicción
xt = ε t + B1ε t −1 + B2ε t −2 + L
Montenegro ECONOMETRÍA
Predicción: Error:
M M
Var (εˆn +T ) = Eεˆn +T εˆn′ +T = E (ε n +T ε n′ +T + B1ε n +T −1ε n′ +T −1 B1′ + L + BT −1ε n +1ε n′ +1 BT′ −1 )
= Σ + B1ΣB1′ + L + BT −1ΣBT′ −1
Causalidad
Cuando se corre una regresión por MCO, es común suponer que las
variables independientes 'causan' la dependiente; inclusive, éstas también se
llaman variables explicativas porque 'explican' la dependiente. Sin embargo,
tal causalidad no está garantizada.
El sólo hecho de que una variable se encuentre despejada en una ecuación
no implica que sea causada por las otras. Por ejemplo, en álgebra es
frecuente escribir
Montenegro ECONOMETRÍA
y = f (x )
Q = f (K , L )
zt = a + ∑ bi zt −i + ∑ c j xt − j + ε t
(11.15)
i j
xt = d + ∑ f i zt −i + ∑ g j xt − j + ut
i j
Ejemplo
Cuadro 11.2
Montenegro ECONOMETRÍA
Capítulo 12
Paseo Aleatorio
xt = xt −1 + ε t (12.1)
Figura 12.1
Montenegro ECONOMETRÍA
∆xt = xt − xt −1 = ε t (12.2)
x1 = x0 + ε1
x2 = x0 + ε1 + ε 2
x3 = x0 + ε1 + ε 2 + ε 3
x4 = x0 + ε1 + ε 2 + ε 3 + ε 4
x5 = x0 + ε1 + ε 2 + ε 3 + ε 4 + ε 5 (12.3)
M
t
xt = x0 + ∑ ε s
s =1
El valor esperado del paseo aleatorio, dado un número inicial x0 , esto es,
Ext x0 , será el mismo x0 para cualquier tiempo t ; la media será igual al
punto de arranque porque el movimiento a partir de allí es puramente
aleatorio; es una suma de términos de ruido cuyo valor esperado es cero.
De igual forma, dado cualquier valor xt , el movimiento futuro de la serie
a partir de allí será aleatorio y dicho movimiento consistirá en una suma de
términos de ruido,
Montenegro ECONOMETRÍA
τ
xt +τ = xt + ∑ ε t + s (12.4)
s =1
E ( xt +τ | xt ) = xt (12.5)
t
Var (xt x0 ) = Var x 0 + ∑ ε s = Var (ε 1 + ε 2 + L + ε t ) = tσ ε2 (12.6)
s =1
s =1 s =1
(12.7)
= Eε 12 + Eε 22 + L + Eε t2 = tσ ε2
R(τ ) = E ( xt − x0 )( xt −τ − x0 )
= E [(ε1 + ε 2 + L + ε t )(ε1 + ε 2 + L + ε t −τ )] (12.8)
( )
= E ε12 + ε 22 + L + ε t2−τ = (t − τ )σ ε2
r (τ ) =
(t − τ )σ ε2 =
t −τ
=
t −τ
≤1 (12.9)
tσ ε2 (t − τ )σ ε2 t (t − τ ) t
xt = xt −1 + c + ε t (12.10)
Montenegro ECONOMETRÍA
x1 = x0 + c + ε 1
x2 = x0 + c + ε 1 + c + ε 2
x3 = x0 + c + ε1 + c + ε 2 + c + ε 3
x4 = x0 + c + ε 1 + c + ε 2 + c + ε 3 + c + ε 4
x5 = x0 + c + ε1 + c + ε 2 + c + ε 3 + c + ε 4 + c + ε 5
M
t
xt = x0 + ct + ∑ ε s
s =1
Regresiones Espurias
xt = xt −1 + ut (12.11)
yt = yt −1 + vt (12.12)
donde
u t ~ iid (0, σ u2 )
(
vt ~ iid 0, σ v2 )
E u t v s = 0 ∀t , s
Montenegro ECONOMETRÍA
yt = β 0 + β1xt + ε t (12.13)
yt = β 0 + ε t (12.14)
yt = β 0 + β1 xt + γ t + ε t (12.15)
x t = β 0 + β 1t + ε t
yt = 5.92 + .03xt
(9.9) (21.2)
R 2 = 0.94 DW = 0.06
Series Integradas
veces se vuelve estacionaria. Una serie I (0) es una serie que no hay que
diferenciarla porque ya es estacionaria y tiene representación ARMA. La
suma de una I (0) y una I (1) será siempre una I (1) .
De la experiencia se encuentra que la mayoría de las series económicas
son hasta I (2) . La mayor parte de los trabajos empíricos tratan con series
I (0) o I (1) , razón por la cual nos concentraremos en éstas en adelante.
El paseo aleatorio es una típica I (1) ya que al diferenciarla una vez queda
estacionaria
xt = xt −1 + ε t
(12.16)
(1 − L ) xt = ε t ~ I (0)
Vemos que el paseo aleatorio tiene una raíz unitaria [de la ecuación auxiliar
1 − L = 0 ]. Diferenciar una serie es aplicarle el operador (1 − L) que de hecho
tiene una raíz unitaria. Sin embargo, la definición de serie integrada está en
el contexto de diferenciar para obtener estacionariedad, más que en términos
de raíz unitaria. Por ejemplo, el proceso xt = − xt −1 + ε t contiene una raíz
unitaria, L = −1 , pero no se convierte en estacionario diferenciando (para esto
habría que sumar xt + xt −1 = ε t ).
Ejemplo
∆xt = 2 xt −1 − xt −2 + ε t − xt −1 = xt −1 − xt − 2 + ε t = ∆xt −1 + ε t
la cual es I (0) .
Ejemplo
Montenegro ECONOMETRÍA
xt =
(1 − L )ε t = ε
t
1− L
xt = xt − 2 + ε t −1 − ε t − 2 + ε t − ε t −1 = xt − 2 − ε t − 2 + ε t
= xt − 3 + ε t − 2 − ε t − 3 + ε t − ε t − 2 = xt − 3 − ε t − 3 + ε t
= xt − 4 + ε t −3 − ε t − 4 + ε t − ε t − 3 = xt − 4 − ε t − 4 + ε t
M
= xt − n − ε t − n + ε t
M
= x0 − ε 0 + ε t
expresión que es estacionaria por ser igual a una constante x0 − ε 0 más ruido
εt .
t
Lo anterior contrasta con el paseo aleatorio xt = xt −1 + ε t = x0 + ∑ ε s que,
s =1
Cointegración Bivariada
Para realizar esta prueba a una serie xt se corre por MCO la siguiente
regresión
∆xt = ϕ xt −1 + ε t (12.19)
H 0 : No estacionariedad en media
H A : Estacionariedad en media
Montenegro ECONOMETRÍA
Ejemplo
TASA DE DESEMPLEO
porcentual trimestral
22
20
18
16
14
12
10
6
1984 1986 1988 1990 1992 1994 1996 1998 2000
Figura 12.2
Montenegro ECONOMETRÍA
t-Statistic Prob.*
Cuadro 12.1
Montenegro ECONOMETRÍA
Cuadro 12.2
Montenegro ECONOMETRÍA
Una vez se establece que las series x1t y x 2t son I (1) , el siguiente paso es
determinar si están cointegradas. Para ello, en el procedimiento desarrollado
por Engle y Granger (1987), se corre la regresión de una variable contra la
otra, digamos
∆uˆ t = ϕ uˆ t −1 + ε t (12.23)
50
40
30
20
10
91 92 93 94 95 96 97 98 99 00 01
CAPTA COLOC
Figura 12.3
60
50
40
30
20
10
0
91 92 93 94 95 96 97 98 99 00 01
Figura 12.4
Montenegro ECONOMETRÍA
Engle-Granger
Date: 04/29/13 Time: 16:50
Series: CAPTA COLOC
Sample (adjusted): 1991Q1 2000Q4
Included observations: 40 after adjustments
Null hypothesis: Series are not cointegrated
Cointegrating equation deterministics: C
Automatic lags specification based on Schwarz criterion (maxlag=9)
Phillips-Ouliaris
Date: 04/29/13 Time: 16:51
Series: CAPTA COLOC
Sample (adjusted): 1991Q1 2000Q4
Included observations: 40 after adjustments
Null hypothesis: Series are not cointegrated
Cointegrating equation deterministics: C
Long-run variance estimate (Bartlett kernel, Newey-West fixed
bandwidth)
Cuadro 12.3
Montenegro ECONOMETRÍA
Engle-Granger
Date: 04/29/13 Time: 16:32
Series: CAPTA COLOC INF
Sample (adjusted): 1991Q1 2000Q4
Included observations: 40 after adjustments
Null hypothesis: Series are not cointegrated
Cointegrating equation deterministics: C
Automatic lags specification based on Schwarz criterion (maxlag=9)
Philllips-Ouliaris
Cuadro 12.4
Montenegro ECONOMETRÍA
∆x1t = β10 + β11∆x1t −1 + β12 ∆x2t −1 + β14 x1t −1 + β15 x2t −1 + ε1t
(12.25)
∆x2t = β 20 + β 21∆x1t −1 + β 22 ∆x2t −1 + β 24 x1t −1 + β 25 x2t −1 + ε 2t
Capítulo 13
Cuadro 13.1
t = 1 t = 2 t = 3 L t = T
i = 1 ___ ___ ___ K ___
i = 2 ___ ___ ___ K ___
i = 3 ___ ___ ___ K ___
M M M M M
i = N ___ ___ ___ K ___
supongamos que solo hay efectos fijos transversales ai y que solo hay una
variable explicativa xit , de manera que el modelo se simplifica a
yi = β xi + ai + ε i (13.3)
1 T 1 T 1 T
donde yi = ∑ it i T ∑
T t =1
y , x =
t =1
x it , ε i = ∑ ε it , y donde ai = ai porque ai es
T t =1
igual en cada período de tiempo. No se recomienda estimar la ecuación
anterior (conocida como between) porque tiene una muestra reducida ( N
observaciones) y además la posibilidad de que ai y xi estén relacionadas,
sesgando β̂ . Para continuar con el método within, se resta la ecuación (13.3)
de la ecuación (13.2) para obtener
Montenegro ECONOMETRÍA
aˆi = yi − β̂ xi (13.5)
Var (ε it − ε i ) = E (ε it − ε i ) 2 = Eε it2 − 2 Eε it ε i + Eε i2
Eε it (ε i1 + ε i 2 + L + ε iT ) E (ε i1 + ε i 2 + L + ε iT )(ε i1 + ε i 2 + L + ε iT )
= Eε it2 − 2 + (13.7)
T T2
σ ε2 Tσ ε2 σ ε2 1
= σ ε2 − 2 + 2
= σ 2
ε − = σ ε2 1 −
T T T T
En cuanto a la covarianza,
yit − yi = β ( xit − xi ) + ε it − ε i
∆yit = β ∆xit + ∆ε it
estimación que será más eficiente que MCO. Veamos en mayor detalle la
forma de φ . Recordando las expresiones para la varianza y covarianza de uit
mencionadas arriba tenemos que, para cualquier unidad i , la matriz de
varianza covarianza φi será
σ a2 + σ ε2 σ a2 L σ a2
σ a2 σ a2 + σ ε2 L σ a2
φi = (13.16)
M M O
2
σ a σ a2 σ a2 + σ ε2
φi 0 L 0
0 φ L 0
φ= i (13.17)
M M O
0 0 φi
Prueba de Hausman
que converge a una chi cuadrado con grados de libertad iguales al número de
variables explicativas que cambian en el tiempo, que es igual al número de
coeficientes en el vector β . Si el estadístico de prueba (13.18) supera el
valor crítico escogido entonces se rechaza la hipótesis nula y no se
recomienda la estimación por efectos aleatorios; esto es, la estimación debe
hacerse por efectos fijos. Hausman muestra que la cantidad
( βˆ FE − βˆ RE ) 2
d
→ χ12
ˆ
Var ( β ) − Var ( β )
FE ˆ RE
yit = α yit −1 + ai + ε it
Montenegro ECONOMETRÍA
No Estacionariedad en Panel
Capítulo 14
CAUSALIDAD E IMPACTO
x y Figura 14.1a
x y Figura 14.1b
β0
1
y
β1
x1
α
β2
u
x2
ε Figura 14.2
Regresión a la Media
Este fenómeno fue identificado por Sir Francis Galton en 1886 quien lo
llamó regresión a la mediocridad (regression to mediocrity). Es el origen de
la palabra regresión en econometría. Galton estudió datos de estaturas de
padres e hijos (adultos), tratando de establecer si a padres altos les nacen
hijos altos y a padres bajos les nacen hijos bajos. Si lo anterior es cierto, los
datos deberían encontrarse sobre la diagonal en una gráfica que tenga la
estatura de padres en el eje horizontal y la estatura de hijos en el eje vertical.
Sin embargo, la nube de puntos de Galton dibuja una línea con menor
pendiente; esto es, padres altos tienen hijos menos altos y padres bajos
tienen hijos menos bajos.
Regresión a la media se da cuando mediciones ubicadas en los extremos
de la distribución se vuelven a medir, y se encuentra que ya no son tan
extremas. Esto se intuye modelando la medición M i del individuo i ésimo en
función del verdadero valor Vi más un término de error,
M i = Vi + ε i (14.1)
yi = β 0 + β1Di + ε i (14.7)
coeficient e de Di en una
E ( βˆ1 X , Di ) = β 1 + regresión de ε i contra (1) = β 1 + (0)(1) = β 1
una constante , D y X
i
Diferencias en Diferencias
y2
y1
Figura 14.3
t1 t2 t
y
T
Figura 14.4
t1 t2 t
Figura 14.5
t1 t2 t
yT 1 = β 0 + β1 (trat ) = β 0 + β1
yC 2 = β 0 + β 2 ( post ) = β 0 + β 2
Montenegro ECONOMETRÍA
yC1 = β 0
Regresión Discontinua
yi = β 0 + β1Di + β 2 xi + ε i (14.12)
β1
Figura 14.6
U x
yi = β 0 + β1Di + f ( xi ) + ε i (14.13)
Montenegro ECONOMETRÍA
donde f ( xi ) puede ser lineal o cuadrática (rara vez cúbica, etc.). También se
pueden adicionar interacciones, que permiten diferentes pendientes, antes y
después del umbral U , como
Matching (Emparejamiento)
Montenegro ECONOMETRÍA
Capítulo 15
BOOTSTRAPPING Y PERMUTACIÓN
Bootstrapping
Por ejemplo, para la muestra original {x1 , x2 ,K, xn } podrían usarse los
siguientes bloques traslapados de longitud l donde, para simplicidad, n / l es
un entero
Pruebas de Permutación
y = β 0 + β1 x1 + β 2 x2 + ε
Capítulo 16
yi = α + β xi + ε i (16.1)
yi
Pˆi = αˆ + βˆ xi
0
Figura 16.1
xi
E (ε i xi ) = [1 − (α + β xi )]Pi + [0 − (α + β xi )](1 − Pi )
(16.3)
= (1 − Pi ) Pi + (− Pi )(1 − Pi ) = 0
2
Var (ε i x i ) = E (ε i − Eε i xi )) = E (ε i2 xi ) = (1 − Pi ) 2 Pi + (− Pi ) 2 (1 − Pi )
(16.4)
2
= (1 − Pi ) Pi [(1 − Pi ) + Pi ] = (1 − Pi ) Pi = Pi − Pi
igual que la de una Bernoulli, como lanzar una moneda. Puede verse que la
varianza del error depende de xi ya que Pi = α + β xi . La heteroscedasticidad
genera estimadores ineficientes y pruebas de hipótesis poco confiables. La
varianza del error ε i será más alta para valores de xi que hagan que Pi esté
cerca de 0.5 y más baja para valores de xi que hagan que Pi esté cerca de los
extremos, esto es, de 0 o 1.
Sin embargo, nótese que nada en la estimación restringiría a P̂i para que
esté en el intervalo [0,1] como debería ser una probabilidad. Si, por ejemplo,
Pˆi = 2 la varianza estimada daría -2 (negativa).
Ejemplo
1 con probabilidad Pi = P( y i = 1 x)
yi =
0 con probabilidad 1 − Pi
e xi′ β 1
Pi = x i′ β
= (16.5)
1+ e 1 + e − xi′ β
t2
x i′ β 1 −2
Pi = ∫ e dt (16.6)
−∞ 2π
Pi = 0.5
Figura 16.2
0
x′β = 0 x′β
L = f ( y1 , y2 ,K, yn ) = f ( y1 ) f ( y2 )L f ( yn )
[ ][ ] [
= P1 y1 (1 − P1 )1− y1 P2y 2 (1 − P2 )1− y 2 L Pny n (1 − Pn )1− y n ] (16.7)
∏P i
yi
(1 − Pi )1− y i
i =1
y la verosimilitud logarítmica
Montenegro ECONOMETRÍA
n
l = ln L = ∑ [ yi ln Pi + (1 − yi ) ln (1 − Pi )] (16.8)
i =1
Ejemplo
e xi′ β
Ilustramos la expresión anterior utilizando un logit Pi = , obteniendo,
1 + e xi′ β
respectivamente, la verosimilitud L y la verosimilitud logarítmica l = ln L ,
yi 1− y i
n
e xi′ β e xi β
′
L = ∏ x i′ β
1 − x i′ β
i =1 1 + e 1+ e
n
e xi′ β ′
e xi β
l = ln L = ∑ yi ln x i′ β
+ (1 − yi ) ln1 − x i′ β
i =1 1+ e 1+ e
Pi = P( yi = 1 xi ) = F ( xi′β )
′
∂Pi ∂F ( xi′β ) ∂ ( xi′β ) ∂ ( xi′β ) e xi β
= = f ( xi′β ) = βj
(1 + e xi β ) 2
′
∂xij ∂ ( xi′β ) ∂xij ∂xij
Como se anotó antes, puede verse que, siendo la densidad una cantidad no
negativa, el efecto de xij sobre Pi tiene siempre el mismo signo de β j . El
hecho de que la densidad dependa de los valores de todas las variables en xi
∂Pi
implica que para calcular el valor de es necesario escoger valores para
∂xij
las variables o presentar algún promedio. Con frecuencia se utiliza la
densidad evaluada en el promedio de las variables para toda la muestra, x ,
de manera que el efecto de xij sobre Pi queda
Montenegro ECONOMETRÍA
∂Pi
= f ( x ′β ) β j
∂xij
∂Pi ∑ f ( x′β )
i =1
i
= βj
∂xij n
Ejemplo
ˆ e6 − 3 xi
Considere el logit estimado Pi = y la pregunta ¿para cuáles valores
1 + e 6 − 3 xi
de xi quedarían clasificadas las observaciones como yi = 0 ?
Las observaciones quedan clasificadas como yi = 0 si su probabilidad es
menor que 0.5. Este umbral se alcanza para 6 − 3xi = 0 de donde vemos que
para xi > 2 la probabilidad es menor que 0.5. La respuesta es que cualquier
observación con xi > 2 quedará clasificada como yi = 0 . Nótese que este caso
la función acumulativa Pi comienza en 1 para xi → −∞ y termina en 0 para
xi → ∞ .
LR = −2(l R − l NR )
l NR
pseudo R 2 = 1 − (16.10)
lR
Montenegro ECONOMETRÍA
que arroja valores cercanos a 0 para una mal ajuste y cercanos a 1 para un
buen ajuste; esto es, vale 0 cuando l NR es igual a l R , o sea cuando ningún
regresor sirve, y vale 1 cuando l NR toma su máximo valor (cero).
Otro indicador es
medición que debe ser mayor que 1 para un buen ajuste. También se
propone
# de predicciones correctas
(16.12)
n
Modelos de Conteo
λy e −λ
i
P( yi ) = (16.13)
yi !
Distribución de Poisson
P .40
Lambda 1
.35 Lambda 5
Lambda 10
.30
.25
.20
.15
.10
.05
.00
2 4 6 8 10 12 14 16 18 20 y
Figura 16.3
λi = E ( yi xi ) = e x ′ β = e β
i 0 + β 1 x1i + β 2 x 2 i +L+ β k x ki
(16.14)
λiy e − λ
i i
ln P( yi x) = ln (16.15)
yi !
Remplazando λi = e x ′β , obtenemos i
n
l( β ) = ∑ [ yi xi′β − e xi β − ln( yi !)]
′
i =1
∂E ( yi xi ) ′
= e xi β β j = λi β j (16.17)
∂xij
Capítulo 17
MODELOS ARCH
10
-5
-10
-15
100 200 300 400 500 600 700 800 900 1000
tiempo
Figura 17.1
yt = γ ' xt + ε t (17.1)
ε t I t −1 ~ N (0, σ t2 )
Sin embargo, para los errores incondicionales sigue siendo cierto que
ε t ~ (0, σ 2 ), donde el tipo de distribución no se especifica porque, como se
discutirá más adelante, la distribución no necesariamente es normal. En otras
palabras, E (ε t2 I t −1 ) = σ t2 será la varianza condicional y E (ε t2 ) = σ 2 será la
varianza incondicional. Nótese que, por la ley de expectativas iterativas,
E (σ t2 ) = E [ E (ε t2 I t −1 )] = E (ε t2 ) = σ 2 .
En la formulación del ARCH( q ), el cuadrado de los errores, ε t2 , se
postula como un autorregresivo,
σ 2 = β 0 + β 1σ 2 + β 2σ 2 + L + β qσ 2
β0
Var (ε t ) = σ 2 = (17.4)
1 − β1 − β 2 − L − β q
α 0 + B(L )ε t2
σ t2 = (17.7)
1 − A(L )
α0
Var (ε t ) = σ 2 = = constante (17.8)
1 − A(1) − B(1)
Montenegro ECONOMETRÍA
(1 − α 1 L)σ t2 = α 0 + βε t2−1
α0
σ t2 = + β [ε t2−1 + α 1ε t2−2 + α 12ε t2−3 + L]
1 − α1
yt = γ 0 + γ 1σ t2 + ε t (17.10)
yt = γ 0 + γ 1σ t2 + γ 2 zt + ε t (17.11)
σ 12 0 L 0
0 σ 22 M
Σ= ,
M O 0
2
0 L 0 σ n
Montenegro ECONOMETRÍA
será de la forma
1 1
f (ε1 ,K, ε n ) = n/2
(
exp − ε ′ Σ −1ε )
(2π ) (det Σ)1/ 2
2
1 1 ε 12 ε 22 ε n2
= exp − + + L +
(2π )n / 2 (σ 12σ 22 Lσ n2 )1 / 2 2 σ 12 σ 22 σ n2
= f1 (ε1 ) f 2 (ε 2 )L f n (ε n ) (17.13)
1 1 n y − γ ′ x 2
f ( y1 ,K, yn ) = n/2
exp− ∑ t t
(17.14)
(2π ) (σ 1 σ 2 Kσ n )
2 2 2 1/ 2
2 t =1 σ t
ε ε 1 1 ε 12 ε 22 ε n2
f 1 ,K, n = exp − +
σ 2 σ 2 + L +
2
σ1 σ n (2π )n / 2 2 1 2 σ n
( yt − γ ′ xt ) 2
(17.16)
α 0 + α1σ t2−1 + α 2σ t2− 2 + L + α pσ t2− p + β1ε t2−1 + β 2ε t2− 2 + L + β qε t2− q
σ 22 = α 0 + βε 12 = α 0 + β ( y1 − γ ' x1 )2
( )
σ 32 = α 0 + α 1σ 22 + βε 22 = α 0 + α 1 α 0 + β ( y1 − γ ' x1 )2 + β ( y 2 − γ ' x 2 )2
M
Ejemplo
Dependent Variable: Y
Method: ML ARCH - Normal distribution (Marquardt / EViews legacy)
Date: 11/23/17 Time: 16:08
Sample (adjusted): 3 1000
Included observations: 998 after adjustments
Convergence achieved after 18 iterations
Presample variance: backcast (parameter = 0.7)
Variance Equation
Cuadro 17.1
yt = γ 0 + γ 1 yt −1 + ε t + γ 2ε t −1
ε n +T + β1 ε n +T −1 + β 2 ε n +T −2 + L + β T −1ε n +1
Ejemplo
σˆ n2+1 = α 0 + α 1σ n2 + βε n2
Montenegro ECONOMETRÍA
σˆ n2+T = α 0 [1 + (α 1 + β ) + L + (α 1 + β ) T −1 ] + (α 1 + β ) T −1 [α 1σ n2 + βε n2 ]
α0
= +0 =σ2
(1 − α 1 − β )
Otras Aplicaciones
ε t −1 ε
ln σ t2 = α 0 + α1 ln σ t2−1 + β + ϕ t −1 (17.19)
σ t −1 σ t −1
Valor a Riesgo
rt = γ 0 + γ 1rt −1 + ε t + γ 2ε t −1 (17.20)
EJERCICIOS
(no requieren calculadora)
2
8. Sea el modelo de regresión y = β 0 + β 1 log x + β 2 (log x ) + ε . La estimación por MCO
del modelo presenta problemas de
a) multicolinealidad perfecta b) autocorrelación en los errores
c) heteroscedasticidad d) sesgo de simultaneidad
e) inclusión de variable irrelevante f) errores en variables g) ninguna
2
σε σε 2 ∑ εˆi2 ∑ εˆ i
2
a) b) 2
c) i =1
d) i =1
e) Eεˆ ′εˆ f) 0
n −1 n −1 n n(n − 1)
g) ninguna
∑ x2
15. Cuando n → ∞ el límite de probabilidad plim es
n
2 2 2 2
a) nµ x b) x c) σ x d) µ x e) µ x f) σ x2 + µ x2 g) ∞
h) nµ x i) 0 j) ninguna
a) yi = β + (α + β ) Di + ε i b) yi = (α + β ) + β Di + ε i
c) yi = (α + β ) − 2β Di + ε i d) y i = (α − β ) + 2β Di + ε i
e) yi = 2α − β Di + ε i f) yi = α + (α − β ) Di + ε i
g) yi = α − β Di + ε i h) ninguna
19. Un estadístico Durbin Watson (DW) con valor cercano a cero indica que hay
a) autocorrelación negativa b) autocorrelación cero
c) autocorrelación positiva d) heteroscedasticidad
e) multicolinealidad f) ninguna
y 1− y
eβ x eβ x
21. La probabilidad logit P( y i = y x) =
βx
1 − , donde y es cero o
βx
1+ e 1+ e
uno, puede expresarse como
eβ xy eβ xy eβ xy
a) β x b) β c) 1 − d) 1 e) 1 + f)
1+ eβ x 1+ eβ x 1+ eβ x
βx −β x y
g) e h) e i) β x y j) ninguna
25. Sea P la probabilidad de que una moneda caiga cara. Suponga que se lanza la
moneda cinco veces y las cinco veces cae cara. ¿Cuál sería la estimación P̂ por máxima
verosimilitud?
a) 1 b) 0.8 c) 0.5 d) 0.4 e) 0.2 f) 0 g) ninguna
a)
∑ εˆ + y
i
2
b)
∑ εˆ − yi
2
c)
∑ εˆ i
d)
2
∑ εˆ i
2
e) 1 −
∑ εˆi
2
∑ yˆ 2
i ∑ yˆ 2
i ∑ yˆ 2
i ∑y 2
i ∑y 2
i
f) ninguna
~ ~ ~
30. En el modelo de errores en variables y = Xβ + ε observamos X = X + u , donde X y
u son independientes. La covarianza entre X y u es
a) 0 b) − σ ε2 c) σ ε2 d) − σ u2 e) σ u2 f) − σ ε σ u g) σ ε σ u
h) ninguna
31. Cuál de las siguientes pruebas se puede usar para probar autocorrelación hasta de
tercer orden, esto es, de ε t con ε t −3
a) Durbin Watson b) White c) RESET d) Gauss Markov
e) Hausman f) Breusch Godfrey g) ninguna
x + x n y1 + y n
a) ( x1 , y1 ) b) ( x n , y n ) c) 1 , d) ( x , y ) e) (0,0)
2 2
x + y x + yn
f) 1 1 , n g) ninguna
2 2
34. Para las variables x y y , ambas con media cero, corremos las dos regresiones
y = β x + ε y x = α y + u , donde α y β son los coeficientes y ε y u son los errores.
Esperamos que el producto αˆ βˆ sea
a) el cuadrado del coeficiente de correlación entre x y y
b) una variable con distribución normal estándar
c) 1 d) 0 e) σ ε2σ u2 f) σ ε2 / σ u2 g) σ u2 / σ ε2 h) σ ε2σ u2 /(σ ε2 + σ u2 )
i) ninguna
42. Considere las observaciones ( x, y ) : (0,1), (1,1) y (1,0). ¿Cuál línea cumple con el
criterio de minimizar la suma de errores al cuadrado?
1 1 3
a) y = b) y = x c) y = 1 − x d) y = x e) y = − x
2 2 2
1
f) y = 1 − x g) y = 1 h) ninguna
2
43. Sea la hipótesis nula: la variable no sirve en la regresión. ¿Con cuál nivel de
significancia es más fácil rechazar la hipótesis nula?
a) 5% b) 4% c) 3% d) 2% e) 1%
46. Considere la serie de residuos εˆt = {10, − 11, 9, − 10,10, − 11,11, − 10} . Si estimamos el
Durbin Watson con los datos de εˆt , el resultado estará cerca de
a) -1 b) 0 c) 1 d) 2 e) 2 f) 4 g) -2
Montenegro ECONOMETRÍA
49. Sea el modelo y = β + ε , donde y = {1,−1,1,−1} y ε está distribuida con media cero
y varianza uno. ¿Cuál es la varianza de β̂ ?
1 1 3 3
a) b) 2 c) 1 d) e) 4 f) g) 0 h)
4 2 2 4
i) ninguna
51. Sea la variable u distribuida como chi-cuadrado con k grados de libertad, χ k2 . Para
u
k → ∞ , cuál es plim ?
k
1 1
a) 0 b) 2 c) 2 k d) k 2 e) k f) 1 g) h)
k 2
i) ninguna
1 T
εi = ∑ ε it . ¿Cuántas observaciones tenemos para estimar el modelo transformado?
T t =1
a) NT b) T c) N d) NT − T e) NT − N f) ninguna
Montenegro ECONOMETRÍA
xt −1 + xt +1
56. Considere la serie suavizada st = de la variable xt = t . Se puede decir
2
que
a) st = xt b) st < xt c) st > xt d) ninguna
61. Sea una acción con precio inicial igual a $56. Si el precio de la acción primero baja
10% y luego sube 10%, el precio final será
a) menor que $56 b) igual a $56 c) mayor que $56 d) ninguna
Montenegro ECONOMETRÍA
1 2
62. Si aplicamos el suavizado st = ∑ xt −i a la serie xt = t / 3 , el resultado será
3 i =0
t t t 1
a) st = −1 b) st = c) st = 3t − 3 d) st = − e) st = t
3 9 3 3
t
f) st = t − 1 g) st = h) ninguna
3
ε t −1
63. La autocorrelación para el primer rezago, r (1) , para el modelo xt = ε t + es
β
1 β β
a) 0 b) 1 / β c) 1 / β 2 d) e) f)
β (1 + β 2 ) 1+ β 2 1
1+
β2
eβ
67. Considere la estimación del modelo logit P( y i = 1) = con los datos
1+ eβ
y i = {0,0,0,1,1,1} . Se espera que el coeficiente estimado β̂ sea
a) 3 b) negativo c) 0.5 d) 1 e) cero f) ninguna
e 5− 2 x
70. Sea el modelo logit estimado P( yi = 1 x) = , donde e = 2.72 . Las
1 + e 5− 2 x
observaciones con x = 0 y x = 2 quedarían clasificadas, respectivamente, como
a) 0 y 0 b) 0 y 1 c) 1 y 0 d) 1 y 1 e) ninguna
71. Considere el modelo xt = 2 + 0.5 xt −1 + ε t − 0.5ε t −1 junto con los datos del final de la
muestra, x n = 1 y ε n = 1 . La mejor predicción para x n + 2 será
a) -4 b) 1 c) -2 d) -3 e) 4 f) -1 g) 2 h) 3 i) 0 j) ninguna
72. Sea el modelo panel yit = α + β xit + ai + ε it para el cual se tienen las observaciones
1 4 1 5
yi 1 = 2 , yi 2 = 5 , xi 1 = 1 , xi 2 = 5 . El tamaño de la muestra es
3 6 3 6
a) 2 b) 15 c) 12 d) 9 e) 3 f) 6 g) ninguna
e xβ
73. De la expresión logit, P = , se puede obtener que xβ es igual a
1 + e xβ
P P 1− P 1− P
a) ln P (1 − P ) b) c) ln d) e) ln
1− P 1− P P P
P P
f) P (1 − P ) g) 2
h) ln i) ninguna
(1 − P) (1 − P ) 2
76. El modelo que tiene valor esperado Ext = 2 y varianza Var ( xt ) = 14σ ε2 , es
a) xt = 2 + ε t + 3ε t −1 b) xt = 6 + ε t − 2ε t −1 − 3ε t − 4 c) xt = 14 + ε t − 2ε t −1 + 3ε t − 4
d) xt = 2 + ε t − 2ε t −1 + 3ε t − 4 e) xt = 2 + ε t + 2ε t −1 + 3ε t − 2 + 8ε t − 3
f) ninguna
77. ¿Cuántos coeficientes por cada rezago tiene un VAR de tres variables?
a) 6 b) 9 c) 12 d) 13 e) 18 f) 3 g) ninguna
x 2 1 0 xt −1 ε xt
78. En el modelo t = + + ,
y t 1 1 0 y t −1 ε yt
a) xt y y t están cointegradas b) y t es I (2) c) xt es estacionaria
d) y t es estacionaria e) Ext = 3 f) Ey t = 1 g) ninguna
82. Si los ingresos de una firma rentable aumentan 10% y sus costos aumentan 10%
durante el mismo periodo, la ganancia de la firma
a) aumenta 5% b) aumenta 10% c) aumenta menos que 5%
d) no cambia e) cae 5% aproximadamente f) ninguna
83. Considere la siguiente situación: antes del tratamiento, el grupo de control ganaba 5
pesos y el grupo del tratamiento ganaba 10 pesos. Después del tratamiento, el grupo de
control gana 10 pesos y el del tratamiento 5 pesos. El efecto del tratamiento sobre el
salario que se calcula por el método diferencias en diferencias es de
a) 0 b) -5 c) 5 d) -10 e) 10 f) -15 g) 15
h) ninguna
Montenegro ECONOMETRÍA
x 1 0.5 0.3 xt −1 ε xt
85. Considere el VAR t = + + . Dados los últimos datos de
y t 0 0.1 0.5 y t −1 ε yt
la muestra x 2014 = y 2014 = 0 , la predicción ŷ 2016 será
a) 0 b) 1.3 c) 1 d) 0.4 e) 0.3 f) 0.1 g) ninguna
86. Sean x1t , x 2t y x3t variables I (1) . Si en la regresión de x1t contra x 2t y x3t los
residuos son I (0) , se puede concluir que
a) x1t podría estar cointegrada con x 2t b) x1t podría estar cointegrada con x3t
c) x1t podría estar cointegrada con x 2t y x3t d) todas las anteriores
e) ninguna de las anteriores
xt −1 + xt +1
88. Considere la serie suavizada st = de una variable xt con un valor inicial
2
x0 > 0 , a partir del cual cae 2% por período. En promedio, se puede decir que
a) st = xt b) st < xt c) st > xt d) ninguna
89. Sea xt una serie mensual que vale 2 en junio y diciembre y cero en los demás meses.
La serie xt − xt −12 será
a) -1 b) 2 c) 1 d) -1/2 e) 1/2 f) 0
g) 2 en junio y cero en los demás meses
h) 2 en diciembre y cero en los demás meses
i) ninguna
90. El proceso xt = xt − 2 + ε t − ε t −2 es
a) I (3) b) I (2) c) I (1) d) I (0) e) ninguna
Montenegro ECONOMETRÍA
2
E ( xt +T − xˆ t +T )
92. Considere el indicador U = , donde xˆ t +T es la predicción de xt +T .
Ext2+T + Exˆ t2+T
x t +T
Si xˆ t +T = entonces U vale
2
1 1 3 1
a) b) c) d) 0 e) f) ninguna
3 4 4 2
∆y 1 − 1
93. A partir del VEC estimado t = + ( yt −1 − 0.5 xt −1 + 3) se puede obtener
∆xt 2 0.5
la expresión
a) y t = −2 + 0.5 xt −1 b) yt = −2 − 2 y t −1 + 0.5 xt −1 c) ∆y t = 4 − y t −1
d) ∆y t = −2 + 0.5 xt −1 e) ∆y t = −0.5 yt −1 + 0.75 xt −1 − 0.5 f) ninguna
∑ε
t =1
it
u it = ε it − ε i , donde ε i = . La autocovarianza E (u it u is ) para t ≠ s será
T
a) 0 b) σ ε2 c) − σ ε2 d) σ ε2 / T e) σ ε2 / T 2 f) − T / σ ε2
g) σ ε2 (T − 1) / T h) − σ ε2 / T i) ninguna
Montenegro ECONOMETRÍA
101. Si Eε X ≠ 0 entonces EX ′ε ≠ 0 .
verdadero falso
102. La matriz de varianza covarianza del vector de coeficientes estimados por MCO es
( )
E βˆβˆ ′ − β β ′ .
verdadero falso
Cov( xi , yi )
103. Para el modelo yi = β xi + ε i donde Exi = 0 tenemos que βˆ = .
Var ( xi )
verdadero falso
106. Eε = 0 implica Eε x = 0 .
verdadero falso
verdadero falso
108. Sea yi construida con la ecuación yi = β1 x1i + β 2 x2i + ε i , donde x1i es el dígito que
sale al lanzar un dado y x2i es el dígito que sale al lanzar otro dado. Si corremos la
regresión omitiendo x2i entonces el coeficiente estimado de x1i estará sesgado, esto es,
Eβˆ ≠ β .
1 1
verdadero falso
x + ε , observamos x = ~
114. En el modelo y = β ~ x + u donde u es un error de media
cero independiente de ~
x y ε . Si Var (u ) → ∞ entonces plim βˆ → 0 .
verdadero falso
asegurar que β̂1 estima el efecto causal del tratamiento sobre la variable dependiente.
verdadero falso
124. A los aspirantes que peor les fue en un examen de admisión les ponemos una
manilla con los colores de la bandera nacional y les hacemos un segundo examen de
admisión. Esperamos encontrar que a estos aspirantes les vaya mejor en el segundo
examen.
verdadero falso
1 m
1 m
125. El suavizado aritmético ∑ t +i
2m + 1 i = − m
x es equivalente a ∑ x t −i .
2m + 1 i = − m
Montenegro ECONOMETRÍA
verdadero falso
126. Sea yij el promedio de la variable de interés para el grupo i en el período j . Sea B
el grupo que recibe el tratamiento y A el de control. En el método de diferencias en
diferencias, el efecto del tratamiento se mide por la expresión ( y B 2 − y A2 ) − ( y B1 − y A1 ) .
verdadero falso
127. Si un hombre alto sospecha que su esposa le fue infiel porque su hijo adulto es más
bajito que él, la esposa puede defenderse apelando al fenómeno de la regresión a la
media.
verdadero falso
t2
α +β x 1 −
129. En el modelo probit P ( y = 1 x) = ∫ e dt , donde α = −2 y β = 0.3 , la
2
2π −∞
131. En un curso donde la evaluación consta de dos exámenes (uno a mitad del curso y
otro al final) y el requisito para aprobar el curso es obtener una nota superior a 70% en
ambos exámenes, esperamos observar el fenómeno de regresión a la media.
verdadero falso
136. Suponga la variable xt con media cero. La fórmula para estimar la autocovarianza
1 n
Rˆ (τ ) = ∑ ( xt )( xt − τ ) subestima la verdadera autocovarianza R (τ ) .
n t =1+ τ
verdadero falso
137. El concepto de regresión a la media implica que si un sujeto está por debajo de la
media en una medición, tiende a estar por encima de la media en la próxima medición.
verdadero falso
138. Una serie generada por los lanzamientos de un dado cargado puede ser iid .
verdadero falso
n n −1
142. Considere el filtro Hodrick Prescott, ∑ ( xt − st ) 2 + λ ∑ [( st +1 − st ) − (st − st −1 )] 2 . Si
t =1 t =2
144. En un modelo de datos panel con variables no estacionarias I (1) puede presentarse
el problema de regresión espuria.
verdadero falso
147. En el modelo para datos panel yit = α i + β xit + ε it , si xit no cambia en el tiempo,
β se puede estimar por efectos fijos.
verdadero falso
149. Si xt es una serie de ruido blanco y le aplicamos la prueba de raíz unitaria PP (cuya
expresión es ∆xt = ϕ xt −1 + ε t ), encontraremos que ϕ = −1 .
verdadero falso
Montenegro ECONOMETRÍA
RESPUESTAS
1 b 29 e 57 d 85 f 113 v 141 v
2 a 30 e 58 b 86 d 114 v 142 f
3 c 31 f 59 a 87 a 115 v 143 v
4 e 32 b 60 d 88 c 116 f 144 v
5 a 33 d 61 a 89 f 117 f 145 f
6 e 34 a 62 d 90 d 118 v 146 v
7 e 35 c 63 e 91 c 119 f 147 f
8 g 36 c 64 j 92 a 120 v 148 v
9 d 37 f 65 c 93 a 121 f 149 v
10 d 38 f 66 j 94 f 122 v
11 e 39 c 67 e 95 e 123 f
12 b 40 e 68 i 96 a 124 v
13 e 41 d 69 c 97 h 125 v
14 e 42 f 70 d 98 d 126 v
15 f 43 a 71 h 99 f 127 v
16 b 44 b 72 f 100 v 128 f
17 d 45 c 73 e 101 f 129 v
18 d 46 f 74 e 102 v 130 f
19 c 47 c 75 d 103 v 131 f
20 c 48 e 76 d 104 f 132 v
21 f 49 a 77 b 105 v 133 v
22 b 50 b 78 a 106 f 134 f
23 c 51 f 79 h 107 v 135 v
24 e 52 b 80 c 108 v 136 v
25 a 53 c 81 c 109 f 137 f
26 a 54 g 82 b 110 v 138 v
27 b 55 a 83 d 111 f 139 f
28 a 56 b 84 j 112 f 140 f
Montenegro ECONOMETRÍA
REFERENCIAS
Enders W. (2004) Applied Econometric Time Series, John Wiley & Sons,
New York.