You are on page 1of 135

Econometría

Rodrigo Saldías Q. PhD.


Director
Escuela de Ingeniería en Agronegocios
Facultad de Ciencias Económicas y Administrativas
Universidad Central de Chile
Definición de econometría
 Ciencia social en la cual las herramientas de la
teoría económica, las matemáticas y la inferencia
estadística son aplicadas al análisis de los
fenómenos económicos.

 En econometría nos enfrentamos a datos


observados, los cuales se contraponen a los datos
experimentales. Esta situación exige conocer el
origen y alcance de los datos que se disponen.
Metodología de la econometría
1. Planteamiento de la teoría o de la hipótesis
2. Especificación del modelo matemático de la teoría
3. Especificación del modelo econométrico o estadístico
de la teoría
4. Obtención de datos
5. Estimación de los parámetros del modelo
econométrico
6. Prueba de hipótesis
7. Pronóstico o predicción
8. Utilización del modelo para fines de control o de
política
Definición de Análisis de
Regresión (AR)
 El análisis de regresión trata del estudio de la
dependencia de la variable dependiente, Y,
respecto a una o más variables explicativas, Xs,
con el objetivo de estimar y/o predecir la media o
valor promedio poblacional de Y en términos de los
valores conocidos o fijos (en muestras repetidas)
de las Xs.

 Un AR no implica necesariamente causalidad

 Un AR no es un análisis de correlación
Análisis de regresión para la
estatura de los hijos
Recta de
regresión

El promedio de la
estatura de los hijos
aumenta conforme lo
hace la estatura de los
padres
Datos en econometría
 Series de tiempo. Conjunto de observaciones sobre
los valores que toma una variable en diferentes
momentos del tiempo (diaria, semanal, mensual
trimestral semestral, anual)
 Series de corte transversal. Son datos de una o más
variables recogidos en el mismo momento del tiempo,
tales como el censo de población que realiza el
Instituto Nacional de Estadísticas o una encuesta.
 Información combinada. Estos datos tienen
elementos de series de tiempo y de corte transversal.
Un tipo especial de datos agrupados son los datos de
panel, en la cual una unidad (familia o empresa) es
seguida a través del tiempo
Datos en econometría
 Aunque existe cuantiosa información disponible
para la investigación económica, la calidad de esta
no siempre es buena.
 Causas de mala calidad de la información:
 La mayor cantidad de información es de tipo no
experimental
 Hay errores de medición en las variables
 Se producen sesgos de selectividad cuando no todos
completan la información consultada en una encuesta
 La calidad del estudio econométrico dependerá de
cuan buena sea la calidad de la información
disponible.
Función de regresión poblacional
(FRP)

Función de regresión poblacional
(FRP)
 ¿Qué forma toma la función f ?
 Si la relación es lineal, entonces la FRP toma la forma
𝐸 𝑌Τ𝑋 = 𝛽0 + 𝛽1 𝑋
 Si la relación es cuadrática, entonces la FRP toma la
forma 𝐸 𝑌Τ𝑋 = 𝛽0 + 𝛽1 𝑋 + 𝛽2 𝑋 2
 Los β son los parámetros poblacionales del modelo
 La FRP asume que se dispone de toda la información
de la población
 La FRP establece una relación determinística entre el
valor promedio de Y (condicional a los valores de las
X) y las X.
FRP lineal
Linealidad en parámetros y
variables
 Una FRP es lineal en parámetros si los parámetros
están multiplicados, divididos y elevados a 1.
 Una FRP es lineal en variables si las variables
explicativas están multiplicadas, divididas y
elevadas a 1.
 Por ejemplo, la FRP cuadrática es lineal en
parámetros pero no es lineal en variables
Error poblacional, μ
 Si se plantea la especificación estocástica de la
FRP se debe agregar un término de error
poblacional estocástico, μ, que toma valores
positivos y negativos desconocidos
𝐸 𝑌ൗ𝑋 = 𝑓 𝑋 + 𝜇

 Para la función lineal quedaría especificada como


𝐸 𝑌Τ𝑋 = 𝛽0 + 𝛽1 𝑋 + 𝜇
 El término de error representa la diferencia entre el
valor individual de Y y el valor promedio de Y
condicional a X
Error poblacional, μ
 ¿Qué representa el término de error poblacional?

 Marco conceptual incompleto


 No disponibilidad de información
 Variables medidas con error
 Forma funcional incorrecta
Función de regresión muestral
(FRM)

FRM para dos muestras

Relación entre FRP y FRM

Relación entre FRP y FRM
Mínimos cuadrados ordinarios
(MCO) en una regresión simple

Mínimos cuadrados ordinarios
(MCO) en una regresión simple
Mínimos cuadrados ordinarios
(MCO) en una regresión simple
 Al elevarlo al cuadrado quedaría como
2
𝜇ො2 = 𝑌 − 𝑌෠
 Que al aplicar sumatoria queda como
𝑛 𝑛
2
෢0 − 𝛽
෍ 𝜇ො2 = ෍ 𝑌 − 𝛽 ෢1 𝑋 ෢0 , 𝛽
= 𝑓(𝛽 ෢1 )
𝑖=1 𝑖=1
 Luego, la sumatoria depende de los valores que asume
los beta gorro.
 Usando las reglas del cálculo, se diferencia la sumatoria
respecto de cada beta gorro y se iguala a cero,
generándose, para este caso, dos ecuaciones normales
que contienen dos incógnitas. Luego, se resuelve el
sistema de ecuaciones.
Mínimos cuadrados ordinarios
(MCO) en una regresión simple
 Las ecuaciones normales son
𝑛 𝑛
෢0 + 𝛽
෍ 𝑌 = 𝑛𝛽 ෢1 ෍ 𝑋
𝑖=1 𝑖=1
𝑛 𝑛 𝑛
෢0 ෍ 𝑋 + 𝛽
෍𝑌 ∗ 𝑋 = 𝛽 ෢1 ෍ 𝑋 2
𝑖=1 𝑖=1 𝑖=1

෢1 y 𝛽
 Al despejar 𝛽 ෢0 , tenemos
σ 𝑋 − 𝑋ത 𝑌 − 𝑌ത
෢1 =
𝛽
σ 𝑋 − 𝑋ത 2

σ𝑥 ∗ 𝑦
෢1 =
𝛽
σ 𝑥2
Mínimos cuadrados ordinarios
(MCO) en una regresión simple
σ 𝑋2 σ 𝑌 − σ 𝑋 σ 𝑋 ∗ 𝑌
෢0 =
𝛽
𝑛 σ 𝑋2 − σ 𝑋 2

෢0 = 𝑌ത − 𝛽
𝛽 ෢1 𝑋ത

 Note que la recta de regresión estimada debe


pasar, por construcción, por las medias de las
variables Y y X.
 Los betas gorro son estimables a partir de los
datos de la muestra.
Mínimos cuadrados ordinarios
(MCO) en una regresión simple
 A parte de los beta gorro, MCO estima la varianza de
los errores poblacionales a partir de los errores
muestrales.

 La varianza de los errores poblacionales es


𝑛 2
σ 𝑖=1 𝜇
𝑉 𝜇 = 𝜎2 =
𝑛−2

 La estimación de la varianza de los errores


poblacionales es
σ 𝑛 2
𝑖=1 𝜇Ƹ
𝜎ො 2 =
𝑛−2
Supuestos del modelo clásico de
regresión
 Sup. 1. Modelo de regresión lineal en los parámetros
𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝜇

𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝛽2 𝑋 2

 Sup. 2. Los valores de X son fijos en muestreo


repetido. X se supone no estocástica.

 Sup. 3. El valor medio de la perturbación μ es igual a


cero. 𝐸 𝜇Τ𝑋 = 0
Supuestos del modelo clásico de
regresión
Supuestos del modelo clásico de
regresión
 Sup. 4. Homoscedasticidad o igual varianza de μ.
V( μ / X ) = σ2 = V( Y / X )
Supuestos del modelo clásico de
regresión
 Sup. 5. No existe autocorrelación entre las
perturbaciones. Cov (ui, uj / Xi, Xj) = 0, para todo i≠j

 Sup. 6. La covarianza de u y X es cero. C(u, X) = 0

 Sup. 7. El número de observaciones n debe ser


mayor al número de parámetros a estimas k

 Sup. 8. Variabilidad en los valores de X. No todos los


valorse de X en una muestran dada deben ser
iguales. La V(X) debe ser un número positivo finito.
Supuestos del modelo clásico de
regresión
 Sup. 9. El modelo de regresión esta correctamente
especificado, vale decir, no hay sesgo de
especificación o error en el modelo utilizado en el
trabajo empírico

 Sup. 10. Para modelos de más de una variable


explicativa. No hay multicolinealidad perfecta, es
decir, no hay relaciones perfectamente lineales entre
las variables explicativas
Precisión de los estimadores MCO
 La precisión de los estimadores equivale a la desviación
estándar de los estimadores (beta gorro)
𝜎2
෢1 =
𝑉 𝛽
σ𝑛𝑖=1 𝑋 − 𝑋ത 2

 Pero como usualmente no se dispone de la varianza


poblacional de los errores, se trabaja con la estimación de
la varianza poblacional
𝜎ො 2
෢1 =
𝑉 𝛽
σ𝑛𝑖=1 𝑋 − 𝑋ത 2

 Luego, la desviación estándar de ෢


𝛽1 equivale a
𝜎ො
෢1 =
𝑒𝑒 𝛽
σ𝑛𝑖=1 𝑋 − 𝑋ത 2
Precisión de los estimadores MCO
σ𝑛𝑖=1 𝑋 2
෢0 =
𝑉 𝛽 ∗ 𝜎 2
𝑛 σ𝑛𝑖=1 𝑋 − 𝑋ത 2

 Pero como usualmente no se dispone de la varianza


poblacional de los errores, se trabaja con la estimación de
la varianza poblacional
σ𝑛𝑖=1 𝑋 2
෢0 =
𝑉 𝛽 ∗ 𝜎ො 2
𝑛 σ𝑛𝑖=1 𝑋 − 𝑋ത 2

 Luego, la desviación estándar de ෢


𝛽0 equivale a

σ 𝑋2
෢0 =
𝑒𝑒 𝛽 ∗ 𝜎ො
𝑛 σ 𝑋 − 𝑋ത 2
Propiedades estadísticas de los
estimadores de MCO
 Un estimador es Mejor Estimador Lineal Insesgado,
MELI, si cumple con las siguientes características
 Lineal, es decir, función lineal de una variable
aleatoria, tal como la variable dependiente Y en el
modelo de regresión.

 Insesgado, es decir, su valor esperado o promedio,


መ es igual al verdadero valor, β.
E(𝛽),

 Varianza mínima dentro de la clase de todos los


estimadores lineales e insesgados. Un estimador
insesgado con varianza mínima es conocido como
un estimador Eficiente
Propiedades estadísticas de los
estimadores de MCO
 Teorema de Gauss-Markov.

Dado los supuestos del modelo clásico de regresión


lineal, los estimadores de mínimos cuadrados, dentro
de la clase de estimadores lineales e insesgados,
tienen varianza mínima, es decir, son MELI

 Este teorema sirva para comparar bondades de


estimadores bajo técnicas alternativas o bajo
violación de supuestos del modelo clásico
Bondad del ajuste de una
regresión: R2
 Coeficiente de determinación, R2. Mide cuan bien se
ajusta la regresión a los datos de la muestra.
෠ + 𝜇,
 Sea 𝑌 = 𝑌 ො que al expresarlo en términos de
desviaciones de media, tenemos 𝑦 = 𝑦ො + 𝜇ො

 Elevando al cuadrado ambos lados y aplicando


sumatoria, tenemos Cero, por propiedad
numérica de los MCO
෍ 𝑦 2 = ෍ 𝑦ො 2 + ෍ 𝜇Ƹ 2 + 2 ෍ 𝑦ො ∗ 𝜇Ƹ

෍ 𝑦 2 = ෍ 𝑦ො 2 + ෍ 𝜇Ƹ 2

෢1 2 ෍ 𝑥 2 + ෍ 𝜇Ƹ 2
෍ 𝑦2 = 𝛽
Bondad del ajuste de una
regresión: R2
෢1 2 ෍ 𝑥 2 + ෍ 𝜇Ƹ 2
෍ 𝑦2 = 𝛽

STC = SEC + SRC

STC = Suma total de cuadrados


SEC = Suma explicada de cuadrados
SRC = Suma residual de cuadrados

𝑆𝐸𝐶 𝑆𝑅𝐶
1= +
𝑆𝑇𝐶 𝑆𝑇𝐶

2
σ 𝑌෠ − 𝑌ത σ 𝜇ො 2
1= +
σ 𝑌 − 𝑌ത 2 σ 𝑌 − 𝑌ത 2
Bondad del ajuste de una
regresión: R2
 Se define
2
σ 𝑌෠ − 𝑌ത 𝑆𝐸𝐶
2
𝑅 = =
σ 𝑌 − 𝑌ത 2 𝑆𝑇𝐶
 Alternativamente
σ 𝜇
ො 2
𝑅2 = 1 −
σ 𝑌 − 𝑌ത 2

𝑆𝑅𝐶
𝑅2 = 1−
𝑆𝑇𝐶
 El valor del coeficiente de determinación esta entre 0
y 1.
Bondad del ajuste de una
regresión: R2
 El coeficiente de determinación, R2, mide la
proporción o el porcentaje de la variación total en Y
explicada por el modelo de regresión

 Ejemplo: Si el R2 = 0,7 significa que el 70% de la


variación de la variable Y es explicada por el modelo
de regresión, vale decir, por la variación de la(s)
variable(s) X(s).

 Ojo; el objetivo del que hace econometría no es


maximizar el R2 sino que representar de la mejor
forma posible la FPR a partir de las FRM
Ejercicio 1
Hoja Excel
 Estimación de los betas
 Interpretación de la función de regresión estimada
 Estimación de la varianza de los errores
poblacionales
 Bondad del ajuste
 Precisión de los estimadores
Normalidad de los errores
poblacionales
 Los estimadores de MCO ( 𝛽,
መ ෝ𝜎 2 ) son variables
aleatorias, por lo que necesitamos asignarles una
distribución de probabilidad si queremos realizar
inferencia estadística de los valores poblaciones
de β, y 𝜎 2 .
 Ejemplo, 𝛽 ෢1
σ𝑥 ∗ 𝑦
෢1 =
𝛽
σ 𝑥2

෢1 = ෍ 𝑘 ∗ 𝑦
𝛽

𝑥
Donde 𝑘 = σ 𝑥2

෢1 = ෍ 𝑘 ∗ (𝛽0 + 𝛽1 𝑋 + 𝜇)
𝛽
Normalidad de los errores
poblacionales
 De la expresión anterior se puede advertir que todos
los componentes son fijos a excepción de μ, de lo cual
se desprende que
 El estimador es una variable aleatoria
 La distribución de probabilidad que se asuma de μ
determinará la distribución que asuma el estimador.
 Un supuesto utilizado usualmente es normalidad,
basado en una justificación estadística (Teorema
del límite central)

𝜇 ∼ 𝑁𝐼𝐷 0, 𝜎 2
Normalidad de los errores
poblacionales
 Teorema del límite central
Este teorema plantea que se puede demostrar que
si existe un gran número de variables aleatorias
independientes e idénticamente distribuidas
entonces, con pocas excepciones, la distribución
de su suma tiende a ser normal a medida que el
número de tales variables se incremente
indefinidamente.
 Una variante del Teorema establece que aunque el
número de variables no sea muy grande o si estas
variables no son estrictamente independientes, su
suma puede aun estar normalmente distribuidas.
Propiedades estadísticas de los
estimadores MCO bajo normalidad
 Son insesgados
 Tienen varianza mínima
 Son consistentes, esto es, a medida que el tamaño
de la muestra aumenta indefinidamente, los
estimadores convergen a sus verdaderos valores
poblacionales
2 2 σ𝑛
𝑖=1 𝑋
2
 ෢0 ~𝑁(𝛽0 , 𝜎෢
𝛽 ); ෢0 = 𝛽0 ;
𝐸 𝛽 𝜎𝛽෢ = σ𝑛 ∗ 𝜎2
𝛽0 0 𝑛 𝑖=1 𝑋−𝑋ത 2

 Entonces,
෢0 − 𝛽0
𝛽
𝑧= ~𝑁(0, 1)
𝜎𝛽෢0
Propiedades estadísticas de los
estimadores MCO bajo normalidad
2

𝜎
2
෢1 ~𝑁(𝛽0 , 𝜎෢ ෢1 = 𝛽1 ; 2
 𝛽 𝛽1
); 𝐸 𝛽 𝜎𝛽෢ = σ𝑛 ത 2
1 𝑖=1 𝑋−𝑋

 Entonces,
෢1 −𝛽1
𝛽
𝑧= ~𝑁(0, 1)
𝜎𝛽෢
1
ෝ2
𝜎
 (𝑛 − 2) 2 ~𝑋 2 (𝑛 − 2) antecedente que es útil para
𝜎
realizar inferencia de la varianza de los errores
poblacionales
෢0 , 𝛽
 (𝛽 ෢1 ) se distribuyen de manera independiente
respecto a 𝜎ො 2
Propiedades estadísticas de los
estimadores MCO bajo normalidad
෢0 𝑦 𝛽
 𝛽 ෢1 tienen varianza mínima entre todas las clases
de estimadores insesgados, lineales y no lineales. De
esta forma, los estimadores MCO son los mejores
estimadores insesgados (MEI), es decir tienen
varianza mínima en toda la clase de estimadores
insesgados.

 Nótese que dado el supuesto de normalidad de los


errores poblaciones, μ, entonces 𝑌~𝑁(𝛽0 + 𝛽1 𝑋, 𝜎 2 )
Inferencia estadística en un AR
simple
 Inferencia estadística y testeo de hipótesis es lo
mismo.
 Consiste en identificar ciertas propiedades de los
parámetros poblacionales a partir de la muestra.
 Para realizar un testeo de hipótesis se requiere
 Definir una hipótesis nula (Ho) y una hipótesis
alternativa (H1),
 Definir una probabilidad de cometer un error tipo I (α).
Esto es la probabilidad de rechazar una hipótesis nula
cuando ésta es verdadera. Generalmente, α = 0,05 ó
0,01
 Conocer la distribución del parámetro estimado
Inferencia estadística en un AR
simple
 El testeo de hipótesis se realizar por dos vía
 Intervalos de confianza
 Prueba de significancia

 Un elemento importante a tener presente es que si


se trabaja con muestras no se conocerá la
varianza del error población y sólo se podrá
disponer de la varianza estimada del error
poblacional a partir de los errores estimados.
 Esto lleva a que la variable z normal estándar se
transforma en una t-student que se distribuye con
(n-2) grados de libertad.
Inferencia estadística en un AR
simple
𝛽መ − 𝛽
𝑧= ~𝑁(0,1)
𝜎𝛽෡

𝛽መ − 𝛽
𝑡= ~𝑡𝛼 (𝑛 − 2)
𝜎ො𝛽෡ 2

𝛽መ − 𝛽
𝑡= ~𝑡𝛼 (𝑛 − 2)

𝑒𝑒(𝛽) 2

 Con esta información podemos construir Intervalos


de confianza para los beta poblacionales.
Inferencia estadística en un AR
simple
 Intervalo de confianza para 𝛽1

𝑃𝑟 𝛽መ1 − 𝑡𝛼 (𝑛 − 2) ∗ 𝑒𝑒 𝛽መ1 ≤ 𝛽1 ≤ 𝛽መ1 +𝑡𝛼 (𝑛 − 2) ∗ 𝑒𝑒(𝛽መ1 ) = 1 − 𝛼


2 2

Coeficiente
de confianza

 Intervalo de confianza para 𝛽0

𝑃𝑟 𝛽መ0 − 𝑡𝛼 (𝑛 − 2) ∗ 𝑒𝑒 𝛽መ0 ≤ 𝛽0 ≤ 𝛽መ0 +𝑡𝛼 (𝑛 − 2) ∗ 𝑒𝑒(𝛽መ0 ) = 1 − 𝛼


2 2
Inferencia estadística en un AR
simple
 Intervalo de confianza para la varianza poblacional,
σ2
𝜎ො 2 2
𝜎ො 2
𝑃𝑟 (𝑛 − 2) 2 ≤ 𝜎 ≤ (𝑛 − 2) 2 =1−𝛼
𝑋𝛼 𝑋 𝛼
2 1− 2

 Interpretación de un intervalo de confianza


 La probabilidad que el intervalo contenga el verdadero
parámetro poblacional es de un 100(1-α)% si se
construyen 100 intervalos a partir de 100 muestras
 No dice que la probabilidad de que el parámetro
poblacional se encuentre entre los límites dados por el I
de C sea de un 100(1-α)%
Inferencia estadística en un AR
simple
 Criterio de decisión
Si el I de C contiene la hipótesis nula (H0), entonces no
se rechaza la H0 con un 100 (1-α)% de confianza.

 Prueba de significancia
 Es un procedimiento mediante el cual se utilizan los
resultados muestrales para verificar la verdad o
falsedad de una hipótesis nula
 Se debe construir un estadístico de prueba y
contrastarlo con un estadístico de tabla
Inferencia estadística en un AR
simple
 Testeo de los parámetros beta poblacionales
𝛽መ − 𝛽
𝑡= ~𝑡𝛼 (𝑛 − 2)

𝑒𝑒(𝛽) 2

 Criterio de decisión
Si 𝑡 ≥ 𝑡𝛼 (𝑛 − 2), entonces se rechaza la H0
2
Tabla de distribución t
Inferencia estadística en un AR
simple
Inferencia estadística en un AR
simple
 P-value.
 Es la probabilidad exacta de cometer un error
tipo I.
 Más técnicamente, el valor P esta definido
como el nivel de significancia más bajo al cual
puede rechazarse una hipótesis nula.

 Criterio de decisión
Si el P-value ≤ α, se rechaza la hipótesis nula
Inferencia estadística en un AR
simple
 ¿Los errores son normales?. ¿Cómo lo podemos
determinar?
 De no ser normales, se invalida la inferencia
estadística realizada, ya que la construcción de I de
C y las pruebas de significancia se hizo sobre la base
de normalidad de los errores poblacionales
 Pruebas
 Prueba gráfica. Construir un histograma con los
errores estimados y ver si se parece a una distribución
normal.
 Prueba estadística. Test de Jarque-Bera (JB).
Inferencia estadística en un AR
simple
 El test de JB se construye utilizando los errores
estimados y es un test asintótico, vale decir, esta
construido para muestras grandes (n>100)
 La H0 de la prueba de JB es que hay normalidad en
los errores poblacionales

𝑆2 𝐾−3 2
𝐽𝐵 = 𝑛 + ~𝑋𝛼2 (2)
6 24
 Criterio
Si JB > 𝑋𝛼2 (2), entonces se rechaza H0, vale decir, no
habría evidencia para plantear normalidad de los
errores
Distribución X2
Ejercicio
 Testeo de hipótesis con I de C y prueba de
significancia
 Uso e interpretación de P-value para testear
hipótesis
 Evaluar la validez del testeo de hipótesis
Estimación puntual en un AR
múltiple
𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + 𝜇

 La interpretación de la FRP estocástica es la


misma que en el AR simple.
 Se mantienen los mismos supuestos del modelo
clásico de regresión
 Como ahora hay más de una variable explicativa,
se enfatiza el supuesto de no perfecta colinealidad
de las variables explicativas X1 y X2.
Estimación puntual en un AR
múltiple
 Si existiera perfecta asociación lineal entre las
variables, entonces los parámetros no podrían
estimarse por separado.
 Si 𝑋1 = 3𝑋2 , entonces podríamos reemplazar 𝑋1
𝑌 = 𝛽0 + 𝛽1 (3𝑋2 ) + 𝛽2 𝑋2 + 𝜇
 Que al reordenar, tenemos
𝑌 = 𝛽0 + (3𝛽1 +𝛽2 ) 𝑋2 + 𝜇
𝑌 = 𝛽0 + 𝛼 𝑋2 + 𝜇
 Luego, se podría estimar α, pero no 𝛽1 y 𝛽2
Estimación puntual en un AR
múltiple
Significado de los coeficientes de regresión que
acompañan a las variables explicativas
 Se conocen como los coeficientes de regresión
parcial y miden el cambio del valor de la media de
Y, E(Y), por unidad de cambio en X,
permaneciendo constante el resto de variables
explicativas.
 Es equivalente al concepto de derivada parcial.
 Los parámetros poblacionales se estiman con
MCO, vía la minimización de la suma de los
errores estimados al cuadrado.
Estimación puntual en un AR
múltiple
 Sea la FRM estocástica

𝑌 = 𝛽መ0 + 𝛽መ1 𝑋1 + 𝛽መ2 𝑋2 + 𝜇ො


 Luego,

2
Min σ 𝜇ො 2 = σ 𝑌 − 𝛽መ0 − 𝛽መ1 𝑋1 − 𝛽መ2 𝑋2 = 𝑓 𝛽መ0 , 𝛽መ1 , 𝛽መ2

 Derivando por cada beta gorro e igualando a cero


obtengo tres ecuaciones normales
 Resolviendo el sistema de ecuaciones, se
obtendrán el 𝛽መ0 , 𝛽መ1 y el 𝛽መ2
Estimación puntual en un AR
múltiple
(σ 𝑦𝑥1 )(σ 𝑥22 ) − (σ 𝑦 ∗ 𝑥2 )(σ 𝑥1 𝑥2 )
𝛽መ1 =
(σ 𝑥12 )(σ 𝑥22 ) − (σ 𝑥1 𝑥2 )

(σ 𝑦𝑥2 )(σ 𝑥12 ) − (σ 𝑦 ∗ 𝑥3 )(σ 𝑥1 𝑥2 )


𝛽መ2 =
(σ 𝑥12 )(σ 𝑥22 ) − (σ 𝑥1 𝑥2 )

𝛽መ0 = 𝑌ത − 𝛽መ1 𝑋ത1 − 𝛽መ2 𝑋ത2

 Los estimadores se determinan de la misma forma


que para un AR simple, pero ahora requiere más
cálculos.
Precisión de los estimadores en un
AR múltiple
σ 𝑥22
𝑉 𝛽መ1 = ∗ 𝜎 2
(σ 𝑥12 ) σ 𝑥22 − (σ 𝑥1 𝑥2 ) 2

 O equivalentemente
𝜎2
𝑉 𝛽መ1 =
σ 𝑥12 (1 − 𝑟1,2
2
)
Donde:
2
𝑟1,2 = Coeficiente de determinación de X1 con respecto a X2

 Note la importancia de la relación que se de entre las


variables explicativas para determinar el grado de
precisión del beta 1 gorro.
Precisión de los estimadores en un
AR múltiple
σ 𝑥12
𝑉 𝛽መ2 = ∗ 𝜎 2
(σ 𝑥12 ) σ 𝑥22 − (σ 𝑥1 𝑥2 ) 2

 O equivalentemente
𝜎2
𝑉 𝛽መ2 =
σ 𝑥22 (1 − 𝑟2,1
2
)

 Para el caso de 𝛽መ0

1 𝑋ത12 σ 𝑥22 +𝑋ത22 σ 𝑥12 −2𝑋ത1 𝑋ത2 σ 𝑥1 𝑥2


𝑉 𝛽መ0 = + 2 * 𝜎2
𝑛 (σ 𝑥12 )(σ 𝑥22 )−(σ 𝑥1 𝑥2 )
R2 y R2 ajustado en AR múltiple
 El Coeficiente de determinación se calcula de la
misma forma que en un AR simple y su
interpretación no cambia.
 Si el R2 = 0,9, significa que el 90% de la variación
de la variable Y es explicada por la variación de las
variables del modelo.
 Por otro lado, si agrego variables explicativas a un
modelo de regresión lleva per se a que disminuya
la sumatoria de errores estimados al cuadrado,
aumentando el coeficiente de determinación.
 Para corregir ese problema, se construye el R2
ajustado.
R2 y R2 ajustado en AR múltiple
 Esto es se corrige el R2 por la perdida de grados
de libertad que significa su construcción.

σ 𝜇
ො 2Τ 𝑛 − 𝑘
𝑅ത 2 = 1 −
σ 𝑦2Τ 𝑛 − 1

Donde k es el número de parámetros estimados en el


modelo
 O alternativamente
𝑛−1
𝑅ത 2 = 1 − (1 − 𝑅2 )
𝑛−𝑘
R2 y R2 ajustado en AR múltiple
ത 2 = 0,78, significa que un 78% de la
 Para un 𝑅
variación de la variable Y es explicada por la
variación de las variables explicativas, ajustado a
la pérdida de grados de libertad.

 Al comparar dos modelos con base en el


coeficiente de determinación, ajustado o no, el
tamaño de la muestra, n, y la variable dependiente
deben ser lo mismos; las variables explicativas
pueden tomar cualquier forma.
Inferencia estadística en un AR
múltiple
 Se mantiene el supuesto de normalidad de los
errores poblacionales realizado en el AR simple.
 Como se desconoce la varianza poblacional y solo
es posible tener una estimación de ella, se trabaja
con la distribución t.
 En el caso del AR múltiple es posible realizar un
conjunto de testeo de hipótesis, para lo cual se
utilizará la distribución t-student y la distribución F
de Fischer.
Inferencia estadística en un AR
múltiple
Inferencia de los parámetros individuales
 Se usa la construcción de I de C o la prueba de
significancia del t-student tal como se realizaba
para el AR simple.

Significancia global del modelo

H0: 𝛽1 = 𝛽2 = 0
H1: 𝛽1 ≠ 𝛽2 ≠ 0

 Para testear esta hipótesis se utiliza la prueba F


Inferencia estadística en un AR
múltiple
 Dado el modelo de k parámetros
𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ + 𝛽𝑘 𝑋𝑘 + 𝜇
donde la
H0: 𝛽1 = 𝛽2 = ⋯ = 𝛽𝑘 = 0
H1: 𝛽1 ≠ 𝛽2 ≠ ⋯ ≠ 𝛽𝑘 ≠ 0
 Calcular
𝑆𝐸𝐶/ 𝑘 − 1
𝐹= ~𝐹𝛼 (𝑘 − 1, 𝑛 − 𝑘)
𝑆𝑅𝐶/ 𝑛 − 𝑘

 Regla de decisión
Si 𝐹 > 𝐹𝛼 𝑘 − 1, 𝑛 − 𝑘 , entonces se rechaza la H0.
Luego, el modelo es significativo
Distribución F

k = parámetros estimados = 3

k-1= 2 grados de libertad

n=15 observaciones

n-k = 12 grados de libertad

α=5%
Inferencia estadística en un AR
múltiple
 La prueba F puede construirse a partir del
coeficiente de determinación.

𝑅2 Τ 𝑘 − 1
𝐹= 2 ~𝐹𝛼 𝑘 − 1, 𝑛 − 𝑘
1−𝑅 Τ 𝑛−𝑘

 Regla de decisión

Si 𝐹 > 𝐹𝛼 𝑘 − 1, 𝑛 − 𝑘 , entonces se rechaza la H0.


Luego, el modelo es significativo
Inferencia estadística en un AR
múltiple
Otros testeos en un AR múltiple
𝑆𝑅𝐶𝑅 − 𝑆𝑅𝐶𝑁𝑅 Τ𝑚
𝐹= ~𝐹𝛼 (𝑚, 𝑛 − 𝑘)
Τ
𝑆𝑅𝐶𝑁𝑅 𝑛 − 𝑘
 O
2
𝑅𝑁𝑅 − 𝑅𝑅2 Τ𝑚
𝐹= 2 Τ ~𝐹𝛼 (𝑚, 𝑛 − 𝑘)
1 − 𝑅𝑁𝑅 𝑛 − 𝑘

R: Asociado al modelo restringido


NR: Asociado al modelo no restringido
m = número de restricciones lineales (representado por el
numero de igualdades en la hipótesis nula)
Inferencia estadística en un AR
múltiple
 Regla de decisión
Si 𝐹 > 𝐹𝛼 𝑚, 𝑛 − 𝑘 , se rechaza H0, de lo contrario no
se rechaza

 Ambas opciones son aplicables indistintamente,


siempre y cuando la variable explicada tanto en el
modelo restringido como no restringido sea la
misma.
Inferencia estadística en un AR
múltiple
 Las prueba anterior es útil para un conjunto de
hipótesis a testar en AR múltiple:

 Significancia global del modelo


 Igualdad de parámetros
 Restricciones lineales de parámetros
 Evaluación del aporte marginal de una o mas
variables al modelo
Inferencia estadística en un AR
múltiple
Caso de igualdad de parámetros
 Sea el siguiente modelo 𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + 𝜇
 Dicho modelo no esta restringido, y genera una SRCNR
y un R2NR
 Se desea testear la siguiente hipótesis

H0: 𝛽1 = 𝛽2
H1: 𝛽1 ≠ 𝛽2
 El modelo restringido sería el siguiente
𝑌 = 𝛽0 + 𝛽2 (𝑋1 + 𝑋2 ) + 𝜇
𝑌 = 𝛽0 + 𝛽2 𝑍 + 𝜇
 El cual genera una SRCR y un R2R
Inferencia estadística en un AR
múltiple
 Construir F, donde m = 1
Regla de decisión
 Si 𝐹 > 𝐹𝛼 𝑚, 𝑛 − 𝑘 , se rechaza H0, de lo contrario
no se rechaza
Inferencia estadística en un AR
múltiple
Restricciones lineales de parámetros
 Sea el siguiente modelo 𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + 𝜇
 Dicho modelo no esta restringido, y genera una
SRCNR y un R2NR
 Se desea testear la siguiente hipótesis

H0: 𝛽1 + 𝛽2 = 1
H1: 𝛽1 + 𝛽2 ≠ 1

 El modelo restringido sería el siguiente


𝑌 = 𝛽0 + (1 − 𝛽2 )𝑋1 + 𝛽2 𝑋2 + 𝜇
Inferencia estadística en un AR
múltiple
𝑌 = 𝛽0 + (1 − 𝛽2 )𝑋1 + 𝛽2 𝑋2 +𝜇

𝑌 = 𝛽0 + 𝑋1 −𝛽2 𝑋1 + 𝛽2 𝑋2 +𝜇

𝑌 − 𝑋1 = 𝛽0 + 𝛽2 (𝑋2 −𝑋1 ) + 𝜇

h* = 𝛽0 + 𝛽2 𝑧 + 𝜇

 El cual genera una SRCR y un R2R


 Construir F, donde m = 1
Regla de decisión
 Si 𝐹 > 𝐹𝛼 𝑚, 𝑛 − 𝑘 , se rechaza H0, de lo contrario
no se rechaza
Inferencia estadística en un AR
múltiple
Evaluación del aporte marginal de una o mas
variables al modelo
 Sea el siguiente modelo 𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + 𝜇
 Dicho modelo no esta restringido, y genera una
SRCNR y un R2NR
 Se desea testear la siguiente hipótesis

H0: 𝛽2 = 0
H1: 𝛽2 ≠ 0
 El modelo restringido sería el siguiente
𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝜇
Inferencia estadística en un AR
múltiple
 El cual genera una SRCR y un R2R
 Construir F, donde m = 1

Regla de decisión
 Si 𝐹 > 𝐹𝛼 𝑚, 𝑛 − 𝑘 , se rechaza H0, de lo contrario
no se rechaza
Modelos log-log
 Sea la siguiente relación no lineal
𝛽 𝛽
𝑌 = 𝛽0 𝑋1 1 𝑋2 2 ℮𝜇

 Al aplicar log natural a ambos lados, tenemos

𝑙𝑛𝑌 = 𝐿𝑛𝛽0 + 𝛽1 𝐿𝑛 𝑋1 + 𝛽2 𝐿𝑛𝑋2 + 𝜇

 Este es un modelo econométrico Log-Log, que es


lineal en parámetros y no lineal a nivel de las
variables
 Esta formulación ofrece las ventaja de poder
interpretar a los parámetros de las variables
explicativas como elasticidades
Gretl: Gnu Regression, Econometrics
and Time-series
Tema Link
http://www.eco.uc3m.es/~cavelas/EI/Guia%20rapida%20de%20gretl.pdf
Guía general del Software
https://www.youtube.com/watch?v=AYzFSy49jDU
Crear datos en GRETL
https://www.youtube.com/watch?v=dxqiJTWi7-k
Importar datos en GRETL
https://www.youtube.com/watch?v=VHYGMYPFws8
Usando el software
Ejercicio
Variables cualitativas en un
modelo de regresión
 Así como hemos incorporado variables cuantitativas
para explicar el valor promedio poblacional de la
variable Y, es posible incorporar también variables
cualitativas
 Estas variables tienen varios nombres: variables
dummy, variables dicotómicas, variables binarias.
 Ayudan a mejorar el poder explicativo de un modelo de
regresión
 Las variables cualitativas miden la presencia o
ausencia de un atributo
 Una variable cualitativa puede tener c categorías, esto
es, el atributo buscado puede expresarse en c estados
posibles
Variables cualitativas en un
modelo de regresión
 Ejemplos:
 La variable cualitativa sexo tiene dos categorías, o dos
estados posible (c=2): hombre o mujer
 La variable cualitativa de localización podría tener 3
categorías o tres estados posibles (c=3): norte, centro, sur
 La variable cualitativa experiencia laboral podría tener cuatro
categorías o estados posibles (c=4): sin experiencia, baja
experiencia, mediana experiencia, mucha experiencia.
 La variable cualitativa trimestral tiene cuatro categorías o
estados posibles (c=4): primer trimestre, segundo trimestre,
tercer trimestre y cuarto trimestre
 En algunos casos es muy clara el número de
categorías y en otros es discrecional del
investigador
Variables cualitativas en un
modelo de regresión
 Si una regresión tiene intercepto (beta cero),
entonces debo incorporar al modelo c-1 variables
dicotómicas por cada atributo de interés
 No hacerlo así generaría perfecta colinealidad de
las variables cualitativas impidiendo utilizar MCO
En tanto, si la regresión no incorpora intercepto se
podrían incorporar al modelo c variables
dicotómicas por cada atributo de interés.
 Las variables cualitativas se pueden incorporar a
un modelo de regresión de manera aditiva o
multiplicativa.
Variables cualitativas en un
modelo de regresión
𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝛽2 𝐷1 + 𝛽3 𝐷1 𝑋 + 𝜇

Y= ventas Aditiva Multiplicativa


X= gastos de publicidad
Atributo de interés: asesoría a la gerencia de un experto en
marketing.
En este caso esta variable puede asumir dos categorías o
estados posibles: la empresa recibió asesoría o la empresas
no recibió asesoría.
Luego dado que hay intercepto, debo agregar una variable
dicotómica.
D1 = 1 si recibe asesoría, 0 si no recibe asesoría
Variables cualitativas en un
modelo de regresión
 Las ventas promedio de la población con la presencia
del atributo, vale decir con asesoría del experto sería
𝑌 = 𝛽0 + 𝛽2 + 𝛽1 + 𝛽3 𝑋 + 𝜇

 En tanto, las ventas promedio de la población sin la


presencia del atributo, vale decir, sin asesoría del
experto sería
𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝜇

 ¿Cómo evaluar empíricamente si hay diferencias o no


con la presencia del atributo?.
 Respuesta. Usando las pruebas t para medir
significancia estadística de los parámetros
Variables cualitativas en un
modelo de regresión
 Incorporando otra variable cualitativa al modelo

𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝛽2 𝐷1 + 𝛽3 𝐷1 𝑋 + 𝛽4 𝐷2 + 𝛽5 𝐷1 𝐷2 + 𝜇

 El otro atributo que deseo incorporar es el de


localización. Esto es, me interesa saber si el lugar
donde se encuentre la tienda de la empresa hace
diferencias en las ventas promedio.
 Luego si defino dos estados posible de la variable
localización: centro y sur debo incorporar una
variable dicotómica representada por la variable D2
 D2 = 1 si esta localizada en el centro, 0 si esta
localizada en el sur
Variables cualitativas en un
modelo de regresión
 Dado que tengo dos atributos de interés en el
modelo, puedo analizar el efecto de interacción de
variables dicotómicas, lo cual se captura por el
parámetro 𝛽5
 Luego, las ventas promedio sin la asesoría del
consultor de marketing (D1=0) y localizado en el sur
(D2 = 0) sería
𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝜇

 Las ventas promedio con asesoría y localizada en


el centro del país sería.
𝑌 = 𝛽0 + 𝛽2 + 𝛽4 + 𝛽5 + 𝛽1 + 𝛽3 𝑋 + 𝜇
Variables cualitativas en un
modelo de regresión
 Evaluación de cambio estructural con variables
dicotómicas
𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝛽2 𝐷1 + 𝛽3 𝐷1 𝑋 + 𝜇

Donde:
Y = consumo
X = ingreso
D1= 0 para observaciones entre 1990 y 1998
1 para observaciones después de 1999
Variables cualitativas en un
modelo de regresión
Tiempo Y X D1  Con esta información se desea
1990 10 2 0 testear si hay evidencia de cambio
1991 20 3 0
estructural en 1999 en la función
1992 30 4 0
1993 45 5 0 de consumo poblacional.
1994 65 8 0
1995 70 9 0
 De esta forma permite evaluar si
1996 85 10 0 hay cambio estructural y poder
1997 90 12 0
1998 100 14 0
identificar si se da a nivel de la
1999 120 15 1 pendiente, del intercepto o de
2000 122 26 1 ambos.
2001 138 30 1
2002 147 45 1  Esto se realiza analizando los t-
2003 155 60 1
2004 160 65 1
student. (o los p-value).
2005 180 75 1
2006 200 80 1
Variables cualitativas en un
modelo de regresión
𝑌෠ = 𝛽መ0 + 𝛽መ1 𝑋 + 𝛽መ2 𝐷1 + 𝛽መ3 𝐷1 𝑋

 Hay que ver la significancia estadística de los


parámetros
 Si 𝛽2 es significativo habría evidencia estadística
que hay cambio del intercepto
 Si 𝛽3 es significativo habría evidencia estadística
que hay cambio en la pendiente del modelo
 Por ende si dichos parámetros no son
significativos, entonces no hay evidencia de
cambio estructural a partir del año 1999 en la serie
de datos.
Variables cualitativas en un
modelo de regresión
Variables cualitativas en un
modelo de regresión
𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝛽2 𝑋 − 𝑋 ∗ 𝐷1 + 𝜇

Donde
𝑌 = Comisión de ventas
𝑋 = Volumen de ventas generado por de la persona que
vende
𝑋 ∗ = Valor del umbral de las ventas
𝐷1 = 1 si 𝑋 > 𝑋 ∗ , 0 si 𝑋 < 𝑋 ∗

 Si no cumple con la meta las comisiones promedio sería


igual a
𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝜇
Variables cualitativas en un
modelo de regresión
 Si cumple la meta, las comisiones promedio serian

𝑌 = (𝛽0 −𝛽2 𝑋 ∗ ) + (𝛽1 + 𝛽2 )𝑋 + 𝜇

 Para evaluar esto empíricamente hay que


determinar la significancia estadística del
parámetro 𝛽2
Variables cualitativas en un
modelo de regresión
Interpretación de una variable dicotómica en
una regresión semilogarítmica

𝐿𝑛𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝛽2 𝐷1 + 𝜇

Donde
Y = Salario
X = Años de estudios
D1= 1 si es hombre, 0 si es mejer

 ¿Cómo debemos interpretar los parámetros?


Variables cualitativas en un
modelo de regresión
 𝛽0 representa el logaritmo del salario promedio base
de una mujer
 𝛽1 representa el cambio en la tasa de crecimiento de
los salarios medios asociado al cambio en un año de
estudios. Ojo que 𝛽1 no representa una elasticidad
 Que representa 𝛽2 ?
 Si aplicamos el siguiente procedimiento
(𝑎𝑛𝑡𝑖𝑙𝑛 𝛽መ2 − 1) × 100
 El resultado se puede interpretar como la variación
porcentual que existiría entre la mediana del salario
de un hombre respecto al de una mujer
Tipos de modelos
Violación de los supuestos del
modelo de regresión clásico
 Los principales supuestos a revisar son

 No hay perfecta colinealidad de las variables


explicativas
 No existe correlación entre los términos de error
 La varianza de los errores poblacionales es
constante
 No hay sesgo de especificación de la función
de regresión
Violación de los supuestos del
modelo de regresión clásico
 Si hay alguna evidencia de violación de alguno de
los supuestos indicados hay que analizar el
estimador MCO en términos de si se altera las
propiedades de:

 Insesgamiento: 𝐸 𝛽መ = 𝛽

 Varianza mínima: Menor varianza de los 𝛽መ entre


técnicas alternativas a MCO

 De darse ambas propiedades, entonces los


estimadores MCO son eficientes
Multicolinealidad
Significado.
 Presencia de vinculación estadística entre las
variables explicativas, esto es, las variables
explicativas de un modelo de regresión están
conectadas entre ellas desde un punto de vista
estadístico
Causas
 Mala especificación del modelo
 Restricciones en el modelo o en la población
objeto de muestreo
 Uso de series de tiempo
Multicolinealidad
Efectos en la estimación
 Siguen siendo MELI
 Los estimadores de los parámetros poblaciones
son imprecisos dado que sus desviaciones
estándar son grandes ¿por qué?
 R2 altos y t bajos
 Intervalos de confianzas mas amplios
 Parámetros no significativos
 Sensibilidad de ee(𝛽መ ) a pequeños cambios en el
tamaño de la muestra
Multicolinealidad
Detección
 R2 altos y t bajos
 Correlaciones parciales altas entre variables
explicativas (ver matriz de correlaciones)
 R2 de regresiones auxiliares altas, por sobre al R2
de la regresión original
 Factor de Inflación de Varianza (FIV) por sobre el
valor de 10 es indicio de una fuerte colinealidad de
dicha variable en el modelo
Problema de multicolinealidad
Multicolinealidad
Corrección
 No hacer nada podría ser una opción razonable
 Realizar ligeros cambios en la muestra de datos
 Analizar la especificación del modelo.
 Sacar una variable colineal podría resolver el problema cuando
partimos con un modelo mal especificado
 Sin embargo, sacar la variable colineal, podría generar sesgo de
especificación y el modelo estaba bien especificado
 Transformar las variables (primeras diferencias, por ej.)
 Usar información a priori (B1 = 0,1 B2)
 Combinar información de corte transversal y series de
tiempo
Heteroscedasticidad
Significado
 La varianza de los errores poblacionales
condicional a las variables explicativas no es
constante.

Causas
 Modelos de aprendizajes sobre errores
 Errores de especificación del modelo econométrico
 Manejo de información de corte transversal
Heteroscedasticidad
Efectos en la estimación
 Si el modelo 𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝜇 tiene una 𝑉 𝑢𝑖 = 𝜎𝑖2
 Entonces, su varianza será diferente a si la varianza
fuera constante
Modelo homoscedastico Modelo heteroscedástico
(1) (2)
𝜎ො 2 σ 𝑥𝑖2 𝜎𝑖2
෢1 =
𝑉 𝛽 𝑉𝑎𝑟 𝛽መ1 =
σ 𝑥2 σ 𝑥𝑖 2 2

 La varianza (1) es sesgada respecto a la que


debiese ser considerada que es la varianza (2).
Heteroscedasticidad
 Dicha varianza ya no es mínima y los estimadores
MCO dejan de ser eficiente. Por lo que ya no
serían MELI.
 Las estimaciones habituales de las SD de los
parámetros β, hechas a partir de MCO, están
sesgadas y son además inconsistentes.
 Se debe buscar alguna técnica de estimación que
genere estimadores MELI. ¿Cuál es esa técnica
de estimación?
 Respuesta: Mínimos Cuadrados Generalizados
Heteroscedasticidad
Entendiendo el procedimiento de Mínimos
Cuadrados Generalizados
 Sea el siguiente modelo 𝑌 = 𝛽0 + 𝛽1 𝑋 + 𝜇
𝑌𝑖 = 𝛽0 𝑋0𝑖 + 𝛽1 𝑋1𝑖 + 𝑢𝑖

 Donde 𝑋0𝑖 = 1 para cada i


 Si las varianzas son conocidas e iguales a σ2i ,
entonces podemos realizar lo siguiente
𝑌𝑖 𝑋0𝑖 𝑋1𝑖 𝑢𝑖
= 𝛽0 + 𝛽1 +
𝜎𝑖 𝜎𝑖 𝜎𝑖 𝜎𝑖
Heteroscedasticidad
𝑌𝑖∗ = 𝛽0∗ 𝑋0𝑖
∗ ∗
+ 𝛽1∗ 𝑋1𝑖 + 𝜇𝑖∗

 Nótese que con esta transformación tenemos


2
∗ ∗ 2 𝜇𝑖
𝑉𝑎𝑟 𝜇𝑖 = 𝐸(𝜇𝑖 ) = 𝐸
𝜎𝑖
1
𝑉𝑎𝑟 𝜇𝑖∗ = 2 𝐸(𝜇𝑖2 )
𝜎𝑖
1
𝑉𝑎𝑟 𝜇𝑖∗ = 2 (𝜎𝑖2 )
𝜎𝑖
𝑉𝑎𝑟 𝜇𝑖∗ = 1
Heteroscedasticidad
 Luego, al transformar las variables se obtiene un
modelo homoscedástico
 De esta forma, MCG no es otra cosa que MCO
sobre las variables transformadas que satisfacen
los supuestos estándar de MCO.
 Los estimadores así obtenidos se conocen como
estimadores MCG, los cuales son MELI.
 Note que 𝑉𝑎𝑟 𝛽መ1𝑀𝐶𝐺

≤ 𝑉𝑎𝑟(𝛽መ1 𝑀𝐶𝑂 ) , lo cual significa
que si se usa la varianza que considera la
heteroscedasticidad con MCO los I de C serían
demasiado amplios,
Heteroscedasticidad
Detección
 Analizar la naturaleza del modelo a estimar
 Análisis gráfico de los errores estimados al
cuadrado y las Y estimadas o alguna variable X
para apreciar algún patrón de comportamiento.
 Métodos formales.

 Prueba de Breusch-Pagan-Godfrey
 Prueba general de heteroscedasticidad de White
Heteroscedasticidad
Prueba de Breusch-Pagan-Godfrey
 Considere el modelo de regresión con k variables
𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ + 𝛽𝑘 𝑋𝑘 + 𝜇 (1)
 Si la varianza del error poblacional se describe
como
𝜎𝑖2 = 𝑓 𝛼0 + 𝛼1 𝑍1 + 𝛼2 𝑍2 + ⋯ + 𝛼𝑚 𝑍𝑚

 Algunas de las X o todas ellas pueden servir como


Z. Específicamente, supóngase que
𝜎𝑖2 = 𝛼0 + 𝛼1 𝑍1 + 𝛼2 𝑍2 + ⋯ + 𝛼𝑚 𝑍𝑚

 Es decir 𝜎𝑖2 es una función lineal de las Z


Heteroscedasticidad
 La hipótesis nula de la prueba es que no hay
heteroscedasticidad, vale decir,
𝛼1 = 𝛼2 = 𝛼3 = ⋯ = 𝛼𝑚 = 0
 El procedimiento de la prueba es
 Paso 1. Estimar (1) con MCO y obtener los u gorro
 Paso 2. Construir 𝜎ො 2 = σ 𝜇ො 2 Τ𝑛
 Paso 3. Construir la variable 𝑃𝑖 = 𝜇ො 2 Τ𝜎ො 2
 Paso 4. Estime la siguiente regresión
𝑃𝑖 = 𝛼0 + 𝛼1 𝑍1 + 𝛼2 𝑍2 + ⋯ + 𝛼𝑚 𝑍𝑚 + 𝜀 (2)
 Paso 5. Obtener SEC de (2) y defina
1
𝜃 = 𝑆𝐸𝐶 ~𝑋𝛼2 (𝑚 − 1)
2
Heteroscedasticidad
Criterio de decisión
 Si 𝜃 > 𝑋𝛼2 (𝑚 − 1), se rechaza la hipótesis nula, vale
decir, no puedo descartar la presencia de
heteroscedasticidad.

 Esta prueba es sensible al supuesto de


normalidad
 Es un test asintótico, esto es, para muestras
grandes (n>100 datos)
Heteroscedasticidad
Prueba general de heteroscedasticidad de White
 Esta es una prueba que no se apoya en el
supuesto de normalidad
 Sea el siguiente modelo

𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1𝑖 + 𝛽2 𝑋2𝑖 + 𝜇𝑖 (1)


Etapas
 Paso 1. Estimar (1) con MCO y obtener los errores
estimados
 Paso 2. Efectuar la siguiente regresión auxiliar y
obtenga su R2
2 2
𝜇ො 2 = 𝛼0 + 𝛼1 𝑋1𝑖 + 𝛼2 𝑋2𝑖 + 𝛼3 𝑋1𝑖 + 𝛼4 𝑋2𝑖 + 𝛼5 𝑋1𝑖 𝑋2𝑖 + 𝜀𝑡
Heteroscedasticidad
 Paso 3. Bajo la hipótesis nula de que no hay
heteroscedasticidad (H0: 𝛼1 = 𝛼2 = 𝛼3 = 𝛼4 = 𝛼5 = 0 ),
se construye el siguiente estadístico.

𝑛𝑅2 ~𝑋𝛼2 (𝑛º 𝑑𝑒 𝑟𝑒𝑔𝑟𝑒𝑠𝑜𝑟𝑎𝑠 𝑒𝑛 𝑙𝑎 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝑎𝑢𝑥𝑖𝑙𝑖𝑎𝑟)

 Paso 4. Si 𝑛𝑅 2 > 𝑋𝛼2 , se rechaza la hipótesis nula, luego


hay evidencia de heteroscedasticidad.

Ojo.
 La prueba de White puede ser usada además como
mecanismo para detectar sesgo de especificación
 Es un test asintótico
Heteroscedasticidad
Corrección
 Si se conoce el patrón de heterocedasticidad usar
MCG (que es MICO en variables originales
transformadas)
 Si no se conoce el patrón de heterocedasticidad,
 Asumir algún patrón y ajustar la regresión para aplicar
MCG
 Ajustar la matriz de Var-Cov con las estimadores
robustos de White (con muestras grandes). Ojo que los
errores estándar pueden ser mayores o menores que
los sin corregir.
 Linealizar las variables del modelo, aplicando log a las
variables
Autocorrelación
Significado
 Correlación entre términos de error poblacional en
una regresión

Causas
 Inercia en series de tiempo
 Sesgo de especificación (variable relevantes no
incluidas y/o forma funcional incorrecta)
 Variables explicativas rezagadas
 Manipulación de datos (construcción de primeras
diferencias)
Autocorrelación
Efectos en la estimación
 Los estimadores dejan de ser MELI ya que ya no
son de varianza mínima
 La varianza de los errores poblacionales estimada
es sesgada
 Es probable que se sobrestime el R2
 Las pruebas de t y F dejan de ser válidas
Autocorrelación
 Sea el siguiente modelo econométrico
𝑌𝑡 = 𝛽0 + 𝛽1 𝑋𝑡 + 𝜇𝑡

 Donde se da el siguiente proceso de


autocorrelación
𝜇𝑡 = 𝜌𝜇𝑡−1 + 𝜀𝑡

 Siendo 𝜌 el coeficiente de autocovarianza el cual


toma valores entre -1 y 1. y 𝜀𝑡 es un error ruido
blanco
 Este proceso de autocorrelación se conoce como
un proceso autoregresivo de primer orden (AR(1)).
Autocorrelación
 De darse este proceso en los u, entonces
𝜎𝜀2
𝑉 𝜇𝑡 = 𝐸 𝜇𝑡2 =
1 − 𝜌2
𝜎 2
𝜀
𝑐𝑜𝑣 𝜇𝑡 , 𝜇𝑡+𝑠 = 𝐸 𝜇𝑡 , 𝜇𝑡+𝑠 = 𝜌𝑠
1 − 𝜌2

𝒄𝒐𝒓 𝝁𝒕, 𝝁𝒕+𝒔 = 𝝆𝒔

 Luego, se violaría el supuesto de que los u no


tienen ninguna relación lineal, ya que la
correlación es distinta de cero (𝝆𝒔 ).
Autocorrelación
Modelo sin Modelo con autocorrelación AR (1)
autocorrelación

𝜎ො 2 𝜎2 σ 𝑥𝑡 𝑥𝑡−1 σ 𝑥𝑡 𝑥𝑡−2 𝑥 𝑥
𝑛−1 1 𝑛
෢1 =
𝑉 𝛽 𝑉𝑎𝑟 𝛽መ1 = 1 + 2𝜌 + 2𝜌 2
+ ⋯ … + 2𝜌
σ 𝑥2 𝐴𝑅(1) σ 𝑥2 σ 𝑥𝑡2 σ 𝑥𝑡2 σ 𝑥𝑡2

 No podemos pronunciarnos sobre cual de las dos


varianzas es más grande.
 Incluso si computamos (1) esta no es mínima.
 Un estimador que asegura que la varianza sea mínima
en presencia de autocorrelaciòn es la técnica de
Mínimos Cuadrados Generalizados (MCG)
 Dichos estimadores van a ser MELI
Autocorrelación
 Para el modelo 𝑌𝑡 = 𝛽0 + 𝛽1 𝑋𝑡 + 𝜇𝑡 que sigue un patrón
de autocorrelación del tipo AR(1) 𝜇𝑡 = 𝜌𝜇𝑡−1 + 𝜀𝑡
 El estimador MCG que sería MELI sería
σ𝑛𝑡=2 𝑥𝑡 − 𝜌𝑥𝑡−1 𝑦𝑡 − 𝜌𝑦𝑡−1
𝛽መ1𝑀𝐶𝐺 = 𝑛 +𝐶
σ𝑡=2 𝑥𝑡 − 𝜌𝑥𝑡−1

 Y su varianza esta determinada por


𝜎2
𝑉𝑎𝑟 𝛽መ1𝑀𝐶𝐺 = +𝐷
σ𝑛𝑡=2 𝑥𝑡 − 𝜌𝑥𝑡−1

 Nótese que el estimador MCG incorpora el


componente de autocorrelación 𝜌 en el estimador y en
la varianza
Autocorrelación
Detección
 Analizar la naturaleza del modelo a estimar
 Graficar los errores estimados contra sus valores
previos (ut contra los ut-1) o contra el tiempo
 Chequear que no sea un problema de
especificación del modelos a estimar
 Test formales
 Test de Durbin-Watson (dw)
 Test de Breusch-Golfrey (asintótico, vale decir, de
grandes muestras)
Autocorrelación
Test de Durbin-Watson (dw)
σ𝑛𝑖=2 𝜇ො𝑖 − 𝜇ො𝑖−1 2
𝑑𝑤 =
σ𝑛𝑖=2 𝜇ො𝑖2
Supuestos del test
 El modelo de regresión incluye el intercepto
 Las variables explicativas son no estocásticas, es decir,
son fijas en muestreo repetido
 La autocorrelación sigue un patrón AR(1)
 El término de error sigue una distribución normal
 El modelo de regresión no incluye valor(es) rezagado(s) de
la variable dependiente como una de las variables
explicativas
Autocorrelación
 Desarrollando el dw, tenemos
σ 𝜇ො𝑖2 + σ 𝜇ො𝑖−1
2
− 2 σ 𝜇ො𝑖 𝜇ො𝑖−1
𝑑𝑤 =
σ 𝜇ො𝑖2
 Puesto que σ 𝜇ො𝑖2 y σ 𝜇ො𝑖−1
2
difieren en una observación
se puede suponer que aproximadamente iguales
σ 𝜇ො𝑖 𝜇ො𝑖−1
𝑑𝑤 ≈ 2 1 −
σ 𝜇ො𝑖2
σ𝜇
ෝ𝑖𝜇
ෝ 𝑖−1
 Si 𝜌ො = σ𝜇ෝ 𝑖2
, tenemos
𝑑𝑤 ≈ 2 1 − 𝜌ො
Autocorrelación
 Puesto que -1< 𝜌 <1, entonces 0 < dw < 4
 Si no hay autocorrelación de primer orden, vale
decir, si 𝜌 = 0, entonces el dw = 2
 Si 𝜌 = -1, (correlación negativa perfecta) entonces
dw = 4
 Si 𝜌 = +1, (correlación positiva perfecta) entonces
dw = 0
Autocorrelación
Etapas de la prueba de Durbin y Watson

 Efectuar la regresión MCO y obtener los errores


estimados
 Calcular dw
 Para un tamaño de la muestra y un número de
variables explicativas encontrar los valores críticos
dL y dU de la tabla de Durbin y Watson
 Seguir las reglas de decisión de la siguiente
figura y tabla
Autocorrelación
Autocorrelación
Corrección
 Para muestras grandes se puede usar el método de
Newey-West para obtener las SD de los MICO que
están corregidos por autocorrelación
 Cuando ρ es conocido se aplica MCG
 Cuando ρ no es conocido
 Estimarlo a través de dw,
 Procedimiento iterativo de Cochrane-Orcutt,
 El procedimiento de dos etapas de Cochrane-Orcut, para
luego aplicar MCG (prueba válida en muestras grandes)
 Estimar un modelo de primeras diferencias en modelos
de series de tiempo

You might also like