You are on page 1of 29

Clase 2

Fundamentos del análisis econométrico

Leonardo F. Sánchez Aragón

September 27, 2017


1. Introducción
2. Modelo de regresion bivariado o simple
I Mı́nimos Cuadrados Ordinarios (MCO) es una técnica usada
para estimar un modelo estadı́stico, el cual muestra la relación
entre una variable dependiente y otra independiente.
I MCO nos permite estimar/cuantificar el grado en que las
variables independiente X y dependiente Y se mueven juntas.
I El modelo estadı́stico es:

Yi = β0 + β1 Xi + ui

I β0 es el valor esperado para Y cuando X es 0.


I β1 es el cambio esperado de Y cuando cambia X.
I ui es el término de error.
I ¿Cómo serı́a el modelo estadı́stico para el ejemplo de
elecciones?
2.1 Modelo bivariado

I Para un conjunto de datos dado, MCO produce las


estimaciones de los parámetros β0 y β1 que mejor explican los
datos.
I β̂0 y β̂1 son el intercepto y la pendiente de la lı́nea. Estas son
estimaciones que se realizan a partir de los datos. Estos
valores distan de los valores verdaderos de β0 y β1
I El valor estimado Ŷ es el valor que esperamos de Y dado el
valor de la variable X. Se calcula como Ŷi = β̂0 + β̂1 Xi , la
cual se conoce como la lı́nea estimada.
I El residuo û mide la distancia entre el valor estimado y el
valor real de Y . Es decir, ûi = Yi − Ŷi = Yi − β̂0 + β̂1 Xi .
2.2 Estimación: MCO en acción
2.2 Estimación: MCO en acción
2.3 Derivación de los estimadores MCO

β̂0 y β̂1 son las estimaciones que minimizan la distancia agregada


entre la lı́nea estimada y los datos.
n
X
min Q = (Yi − βˆ0 − βˆ1 Xi )2
β̂0 ,β̂1 i=1

Las condiciones de primer orden;


n
∂Q X
= (Yi − βˆ0 − βˆ1 Xi ) = 0
∂ βˆ0 i=1
n
∂Q X
= (Yi − βˆ0 − βˆ1 Xi )Xi = 0
∂ βˆ1 i=1
2.3 Derivación de los estimadores MCO

Los estimadores MCO de la pendiente β1 y el intercepto β0 , son

βˆ0 = Ȳ − βˆ1 X̄
Pn
i=1 (Yi − Ȳ )(Xi − X̄ )
βˆ1 = Pn 2
i=1 (Xi − X̄ )
2.4 Ejemplo: Rendimiento academicao vs Ratio
alumno/profesor
2.5 Ejemplo: Elecciones vs crecimiento del ingreso
3. Suma de cuadrados
I La Suma Total al Cuadrado (STC) mide el tamaño de las
fluctuaciones experimentadas por la variable Y alrededor de
su valor medio Ȳ ,
X n
(Yi − Ȳ )2
i=1
I La Suma Explicada al Cuadrado (SEC) mide el tamaño de las
fluctuaciones experimentadas por la variable Ŷ alrededor de
su valor medio Ȳ ,
X n
(Ŷi − Ȳ )2
i=1
I La Suma Residual al Cuadrado (SRC) mide el error del
modelo en su intento de explicar la evolución de la variable Y ,
X n
ûi2
i=1
4. Medidas de Ajuste

Una vez estimada la linea de regresión, es posible preguntarse en


qué medida esta regresión lineal describe correctamente los datos.
I Recoge el regresor mucha o poca proporción de la variación de
la variable dependiente?
I Estn las observaciones muy agrupadas alrededor de la lı́nea de
regresión o se encuentran dispersas?
I El R 2 y el error estandar de la regresion miden la bondad del
ajuste de la lı́nea de regresion muestral MCO a los datos.
4.1 El R 2 de la regresión
I El R 2 mide qué porcentaje de la variación de Y es explicada
por la variación de X , y se calcula como,
SEC
R2 =
STC
I Otra notación para el cálculo de R 2 es
SRC
R2 = 1 −
STC
I El R 2 no tiene unidad, usualmente se lo presenta en
porcentaje de STC.
I El R 2 oscila entre cero (sin ajuste SEC=0) y uno (ajuste
perfecto SEC=STC).
4.2 El Error Standard de la Regresion (ESR)
I ESR mide la dispersión de los residuos,
r
SRC
ESR = = σ̂
n−2
Donde n − 2 es la corrección por grados de libertad.
I ESR tienes las unidades de u, las cuales son las unidades de Y .
I σ̂ 2 es la varianza de los residuos.
I Mide el error promedio que comete la linea de regresion
muestral.
I La root mean squared error (RMSE) esta estrechamente
relacionado con el ESR:
r
SRC
RMSE =
n
5. Variación aleatoria en los coeficientes estimados

I El objetivo del procedimiento MCO es obtener una idea lo


más precisa posible de los parámetros β0 y β1 .
I Nosotros no observamos los valores de los β0 y β1 , pero
podemos estimarlos con base en los datos que observamos.
I Como la muestra de datos que tenemos es aleatoria, nuestras
estimaciones β̂0 y β̂1 tendrán un elemento aleatorio.
5.1 β̂1 son variables aleatorias

Hay dos fuentes para esta aleatoriedad:


1. Muestreo aleatorio: Existe aleatoriedad porque solo
observamos un sub grupo de la población. Los β̂0 y β̂1 están
en función de la muestra seleccionada. Cada estimación ligada
a una nueva muestra será diferente y esa variación es llamada
variación debido al muestreo aleatorio.
2. Modelo estocástico: El modelo tiene un término de error (u)
aleatorio que incide en la realización de Y , por lo que esa
aleatoriedad se transmite a los coeficientes. Existe una
aleatoriedad inherente en el proceso generador de dato aún
cuando los datos estan medidos para una población.
5.2 Distribución de los β̂1

I MCO genera estimaciones (β̂0 y β̂1 ) que tienen una


distribución normal, cuando el tamaño de la muestra es
grande. Teorema del Limite Central.
I β̂0 y β̂1 tienen una distribución normal aún si el término del
error tenga una distribución extraña.
I Si el término de error se distribuye Normalmente, no es
necesario tener muestras grandes. Para muestras pequeñas β̂0
y β̂1 tendrán distribución normal.
6. Propiedad de Insesgades

I Sabemos que β̂1 no es β1 , es solo una estimación, pero cómo


están relacionados ambos?
I β̂1 es un estimador insesgado, si el valor promedio de la
distribución de β̂1 es β1
I β̂1 es un estimador insesgado de β1 , cuando X y el término de
error u no están correlacionados. MCO no produce
automaticamente estimaciones insesgadas.
I Insesgades no signfica perfección. En general nos dice que no
hay tendencia de sobre o sub estimar el valor de β1 .
6. Propiedad de Insesgades
7. Exogeneidad
I Si X y el término de error u están correlacionados, hay
posibilidad el error contamine la relacion observada entre Y y
X.
I Por ejemplo, si observamos grandes valores de Y cuando X es
grande, podemos pensar que X empuja a Y .
I ¿Qué pasarı́a si hay algo en el término de error que es grande
cuando X es grande? ¿Será que eso ocasiona que Y sea
grande?
I Si es ası́ X e Y tienen una relación espuria, X no causa a Y ,
es decir la relación causal no puede ser identificada. La
estimacion de β1 esta sesgada.
I Este sesgo se caracteriza como
σu
β̂1 = β1 + corr (X , u)
σX
8. Precisión de los estimadores

I Una medida de la dispersión de la distribución de β̂1 es la


varianza de β̂1 (var (β̂1 )).
I La raı́z cuadrada de var (β̂1 ) es el error standard de β̂1 , se(β̂1 ).
I Mientras más grande sea la varianza, mayor es la posibilidad
de no estar cerca del valor medio de la distribución. Es
preferible varianzas pequeñas.
I La varianza estimada de β̂1 es

σ̂ 2 SRC
var (β̂1 ) = donde, σ̂ 2 =
n × var (X ) n−2
9. Probabilidad lı́mite y consistencia

I La varianza de β̂1 se reduce cuando el tamaño muestral


incrementa.
I Un estimador es consistente si la distribucion de los betas
estimados colapsa en el verdadero valor de los betas en la
medida que tengamos mas datos.
I Los estimados MCO son consistentes si X no esta
correlacionado con el termino de error.
10. Algunos problemas: Heterocedasticidad y Correlacion
de errores

I Homocedasticidad: una vez tomada en consideracion el efecto


de la medición de X, el grado de incertidumbre en el modelo
debe ser igual para todas las observaciones. La varianza del
error es la misma para valores alto y bajos de X.
I La violación de la homocedasticidad no causa que las
estimaciones MCO sean sesgadas.
I Se puede estimar Varianzas Consistentes a Heterocedasticidad
los cuales toman en cuenta la heterocedasticidad.
10. Gráfico de Homocedasticidad
10. Gráfico de Heterocedasticidad
10. Gráfico de Heterocedasticidad
10.1 Errores correlacionados

I Si los errores están correlacionados uno con otros, entonces el


conocer el término de error para una observación permite
conocer el valor del error para otra observación.
I Dos situaciones generan esto: datos agrupados por cluster y
series de tiempo.
I Cuando los errores en series de tiempo estan correlacionados
se denomina autocorrelación.
I Los errores relacionados no generan que la estimaciones sean
sesgadas, solamente debemos usar una expresion diferente
para el cálculo de la varianza.
11. Datos atı́picos
I Cuando la muestra es pequeña, un dato atı́pico puede generar
efectos considerables en la estimación MCO.
I Dibujar un scatterplot.
11. Datos atı́picos: qué hacer

I Informar al lector de este problema.


I Reportar resultados con y sin los datos atı́picos.
I Justificar la inclusión o exclusión de esas observaciones.

You might also like