You are on page 1of 7

- Deben saber interpretar los parámetros de una regresión B0 B1

- Deben saber interpretar el coeficiente de determinación (R2) (recuerden que esto es: el % de
la variabilidad de la variable Y que logra explicar nuestro modelo)
- Deben conocer a modo general que es lo que realiza el método visto en clases.
- Interpretar el R2 ajustado: esto es el % de variabilidad de la variable Y que explica nuestro
modelo una vez que penalizamos por la cantidad de variables utilizadas.
- No voy a evaluar cambio de unidades de medida ni ejercicio numérico con 2 variables. NO
ENTRA

2. Acerca de la prueba 2:
- Deben tener claro los conceptos de significancia, no significancia y por qué es relevante la
inferencia en el modelo.
- Saber interpretar el valor p de los parámetros y el valor p del test de significancia global del
modelo.
- No deben saber calcular el test t ni intervalos de confianza.
- Restricciones múltiples como las de la prueba 2 no serán evaluadas.

3. Acerca de la materia nueva divido el análisis según temas:

i. Formas funcionales
- Deben saber interpretar cuando las variables (ya sea dependiente o independiente) están en
logaritmo natural o no.
- Deben saber por qué es útil agregar una forma cuadrática (me permite evaluar efectos
marginales crecientes o decrecientes)
- Deben saber interpretar los coeficientes cuando hay un término cuadrático (Recordar que si
tengo una variable X y agrego X2 el coeficiente que acompaña a X me da el efecto impacto y
el coeficiente X2 me muestra como va cambiando dicho efecto. Por ejemplo, si el primero es
negativo y el segundo positivo, al principio el efecto es negativo, pero luego empieza a crecer
(una forma de U))
- Saber interpretar coeficientes cuando existe interacción.
- Saber interpretar variables dummys
- Tener claro los efectos que tiene incluir una variable irrelevante y omitir una variable
relevante.
- Criterios de información: no serán evaluados. solamente saber que son criterios que nos
permiten escoger el modelo a utilizar y que se debe escoger aquel con menor valor.

ii. Heterocedasticidad
- Saber qué significa y que consecuencias tiene en nuestra estimación.
- Mínimos Cuadrados Generalizados Factibles: no saber la fórmula, pero si saber que el
método corrige por heterocedasticidad. Luego, deben saber interpretar la estimación bajo este
método (ver donde cambia, etc.)
- Test de heterocedasticidad: deben saber a nivel general que hace cada uno de los 2 test. Por
ejemplo, ser capaz de explicar que hace el test de White a nivel general (no se deben saber el
criterio de rechazo, pero si la hipótesis nula y explicar la intuición de que es lo que hace dicho
test). Además, deben ser capaz de realizar dicho test pero a través del valor p.

iii. Autocorrelacion
- Saber qué significa y qué consecuencias tiene en nuestra estimación.
- Mínimos Cuadrados Generalizados Factibles: no saber la fórmula, pero si saber que el
método corrige por autocorrelación. Luego, deben saber interpretar la estimación bajo este
método (ver donde cambia, etc.)
- Test de Durbin Watson: saber la hipótesis nula y saber realizar dicho test. Además, conocer
la debilidad del test (zonas que no dice nada y que solo testea AR(1)).
- El otro test de autocorrelación no será evaluado.

iv. Endogeneidad
- A modo general saber consecuencias tiene si la esperanza del error es distinta de 0 y si la
covarianza del error con la X es distinta de 0.

v. Normalidad de los errores


- Saber realizar el test de Jarque Bera (obviamente la formula va en el formulario)

vi. Problema con los datos


- Conocer el concepto de multicolinealidad y sus consecuencias
- Saber interpretar el VIF de las variables y el criterio de detección de multicolinealidad
- Saber qué consecuencias tiene si Y está mal medida (aumenta el error de mi modelo y su
varianza)
- Saber qué consecuencias tiene si X está mal medido (aumenta el error de mi modelo, pero
este está correlacionado con las X. Luego, mis estimadores estarán sesgados)
- Outliers no entra.
Nota: los alumnos que faltaron a una prueba deberán responder una pregunta adicional en
donde se evalúa la materia de dicha prueba. Por ejemplo, podría entrar un ejercicio numérico
o algo de restricciones múltiples.

Resumen examen econometría


-Bo: El Y esperdo, cuando X es igual a 0
-B1: El cambio esperado en Y cuando X aumenta en una unidad.

 Lin-lin: B1: El cambio esperando de la variable Y, cuando x cambia en una unidad, es


de B1 (unidades de Y).
 Lin-log: B1: El cambio esperando de la variable Y, cuando x cambia en 1%, es de
B1/100 (unidades de Y).
 Log-lin: B1: El cambio esperando de la variable Y, cuando x cambia en una unidad,
es de B1x100 porciento.
 Log-log: B1: El cambio esperando de la variable Y, cuando x cambia en un 1%, es de
B1% .

R^2: Interpretación: El modelo logra explicar un 1.3% de la variabilidad del consumo de


cigarrillos (Variable Y en cuestión).

R^2 ajustado: Interpretación: el modelo logra explicar un 0.8% de la variabilidad del


consumo de cigarrillos (Variable Y en cuestión). una vez que consideramos el número de
variables incluidas. Penaliza la cantidad de variables en cuestión.

Significancia: Es si la variable es significativa para el modelo.


Parámetro es no significativo: cuando existe evidencia estadística para asegurar que dicho
parámetro a nivel poblacional es igual a 0. En términos simples, cuando hay evidencia
estadística de que el parámetro es 0 a nivel poblacional.

Significancia individual:

 Luego, lo ideal es que los p valores sean de un nivel de hasta 0.1.Esto se debe a que
si el valor p es mayor a 0.1, el parámetro va a ser significativo para niveles de
confianza menores al 90%.

Significancia Global:

 Test F

Formas cuadráticas: Salario=Bo + B1experiencia –B2^2experiencia


 Nos permite ver la utilidad marginal, interpretar mejor las variables.
 Interpretación: En un principio la experiencia afecta de forma positiva, pero luego
con el tiempo empieza a bajar el efecto en el salario. Una curva n

Interacción:
 El efecto esperado en Y cuando X1 cambia en una unidad y X2 es igual a su valor
promedio.

Variables Dummys:
 Efecto esperado adicional en el salario si la persona es mujer

Criterios de información:
 son criterios que nos permiten escoger el modelo a utilizar y que se debe escoger
aquel con menor valor
Omisión de variables relevantes:
 Nuestros estimadores no serán consistentes
 varianzas calculadas serán menores que la correcta
 La inferencia que realizaremos no será la correcta
 Causara que los parámetros calculados sean sesgados

Incluir variables irrelevantes:


 La inclusión de variable irrelevantes no causa sesgo en los parámetros estimados.
 tampoco afecta la consistencia de los estimadores.
 Incluir regresores adicionales, aumenta la varianza de nuestros parámetros
estimados.

Heteroscedasticidad:

 Es cuando la varianza asociada de los errores, no es constante en todas las


observaciones. Esto implica que no se cumple uno de los supuestos de la hipótesis
sobre el modelo de regresión lineal.
 Al omitir variables relevantes, se produce heteroscedasticidad ya que esta variable,
estará en el termino error y por lo tanto la varianza dependerá de ella
 Formas para ver si existe heteroscedastisidad: Test White y Breush-pegan

 La heterocedasticidad daña las varianzas del modelo. Si no consideramos estas y


estimamos bajo MCO dichas varianzas (y luego la inferencia) está mal realizada. La
heterocedasticidad no afecta el sesgo de nuestro parámetro, por ello los
coeficientes son los mismo.

 La heterocedasticidad daña las varianzas del modelo. Si no consideramos estas y


estimamos bajo MCO dichas varianzas (y luego la inferencia) está mal realizada.
Por ello, la única diferencia entre ambas estimaciones son las varianzas de los
estimadores (desv. Estándar). Ello cambia los intervalos de confianzas, los t y los
valores p podrían cambiar. Por ejemplo, la desv. Estándar asociada a beta1 pasó de
0.19 a 0.218.

Auto correlación:
 Auto correlación es un problema que surge cuando rompemos el supuesto de que
los errores no están relacionados
 La auto correlación en el termino de error se da común mente en los datos se serie
de tiempo.

 El grafico presenta una inercia positiva por lo que si se podría decir que hay auto
correlación.

Multicolinealidad:
-Los errores estándar son muy grandes
-Poca significancia de los parámetros
-R2 alto

La manera más simple de detectar es a través del VIF (Variance Inflation Factor). Este nos
indica que tan infladas están nuestras varianzas respecto del caso sin multicolinealidad.No
podría ser multicolinealidad exacta. Cuandohay multicolinealidad exacta no podemos
estimar ningún parámetro.En este caso, en cambio, si logramos estimar nuestros
parámetros.
La utilización del VIF señala que si hay alguna variable con un VIF mayor a 5 estamos en
presencia de multicolinealidad.
Luego, dado esto se debe eliminar la variable con mayor VIF. En este caso, uno está
indiferente entre eliminar del modelo la variable X2 o X4.
Luego de sacar la variable X2 (o X4) uno debería volver a calcular el VIF hasta que no haya
ninguna variable con VIF mayor que 5.

You might also like