Professional Documents
Culture Documents
𝑦 = 𝛽0 + 𝛽1 𝑥1 + ⋯ + 𝛽𝑘 𝑥𝑘
𝑛
2
𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖1 − ⋯ − 𝛽𝑘 𝑥𝑖𝑘
𝑖=1
2.1 Estimación e interpretación de los estimadores MCO
Se puede hacer la analogía con el modelo de regresión simple y, utilizando el
cálculo diferencial, se obtendría el siguiente sistema de k+1 ecuaciones:
2 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖1 − ⋯ − 𝛽𝑘 𝑥𝑖𝑘 = 0
⋮
2 𝑥𝑖𝑘 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖1 − ⋯ − 𝛽𝑘 𝑥𝑖𝑘 = 0
2.1 Estimación e interpretación de los estimadores MCO
Interpretación:
Por ejemplo, en la ecuación:
𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2
Los estimadores 𝛽1 y 𝛽2 se interpretan como los efectos marginales
(efectos parciales o ceteris paribus):
∆𝑦 = 𝛽1 ∆𝑥1 + 𝛽2 ∆𝑥2
Cuando 𝑥2 se mantiene constante: ∆𝑦 = 𝛽1 ∆𝑥1 y cuando 𝑥1 se mantiene
constante: ∆𝑦 = 𝛽2 ∆𝑥2
El estimador 𝛽0 es el valor predicho para y cuando 𝑥1 = 0 y 𝑥2 = 0
2.1 Estimación e interpretación de los estimadores MCO
Bondad de ajuste:
𝒏 𝟐
Suma total de cuadrados (STC) como: 𝑺𝑻𝑪 = 𝒊=𝟏 𝒚𝒊 − 𝒚
𝒏 𝟐
Suma explicada de cuadrados (SEC) como: 𝑺𝑬𝑪 = 𝒊=𝟏 𝒚𝒊 − 𝒚
𝒏 𝟐
Suma residual de cuadrados (SRC) como: 𝑺𝑹𝑪 = 𝒖
𝒊=𝟏 𝒊
𝟐
𝑺𝑬𝑪 𝑺𝑹𝑪
𝑹 = =𝟏−
𝑺𝑻𝑪 𝑺𝑻𝑪
2.2 Valor esperado de los estimadores MCO
Supuestos:
Supuesto RLM.1: Linealidad en los parámetros
𝑦 = 𝛽0 + 𝛽1 𝑥1 + ⋯ + 𝛽𝑘 𝑥𝑘 + 𝑢
Supuesto RLM.2: Muestreo aleatorio
Se cuenta con una muestra aleatoria de tamaño 𝑛, que sigue el modelo
poblacional de la ecuación.
Supuesto RLM.3: No hay colinealidad perfecta
En la muestra, ninguna de las variables independientes es constante y no hay
ninguna relación lineal exacta entre las variables independientes.
Supuesto RLS.4: Media condicional cero.
𝐸 𝑢 𝑥1 , … , 𝑥𝑘 = 0
2.2 Valor esperado de los estimadores MCO
Teorema:
Bajo los supuestos RLM.1 a RLM.4:
𝐸 𝛽𝑗 = 𝛽𝑗 , 𝑗 = 0,1, … , 𝑘
𝐸 𝛽1 = 𝐸 𝛽1 + 𝛽2 𝛿1 = 𝐸 𝛽1 + 𝐸 𝛽2 𝛿1 = 𝛽1 + 𝛽2 𝛿1
Cuando 𝛽2 = 0, el estimador es insesgado (obvio!)
Cuando 𝛿1 = 0, el estimador es insesgado. Entonces, se puede concluir que si
𝑥1 y 𝑥2 no están correlacionados en la muestra, el estimador 𝛽1 es insesgado.
2.3 Varianza de los estimadores de MCO
Supuesto RLM.5: Homocedasticidad
El error u tiene la misma varianza para cualquier valor de las variables
explicativas: 𝑽𝒂𝒓 𝒖 𝒙𝟏 , … , 𝒙𝒌 = 𝝈𝟐
A los supuestos RLM.1 a RLM.5 se les conoce como supuestos de Gauss-
Markov (para regresiones de corte transversal)3
𝑽𝒂𝒓 𝒚 𝒙𝟏 , … , 𝒙𝒌 = 𝝈𝟐
2.3 Varianza de los estimadores de MCO
Teorema:
Bajo los supuestos RLM.1 a RLM.5, condicionales en los valores muestrales
de las variables independientes,
𝝈𝟐
𝑽𝒂𝒓 𝜷𝒋 =
𝑺𝑻𝑪𝒋 𝟏 − 𝑹𝟐𝒋
𝑛 2
donde 𝑆𝑇𝐶𝑗 = 𝑖=1 𝑥𝑖𝑗 − 𝑥𝑗 es la variación muestral total de 𝑥𝑗 y 𝑅𝑗2 es la
R-cuadrada de la regresión de 𝑥𝑗 sobre las otras variables independientes (e
incluyendo un intercepto)
La magnitud de 𝑉𝑎𝑟 𝛽𝑗 tiene importancia práctica: una varianza grande significa
un estimador menos preciso, intervalos de confianza grandes y pruebas de
hipótesis menos exactas.
2.3 Varianza de los estimadores de MCO
Estimación de 𝝈𝟐 :
El estimador insesgado de 𝜎 2 en el caso general de la regresión múltiple es
𝒏 𝟐
𝒖
𝒊=𝟏 𝒊
𝝈𝟐 =
𝒏−𝒌−𝟏
El término 𝑛 − 𝑘 − 1 representa los grados de libertad para el problema
general con 𝑛 observaciones y 𝑘 variables independientes.
La magnitud de 𝑉𝑎𝑟 𝛽𝑗 tiene importancia práctica: una varianza grande significa
un estimador menos preciso, intervalos de confianza grandes y pruebas de
hipótesis menos exactas.
2.4 Eficiencia de MCO
Teorema de Gauss-Markov:
Bajo los supuestos RLM.1 a RLM.5, los estimadores obtenidos por MCO (𝛽𝑖 )
son los mejores estimadores lineales insesgados (MELI) de 𝛽𝑖