Professional Documents
Culture Documents
2.1. Introducción
Especificación: se identifican las variables fundamentales que influyen sobre el objeto de
estudio (variables explicativas y variable a explicar) y se plantea la forma funcional concreta
que expresa la relación entre el conjunto de variables; incluye la perturbación aleatoria y una
serie de hipótesis (hipótesis básicas o clásicas).
Supongamos la siguiente especificación:
⎛ Y1 ⎞ ⎛1 X 21 ... X k1 ⎞ ⎛ β1 ⎞ ⎛ u1 ⎞
⎜ ⎟ ⎜ ⎟ ⎜β ⎟ ⎜ ⎟
1 X 22 ... X k2 ⎟ u
y = ⎜
Y2 ⎟
X =⎜ β=⎜
2 ⎟ u = ⎜ 2 ⎟
⎜ ... ⎟ ⎜ ... ... ... ... ⎟ ⎜ ... ⎟ ⎜ ... ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ YT ⎠ ⎝1 X 2T ... X kT ⎠ ⎝ βk ⎠ ⎝ uT ⎠
1
Cada fila se corresponde con una observación de la variable a explicar o de las
explicativas
En la matriz X, cada columna se corresponde con los datos de una variable.
Dicho de otro modo, tenemos un modelo uniecuacional con una variable endógena o
variable a explicar (y) en el que distinguimos dos partes:
– Una parte esencial, compuesta por las variables que según la Teoría Económica
explican el comportamiento de la endógena, es decir, en función de las explicativas
y los parámetros asociados. Es lo que llamaremos parte sistemática de la
ecuación
– La otra depende de la perturbación aleatoria, del término de error. Engloba el
resto de factores que, aun teniendo influencia sobre la endógena, no se consideran
esenciales (individualmente son superfluos). Se denomina parte aleatoria
Yi = β1 + β2 X 2i + ... + βk X ki + ui
Parte Sistemática Parte aleatoria
Una vez formulado el modelo, suponemos que se cumplen una serie de hipótesis
sobre la distribución de probabilidad de la perturbación aleatoria y sobre los valores
de las variables explicativas. Son las llamadas hipótesis básicas o clásicas o
modelo de trabajo en condiciones ideales
2
● Ejemplo de modelo con multicolinealidad: y= X ·β+ u ,
⎛1 4 2 ⎞
⎜ ⎟
Con X= ⎜1 6 3 ⎟ .
⎜ ⎟
⎜ ⎟
⎝1 10 5 ⎠
Notar que: X2i =2X3i ∀i ⇒X2i −2X3i =0 ∀i )
Yi → PIB
G i → Gasto Público
G i → Exportaciones
Ii → Importaciones
SCi → Saldo Comercial
5. Hipótesis de convergencia
⎛ X 'X ⎞
lim ⎜ ⎟ → Σ xx
T →∞
⎝ T ⎠
3
HOMOCEDASTICIDAD HETEROCEDASTICIDAD
4
6.4. La perturbación aleatoria sigue una distribución normal
- Para cada una de las perturbaciones:
u i ∼ N (0,σ ) ∀ i → ui ∼ i.i.d N ( 0 , σ )
2 2
Puesto que:
⎧⎪E ( y ) = E ( X·β + u ) = X·β
⎨
⎪⎩Var ( y ) = E ⎡⎣( y − E ( y ) ) ( y − E ( y ) ) '⎤⎦ = E(uu ') = σ IT
2
Recta de Regresión
POBLACIONAL
5
2.3. Estimación Mínimo Cuadrática Ordinaria (MCO).
Propiedades de los estimadores
El residuo se puede interpretar como el error de estimación cometido para cada observación.
En términos matriciales:
y = X ·β + u ⎪⎫ uˆ = y − yˆ = y − X ·βˆ ⎪⎫
⎬ ⇒ ⎬
yˆ = X ·βˆ ⎭⎪ y = yˆ + uˆ ⎭⎪
Gráficamente:
6
Los estimadores Mínimo Cuadrático Ordinarios, son aquellos que minimizan la
función objetivo, suma de los cuadrados de los residuos (Suma Residual, SR):
M in S R = M in ∑ uˆ i2 = M in uˆ ′uˆ = M in( y − X ·βˆ ) ' ( y − X ·βˆ ) (2)
= M in ( y ' y − 2 βˆ ′ X ′y + βˆ ′ X ′X βˆ )
Condición necesaria
∂ uˆ ′uˆ
= − 2 X ′y + 2 X ′X βˆ = 0
∂β ˆ
⎡ 1 1 . 1 ⎤ ⎡ Y1 ⎤ ⎡ 1 1 . 1 ⎤ ⎡ 1 X 21 ... X k1 ⎤ ⎡ βˆ 1 ⎤
⎢X ⎢ ⎥
⎢ 21 X 22 . X 2T ⎥⎥ ⎢⎢ Y2 ⎥⎥ ⎢⎢ X 21 X 22 . X 2T ⎥⎥ ⎢⎢ 1 X 22 ... X k 2 ⎥⎥ ⎢βˆ 2 ⎥
=
⎢ . . . . ⎥⎢ . ⎥ ⎢ . . . . ⎥ ⎢... ... ... ... ⎥ ⎢ . ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥⎢ ⎥⎢ ⎥
⎣ X k1 Xk 2 . X kT ⎦ ⎣ YT ⎦ ⎣ X k1 Xk2 . X kT ⎦ ⎣ 1 X 2T ... X kT ⎦ ⎢βˆ ⎥
⎣ k⎦
Operando:
⎡ ∑ Yi ⎤ ⎡ T ∑X ∑X ∑X ⎤ ⎡ βˆ 1 ⎤
⎥ ⎢ˆ ⎥
2i 3i ki
⎢ ⎥ ⎢
⎢ ∑ Yi X 2i ⎥ = ⎢ . ∑X ∑X X ∑X X
2
2i 2i 3i 2i ki ⎥ ⎢ β 2 ⎥
⎢ . ⎥ ⎢. . . . ⎥⎢ . ⎥
⎢ ⎥ ⎢ ⎥⎢ ⎥
⎢⎣ ∑ Yi X ki ⎥⎦ ⎢⎣ . . . ∑ X 2ki ⎥⎦ ⎢⎣βˆ k ⎥⎦
El estimador β̂ que satisface este sistema se llama Estimador MCO.
Condición suficiente
∂ 2 uˆ ' uˆ
= 2X' X > 0
∂βˆ ∂βˆ '
7
Algunas propiedades algebraicas en la estimación MCO
∑ uˆ
i =1
i = 0 ⇒ uˆ = 0
( )
T T T T
∑ û i = 0 ⇒ ∑ Yi − Y i = 0 ⇒
i =1 i=1
∑ Yi = ∑ Y i ⇒ Y = Yˆ
i=1 i=1
T
Propiedad 3: ∑X i =1
ji uˆ i = 0 j = 2,3,...k
(4)
( )
E βˆ = β + ( X ′X ) X ′E ( u ) = β
−1
Varianza:
ˆ = E [( βˆ − E(β))(β
Var(β) ˆ ˆ − E( β))' ]
ˆ = E [( βˆ − β)(βˆ − β)'] = E [( X'X)−1X'uu'X (X'X)−1 ⎤ =
⎦
−1 −1 −1 2 −1 2 −1 −1
= (X'X) X' E(uu')X(X'X) = (X'X) X' σ I X(X'X) = σ (X'X) X' X(X'X) =
2 −1
= σ (X'X)
8
⎛ var(βˆ 1 ) cov(βˆ 1βˆ 2 ) cov(βˆ 1βˆ k ) ⎞
⎜ ⎟
ˆ ⎜ cov(βˆ 2 βˆ 1 ) var(βˆ ) cov(βˆ 2 βˆ k ) ⎟
Var(β ) = ⎜ 2
⎟
⎜ ⎟
⎜ cov(βˆ βˆ ) cov(βˆ k βˆ 2 ) var(βˆ k ) ⎟⎠
⎝ k 1
Distribución de probabilidad
(
βˆ ~ N β, σ 2 ( X ' X )
-1
)
βˆ j ∼ N(β j , σ 2 (X' X) −jj 1 ), ∀βˆ j , j = 1,...k
PRUEBA
−1
σ 2 ⎛ X ′X ⎞
T →∞
()
lim Var βˆ = lim
T →∞ T
⎜
⎝ T ⎠
−1
⎟ = 0 ⋅ Σ xx = 0
c) Eficientes asintóticamente
9
La función de distribución de β̂ tiende a colapsarse en el valor esperado β
σˆ
2
=
∑û 2
i
=
uˆ ′uˆ
T−k T−k
10
● El vector de residuos MCO se puede escribir como:
uˆ = y- yˆ = y-Xβˆ = y- X(XX)
'
X y = [I - X(XX)
-1 ' '
X ]y = My = Mu
-1 '
MX=0
y=Xβ+u
∑ û i2 = y ' y − 2 βˆ ′ X ′y + βˆ ′ X ′X βˆ =
X ′X βˆ = X ′y
y ' y − βˆ ′ X ′y
Esperanza matemática
⎛ u' Mu ⎞ E(u' Mu)
Sabiendo que E(σˆ ) = E⎜ ⎟=
2
, vamos a obtenerla de dos formas:
⎝T-k⎠ T-k
A partir de propiedades de la traza: 1) la esperanza de un escalar es igual a la
esperanza de su traza; 2) traza (AB)= traza (BA); 3) Esperanza de la traza=traza
de la esperanza
⎡ ⎛ ⎞⎤ ⎡ ⎛ ⎞⎤
E ( u ' Mu ) = E ⎢ traza ⎜ u ' Mu ⎟ ⎥ = E ⎢ traza ⎜ Mu u ' ⎟ ⎥ = traza ( E [ Muu ' ])
⎣ ⎝ A B ⎠⎦ ⎣ ⎝ B A ⎠⎦
= traza ( ME [ uu ' ]) = σ traza ( M I T ) = σ 2 ( T − k )
2
Por tanto,
E ( uˆ ' uˆ ) E(u ' Mu) σ 2 ( T − k )
E( σˆ 2 ) = = = = σ2
T−k T−k (T − k)
11
Varianza
Sabiendo que
⎛ u' Mu ⎞ Var(u' Mu)
- Var(σˆ 2 ) = Var ⎜ ⎟=
⎝T-k⎠ (T - k) 2
σ
En consecuencia, tenemos:
Propiedades asintóticas
a) Insesgado asintóticamente: si lo es en muestras finitas, lo es asintóticamente.
b) Consistente
c) Eficiente asintóticamente
2σ 4
Su varianza asintótica es: Varas (σˆ 2 ) =
T
12
OBSERVACIÓN
Podemos hacer uso de este estimador para estimar la varianza de los estimadores de los
parámetros de posición.
2 2
( )
Tal como hemos demostrado, V a r βˆ = σ βˆ = σ ( X ' X )
−1
ˆ βˆ ) = σˆ 2 (X 'X) −1
Podemos estimar esta varianza como: V ar(
ˆ βˆ 1 )
⎛ var( ˆ βˆ 1βˆ 2 )
cov( ˆ βˆ 1βˆ k ) ⎞
cov(
⎜ ⎟
ˆ βˆ 2 βˆ 1 )
⎜ cov( ˆ βˆ )
var( ˆ βˆ 2 βˆ k ) ⎟
cov(
ˆ βˆ ) = ⎜
Var( 2
⎟
⎜ ⎟
⎜ cov( ˆ ˆ ˆ βˆ k βˆ 2 ) ˆ β k ) ⎟⎠
ˆ
⎝ ˆ β k β1 ) cov( var(
[ ] [ ]
E Vaˆr( βˆ ) = E σˆ 2 (X' X ) = σ 2 (X' X ) = Var( βˆ )
−1 −1
Recapitulación y ejemplos
Dada cualquier muestra de y y X en el MLG, los pasos en la estimación MCO
consisten en calcular:
(1) βˆ = (X ' X) −1 X ' y
uˆ ' uˆ
(2) σˆ 2 =
T−k
ˆ βˆ ) = σˆ 2 (X ' X) −1
(3) V ar(
Yi 8.04 6.95 7.58 8.81 8.33 9.96 7.24 4.26 10.84 4.82 5.68
Xi 10 8 13 9 11 14 6 4 12 7 5
Resolución:
El enunciado ofrece información sobre el vector y y la matriz X:
13
⎡8.04 ⎤ ⎡1 10 ⎤
⎢6.95 ⎥ ⎢1 8 ⎥⎥
⎢ ⎥ ⎢
⎢7.58 ⎥ ⎢1 13⎥
⎢ ⎥ ⎢ ⎥
⎢8.81 ⎥ ⎢1 9⎥
⎢8.33 ⎥ ⎢1 11⎥
⎢ ⎥ ⎢ ⎥
y = ⎢9.96 ⎥ ; X = ⎢1 14 ⎥
⎢7.24 ⎥ ⎢1 6⎥
⎢ ⎥ ⎢ ⎥
⎢ 4.26 ⎥ ⎢1 4⎥
⎢10.84 ⎥ ⎢1 12 ⎥
⎢ ⎥ ⎢ ⎥
⎢ 4.82 ⎥ ⎢1 7⎥
⎢ ⎥ ⎢ ⎥
⎣5.68 ⎦ ⎣1 5⎦
El cálculo de la expresión βˆ = (X ' X) −1 X ' y para esta muestra requiere las siguientes
matrices:
⎡ T
X'X = ⎢
∑ X ⎤⎥ ;
i
⎡ ∑ Yi ⎤
X' y = ⎢ ⎥
⎣∑ Xi ∑X ⎦ ⎣ ∑ Yi X i ⎦
2
i
i Yi Xi Yi*Xi Xi 2=Xi*Xi
1 8.04 10 80.4 100
2 6.95 8 55.6 64
3 7.58 13 98.54 169
4 8.81 9 79.29 81
5 8.33 11 91.63 121
6 9.96 14 139.44 196
7 7.24 6 43.44 36
8 4.26 4 17.04 16
9 10.84 12 130.08 144
10 4.82 7 33.74 49
11 5.68 5 28.4 25
SUMAS 82.51 99 797.6 1001
Luego:
⎡ T
X'X = ⎢
∑ X ⎤⎥ = ⎡11
i 99 ⎤
;
⎡ ∑ Yi ⎤ ⎡ 82.51 ⎤
X' y = ⎢ ⎥=⎢
⎣∑ Xi ∑ X ⎦ ⎢⎣99
2
i 1001⎥⎦ ⎣ ∑ Yi X i
⎥
⎦ ⎣ 797.60 ⎦
En consecuencia:
⎡ˆ ⎤ −1
ˆβ = ⎢ β1 ⎥ = ⎡11 99 ⎤ ⎡ 82.51 ⎤ = 1 ⎡1001 −99 ⎤ ⎡ 82.51 ⎤ = ⎡ 3 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢⎣βˆ 2 ⎥⎦ ⎣99 1001⎦ ⎣ 797.60 ⎦ 1210 ⎣ −99 11 ⎦ ⎣ 797.60⎦ ⎣ 0.5⎦
14
Por tanto, el modelo estimado se escribe Yˆi = 3 + 0.5 X i . La estimación de la varianza
residual por MCO exige calcular la suma de cuadrados de residuos:
ˆ = 8.04 − 8 = 0.04;...; u11 = Y − Y
u1 = Y1 − Y ˆ = 5.68 − 5.5 = 0.18
1 11 11
11 2
11 2
∑u i
14
SR = ∑ u i = 14; σˆ 2 = i =1
= = 1.54
i =1 T−k 11 − 2
Por último, la estimación de la matriz de varianzas y covarianzas del estimador MCO
de β1 y β 2 es:
ˆ βˆ 1 ) cov(
⎡ var( ˆ βˆ 1βˆ 2 ) ⎤ 1.54 ⎡1001 −99 ⎤ ⎡ 1.27 −0.13⎤
ˆ βˆ ) = σˆ 2 (X ' X) −1 = ⎢
var( ⎥= ⎢ ⎥=⎢ ⎥
ˆ βˆ 2 ) ⎥⎦ 1210 ⎣ −99 11 ⎦ ⎣ −0.13 0.014 ⎦
ˆ βˆ 1βˆ 2 ) var(
⎢⎣cov(
En GRETL:
15
b) Comprobar que se cumplen las 4 propiedades algebraicas con los datos del ejercicio
numérico
16
EJEMPLO 2: Modelo Lineal General
2.- Si el precio de venta de la primera vivienda fue 300.000 euros, calcular el residuo
para esta vivienda. ¿El comprador pagó un precio demasiado alto o demasiado bajo para la
vivienda?
u1 = Pr ice1 − Pr ice1 = 300 − 345 = −45
Por tanto, pagó un precio bajo
17
2.4. Estimación por máxima verosimilitud. Propiedades
de los estimadores
∂u
donde es el valor absoluto del determinante Jacobiano de la transformación.
∂y
donde se entiende que los parámetros β y σ 2 son fijos y los valores de la variable
endógena y son variables.
Se define la FUNCIÓN DE VEROSIMILITUD (distribución de probabilidad
conjunta de la muestra), que denotamos por L, donde consideramos que los valores de los
parámetros pueden cambiar, pero los valores de y son unos números determinados
observados en una muestra concreta:
T
⎛ 1 ⎞2 ⎧ 1 ⎫
L = f(y β, σ ) = ⎜
2
2⎟
exp ⎨− 2 (y − Xβ)′(y − Xβ)⎬
⎝ 2πσ ⎠ ⎩ 2σ ⎭
18
El método de estimación Máximo Verosímil (MV) consiste en encontrar aquellos
valores de los parámetros del modelo ( β1 , β 2 ,...β k , σ 2 ) que maximizan la función de
verosimilitud. Y como los valores que maximizan L son los mismos que maximizan su
logaritmo, se plantea la maximización de la función logarítmica de verosimilitud (o
función log-verosímil):
T T 1
= lnL = − ln ( 2π) − ln ( σ2 ) − 2 (y − Xβ)′(y − Xβ) =
2 2 2σ
T T 1
= − ln(2π) − ln(σ2 ) − 2 (y'y − 2β′X'y +β′X′Xβ)
2 2 2σ
Condición necesaria:
Obtenemos las primeras derivadas:
∂ 1 X′y − X′Xβ
= − 2 [ −2X′y + 2X′Xβ) ] = ( )
∂β 2σ σ2
∂ T 1 (y − Xβ)′(y − Xβ) − Tσ 2
= − + (y − Xβ )′(y − Xβ ) = ( )
∂σ2 2 σ 2 2σ 4 2σ 4
Notar: los estimadores de los parámetros de posición coinciden con los obtenidos
por MCO en este modelo.
Condición suficiente
Se debe estudiar el signo de la forma cuadrática dada por la matriz hessiana
⎛ ∂ 2l ∂ 2l ⎞ ⎛ X´X X´Xβ − X´y ⎞
⎜ ⎟ ⎜ − 2 ⎟
⎜ ∂β2 ∂β ∂σ ⎟ σ σ 4
Hl = = ⎜ ⎟
⎜ ∂ 2l ∂ l ⎟ ⎜ X´Xβ − X´y
2
(y − Xβ)´(y − Xβ) − Tσ 2 ⎟
⎜ ⎟ ⎜ − ⎟
⎝ ∂β ∂σ ∂ (σ 2 ) 2 ⎠ ⎝ σ4 σ6 ⎠
19
Esperanza y varianza del estimador MV del parámetro de dispersión
Esperanza
E ( uˆ ' uˆ ) σ 2 ( T − k )
E( σ 2 ) = =
T T
Varianza
⎛ uˆ ' uˆ ⎞ V ar (u ' M u ) 2 σ (T − K ) 2 σ T − k
4 4
2
V ar ( σ ) = V ar ⎜ ⎟= = = (4)
⎝ T ⎠ T2 T2 T T
EJEMPLO:
Obtener los estimadores máximo verosímiles de los parámetros del modelo en el
ejemplo 1 presentado anteriormente:
11
∑ û 2
i
14 ⎛ 3'00009 ⎞
σ2 = i =1
= = 1'27 β = βˆ = ⎜ ⎟
T 11 ⎝ 0'500091 ⎠
σ 2 ) ≠ σ2
b) Sesgado, pues E(~
No ELIO, por consiguiente
c) No eficiente, pues es sesgado
Propiedades asintóticas
a) Insesgado asintóticamente: lim E(σ 2 ) = σ 2
T →∞
Prueba:
~ 2 ) = lim σ 2 (T - k) σ2 T σ2k
lim E( σ = lim − lim = σ2 − 0 = σ2
T→∞ T →∞ T T →∞ T T→∞ T
20
2.5. Estimación por intervalo
Lo emplearemos sólo para los parámetros de posición.
(
Lo hacemos a partir de la distribución conocida βˆ ~ N β, σ 2 ( X ' X ) , mediante la cual
−1
)
definiremos para cualquier β̂j :
βˆ j −β j
( −1
)
βˆ j ~ N β j , σ2 ( X′X) jj → Estandarizando :
σ2 (X' X)−jj1
∼ N(0,1)
Dadas dos distribuciones, una N(0,1) y otra χT − k , independientes entre sí, se cumple que
2
N ( 0,1)
~ t T −k ,
χ 2T −k
T−k
Por lo tanto:
βˆ j − β j
σ 2 (X ' X ) −jj1 βˆ j − β j βˆ j − β j
= = ~ tT−k
σˆ 2 (T − k ) σˆ 2 (X ' X ) −jj1 σˆ βˆ
j
σ2
T−k
que, como se aprecia, ya no incorpora el término desconocido σ 2 .
A partir de dicha distribución, se puede definir la estimación por intervalo para βj, de la
forma siguiente :
⎧⎪ βˆ j −βj crit ⎫⎪
Prob ⎨−tε/2 (T − k) ≤
crit
≤ tε/2 (T − k)⎬ = 1−ε
⎪⎩ σˆ βˆ j ⎪⎭
21
{
Prob βˆ j − t εcrit ˆ ˆ ≤ βj ≤ βˆ j + t εcrit
/2 (T − k) σ βj /2 (T − k) σ
⎫
ˆ ˆ ⎬ = 1− ε
βj
⎭
Es decir, dado un nivel de significación ε (por ejemplo del 5%), si tomamos infinitas
muestras y para cada una de ellas calculamos el intervalo de confianza para βj, el 95% (1-
ε =0,95) de ellos es de esperar que contengan al verdadero parámetro.
En nuestro Ejemplo 1:
β1 ∈ βˆ1 ± tεcrit/ 2 (T − k )σˆ βˆ = 3'00009 ± 2 ' 262 1' 26506 = 3'00009 ± 2 ' 262 ⋅1'12475 = ( 0'455737; 5'54444 )
1
β 2 ∈ βˆ2 ± tεcrit/ 2 (T − k )σˆ βˆ = 0'500091 ± 2 ' 262 0'0139017 = 0'500091 ± 2 ' 262 ⋅ 0'117906 = ( 0'233370 ; 0'766812 )
2
y su estimación:
Ŷi = βˆ 1 + βˆ 2 X2i + ... + βˆ k X ki
22
Ejemplo:
Interpretación económica de los parámetros del siguiente modelo estimado:
P RECIOi = -21’87 + 0’02 FINCAi + 2’46 M2i + 13’80 N_HABi
donde PRECIO: es el precio de la vivienda en miles de euros; FINCA: es la
superficie de la finca en metros cuadrados; M2: superficie de la vivienda en metros
cuadrados; y N_HAB el número de habitaciones de que dispone la vivienda.
Término independiente: Precio esperado de las viviendas que cumplen que FINCA =
M2= N_HAB =0.
E(PRECIO)= -21’87 siendo FINCA = M2= N_HAB =0.
(veremos en el tema siguiente que se acepta que ese parámetro es 0, puesto que en
los términos económicos del modelo en estas circunstancias no existe una vivienda).
Pendientes: Derivadas parciales: variación absoluta de la endógena debida a una variación
en una unidad de la explicativa, manteniendo todo lo demás constante.
∂ precio ∆ precio
• βFINCA = = 0'02
∂ FINCA ∆ FINCA
Si se incrementa la superficie de la finca donde se construye la vivienda en 1 m2,
manteniendo todo lo demás constante ( ∆ M2=∆ N _ HAB =0 ), el precio de la
vivienda se incrementa en 0’02 miles de euros.
∂ precio ∆ precio
• βM2 = = 2'46
∂ M2 ∆ M2
Si se incrementa la superficie de la vivienda en 1 m2, manteniendo todo lo
demás constante ( ∆ FINCA=∆ N_HAB=0 ), el precio de la vivienda se incrementa
en 2’46 miles de euros.
∂ precio ∆ precio
• β N_HAB = = = 13'80
∂ N _ HAB ∆ N_HAB
Si se incrementa el número de habitaciones de que dispone la vivienda en 1,
manteniendo todo lo demás constante ( ∆ FINCA=∆ M2=0 ), el precio de la
vivienda se incrementa en 13’80 miles de euros.
23