Professional Documents
Culture Documents
CAPITULO 2
2.1. INTRODUCCIN
Una vez revisados los conceptos bsicos en el captulo 1 estamos listos para iniciar nuestro
camino con el fin de entender la forma ms utilizada de estimar los parmetros de un modelo
lineal: El estimador de mnimos cuadrados ordinarios. Como se mencion en la seccin 1.1.4 el
mtodo de Mnimos Cuadrados Ordinarios (MCO) presupone una minimizacin de la suma de
los errores elevados al cuadrado, para de ese modo estimar los parmetros de la regresin.
Recordemos que para obtener los parmetros partimos de un problema de prediccin
condicional donde el mejor predictor de Y condicional en X es una prediccin que minimiza la
prdida esperada con respecto de una funcin de prdida especfica. Esta funcin depende de
criterios arbitrarios, algunos de los cuales han sido descritos en la seccin (1.1.3):
En este captulo, iniciaremos nuestro estudio sobre la estimacin de los parmetros tomando
en cuenta el modelo de regresin bivariado, modelo de regresin simple o modelo lineal
simple. Este modelo puede ser planteado de la siguiente manera:
Yi 0 1 X i i
(2.1)
En este caso, observamos que la variable dependiente slo es explicada por una variable
independiente aparte de la inclusin del intercepto. Debe hacerse una aclaracin en este caso
porque muchos lectores pensarn que el intercepto podra ser considerado como una variable
explicativa adicional. Sin embargo, debemos recordar que el intercepto recoge el efecto
promedio de aquellas variables no incluidas en el modelo. Su inclusin no implica que exista
22
Econometra Moderna
una relacin sistemtica entre las variaciones de una variable independiente y la dependiente por
lo que su inclusin no es importante como variable explicativa sino para guardar cierta
consistencia de los resultados.
El modelo presentado en la expresin anterior es un modelo terico. Para poder iniciar el
proceso de estimacin de los parmetros desconocidos debemos plantear nuestro modelo
emprico, el cual toma la siguiente forma:
Yi 0 1 X i ei
(2.2)
En este caso, estamos reemplazando los parmetros desconocidos por sus estimadores y el
trmino de error es reemplazado por el error emprico (e). En este caso la primera parte de la
expresin, expresada por:
Yi 0 1 X i
(2.3)
ser la parte predicha (o explicada) por el modelo. Esto representar nuestro estimado de la
media condicional de la distribucin de Y.
2.2. MTODO
DE ESTIMACIN DE
REGRESIN LINEAL SIMPLE
MNIMOS CUADRADOS
PARA UN MODELO DE
Como ya se mencion, en este modelo la variable endgena slo se explica mediante una
variable exgena fija o no aleatoria. El criterio de mnimos cuadrados ordinarios implica
resolver el siguiente problema de minimizacin:
n
Min
2
i
i 1
(2.5)
si derivamos con respecto a los parmetros, obtenemos las siguientes ecuaciones de primer
orden:
( ei2 )
2 (Yi 0 1 X i ) 2 ei
0
2
i )
(Y
i
X )X
i
(2.6)
e X
i
(2.7)
23
Econometra Moderna
Yi 0 1 X i
(2.8)
2
X i Yi 0 X i 1 X i
(2.9)
X
X
0
1
i
2
i
Y
X Y
i
(2.10)
i i
Yi
X i Yi
n
Xi
Xi
2
2
Xi
Yi X i X i X i Yi
Xi
n X i2 X i 2
2
Xi
Yi
X i Yi
n
Xi
1
n
Xi
Xi
2
Xi
n X i Yi
n X
2
i
(2.11)
X i Yi
Xi 2
Xi 2
n
X i2
nX
2
(2.12)
X i2 nX
24
Econometra Moderna
( X
X )2
(2.13)
X i Yi (1 / n) X i Yi X i Yi nXY
= X i Yi nXY nXY nXY
X i Yi X i Y XY XYi
Ntese que la ltima ecuacin puede simplificarse como:
.
Yi Y X i X
(2.14)
(2.15)
Yi Y X i X Cov ( X , Y )
1
2
Var ( X )
Xi X
(2.16)
xi X i X
yi Yi Y
Esta notacin se utilizar para representar las desviaciones con respecto a los valores medios
de X e Y, y tambin para estimar el modelo en desviaciones en un captulo posterior. Esta
representacin resulta una herramienta interesante para demostrar algunas propiedades del
estimador de MCO.
Por otro lado, el intercepto de la funcin de regresin muestral ( 0 ) puede representarse
utilizando la primera ecuacin normal y dividiendo sta entre el tamao muestral (n):
0 Y 1 X
(2.17)
Con esto se demuestra una propiedad importante del estimador mnimo cuadrtico: si el
modelo tiene un intercepto, la lnea de regresin pasa por los valores medios de Y y X.
Las ecuaciones (2.16) y (2.17) son de mucha utilidad dado que nos permiten escribir los
estimadores MCO como una funcin de estadsticos muestrales, sin necesidad de resolver las
ecuaciones normales. El primer paso consiste en calcular la pendiente de X ( 1 ), para luego
reemplazar dicho valor en la ecuacin (2.17). Para ilustrar este mtodo de estimacin
consideremos el siguiente ejemplo:
Ejemplo
25
Econometra Moderna
Xi
1
1
1
2
2
2
3
3
3
2
20
Yi
3
6
10
5
10
12
5
10
10
9
80
X i Yi
X2
Yi
3
6
10
10
20
24
15
30
30
18
166
1
1
1
4
4
4
9
9
9
4
46
7
7
7
8
8
8
9
9
9
8
80
ei Yi Yi
-4
-1
3
-3
2
4
-4
1
1
1
0
0 6
1 1
Evidentemente, si utilizamos las ecuaciones obtenidas a travs del mtodo de Kramer,
tambin se deben obtener los mismos resultados. La comprobacin queda para el lector.
Se puede utilizar el ejemplo anterior para hallar la funcin de regresin muestral, es decir la
regresin de Y con respecto a X. Formalmente:
Yi 6 X i
26
Econometra Moderna
E E ( ) 0
Esto quiere decir que el centro de la distribucin del estimador de mnimos cuadrados
ordinarios coincide con el verdadero valor del parmetro. Si se cumple esta propiedad podemos
usar con cierta tranquilidad nuestro estimador porque sabremos que cada estimado que
obtengamos provendr de una distribucin cuya media es el verdadero valor del parmetro por
lo que el estimado ser equivalente, en trminos estadsticos al verdadero parmetro 1.
Para verificar esta propiedad, recordemos la expresin del estimador MCO:
1
(Yi Y )( X i X ) Cov( X ;Y ) xi yi
Var ( X )
( Xi X )2
xi 2
(2.28)
Debemos mencionar que ello no implica que nuestro estimado particular sea exactamente igual al verdadero
parmetro. De hecho podramos tener otra muestra y obtener otro estimado. Si el estimador es insesgado, entonces
este nuevo estimado tambin podremos utilizarlo e interpretarlo como equivalente, en trminos estadsticos, al
verdadero parmetro.
27
Econometra Moderna
( X i X )(Yi Y ) ( X i X )Yi Y ( X i X )
y dado que ya conocemos que
ecuacin (2.28), de la forma2 :
(2.29)
xi
y
x 2 i
i
ki yi
(2.30)
Siendo:
ki
xi
xi 2
(2.31)
As, se dice que el estimador MCO es lineal, ya que es una funcin lineal de la variable
es una combinacin lineal ponderada de Y,
endgena (Y). Ntese que en la ecuacin (2.30),
1
donde ki representa las ponderaciones y dado que las X son fijas estas ponderaciones se pueden
interpretar como constantes.
Digresin:
Propiedades de ki :
i. Las ki son no estocsticas, debido a que las X tampoco lo son.
ii.
ki
xi
2
xi
xi 0
xi 2
iii.
ki 2
xi 2 1
2
2
xi 2 xi
iv.
xi 2
xi 2
ki xi
( Xi X )
28
Econometra Moderna
ki Yi ki ( 0 1 X i i )
ki 0 ki 1 X i ki i
k i 1 k i X i k i i
0 (0) 1 (1) k i i
0
(2.31)
)
E (
1
1
k i i 1 k i E ( i )
k i (0)
(2.33)
Y 0 1 X
(2.34)
E (Y ) 0 E (1 X ) E ( ) 0 1 X
(2.35)
En adelante, de no indicar lo contrario, nos referiremos a la lnea de regresin muestral o estimada, esto es,
X i .
29
Econometra Moderna
E ( 0 ) ( 0 1 X ) E ( 1 ) X
0 1 X 1 X
E ( 0 ) 0
(2.36)
De esta manera queda comprobado que los estimadores mnimo cuadrticos de los
verdaderos parmetros, 0 y 1 , son insesgados.
2.3.2.
Ntese en las ecuaciones de los estimadores MCO (2.17) y (2.28), que la naturaleza aleatoria
de los mismos proviene de la variable endgena Y, la cul es estocstica debido a la inclusin
son una variable
del trmino de error en el modelo. Por consiguiente, los estimadores
aleatoria que provienen de una distribucin de probabilidad cuya esperanza matemtica es el
verdadero valor del parmetro lo que implica que es el valor con la mayor probabilidad de
ocurrencia. Adicionalmente a lo anterior, es preciso disponer tambin de medidas de dispersin
de los estimadores, de modo que se pueda juzgar el grado en que se aproximan al verdadero
valor del parmetro que se pretende estimar . De ese modo, y para efecto de contrastar si los
regresores cumplen con ciertas condiciones tericas mediante el anlisis de inferencia
y
estadstica, se hallar la expresin analtica de la varianza de cada uno de los estimadores
una medida de dependencia entre ellos, es decir la covarianza. As, y partiendo de la expresin
(2.32) tenemos:
ki i
1
ki i
1
1
(2.37)
2
Var ( 1 ) E 1 E ( 1 )
(2.38)
) E
2
Var (
1
1
1
(2.39)
k
i
E ( k1 1 k 2 2 ... k n n ) 2
E ( k12 12 k 22 22 ... k n2 2n 2 k1 k 2 1 2 ...2 k n 1 k n n 1 n )
(2.40)
La expresin anterior puede simplificarse si consideramos
homocedasticidad y no autocorrelacin. As tenemos que:
los
supuestos
de
30
Econometra Moderna
E ( k i k j i j ) k i k j E ( i j ) 0
ki2 2
xi2
2
xi2
( Xi X )2
(2.41)
) debemos partir de la
Por otro lado, para hallar la varianza del estimador del intercepto (
0
ecuacin de la lnea de regresin (2.18) y reemplazar la especificacin para la media de la
variable endgena (2.34) para obtener:
( X )
X
0
1
0
1
(
) X
0
1
0
1
1
1
(2.42)
ki i
k X
0
0
i i
) k X
(
0
0
i i
(2.43)
) E
2 E k X 2
Var (
0
0
0
i i
) E
Var (
0
ki i 2 X 2 ( ) 2 2 X ki i
(2.44)
Dado que el valor esperado afecta nicamente a las variables aleatorias, la expresin
anterior, puede representarse como:
2X
Var ( 0 ) X 2 E ( k12 12 ... k n2 2n ) E ( ) 2
E ( k1 12 ... k n 2n k1 1 2 ... k n n 1 n )
n
31
Econometra Moderna
) , sabemos que:
Por la demostracin de la varianza de (
1
2
E ( k12 12 ... k n2 2n )
1
( X i X) 2
y adems, por las propiedades de ki y por el supuesto de no autocorrelacin entre los errores, se
tiene que:
2
2
E ( k1 1
... k n 2
n k1 1 2 ..... k n n 1 n )
ki ki E ( i j ) 2 (0) (0) 0
Ahora, y a partir del tercer y cuarto supuesto del modelo de regresin lineal sabemos que:
E () 2 E
1
n2
( 12 22 ... 2n 1 2 ... n 1 n )
1
n2
n( 2 )
2
n
Dadas las expresiones anteriores, la varianza del estimador del intercepto se reduce a:
Var( 0 ) X 2 2
( X i X )2
2
2 X 2
( X i X )2 n
1
(2.45)
,
)E
E (
)
E (
)
Cov (
0
1
0
0
1
1
(2.46)
,
)E
( )
( )
Cov (
0
1
0
0
1
1
(2.47)
y tomando esperanzas:
E ( 0 ) Y E ( 1 X ) 4
(2.48)
0
1
0
1
(2.49)
Recurdese que
trmino independiente resulta tambin indispensable. Recurdese que el componente aleatorio de un modelo de
i 0 . As,
regresin lineal es ortogonal al componente determinstico y, en este sentido, se verifica que: 0
E (Y ) Y .
32
Econometra Moderna
,
) E X (
) 2
Cov (
0
1
1
1
) 2
XE (
1
1
(2.50)
(2.51)
xi2
( Xi X )2
X2
Var ( 0 ) 2
( Xi X )2
,
) X
Cov (
0
1
1
n
( Xi X )2
Ntese que las formulas anteriores pueden ser estimadas a partir de los datos muestrales
excepto por el elemento ( 2 ). Por ello, es preciso estimar mediante el mtodo de Mnimos
Cuadrados Ordinarios el valor de la varianza del modelo, pues como se recordar, la naturaleza
aleatoria de la variable endgena proviene del trmino de error, por lo que la varianza de Y
resulta igual a la varianza de .
2.3.3.
El clculo de las varianzas y covarianzas de los estimadores MCO del modelo lineal simple
es indispensable para conocer el grado de dispersin que presenta nuestro estimador. Sin
embargo, si deseamos tener una mayor confiabilidad en nuestro estimador deberamos tener
alguna certeza que dicha varianza es la menor posible 5. Eso es lo que analiza el Teorema de
Gauss-Markov.
El teorema en palabras simples establece lo siguiente: Los estimadores obtenidos por el
mtodo de Mnimos Cuadrados Ordinarios resultan los mejores estimadores lineales e
insesgados (MELI) pues poseen la mnima varianza entre todas las clases de estimadores
lineales e insesgados.
puede escribirse como:
Para verificar esta propiedad, recordemos que el estimador MCO
1
1
5
ki Yi ki ( 0 1 X i i )
33
Econometra Moderna
vi Yi
(2.55)
De este modo, vi representa las nuevas ponderaciones, las que no necesariamente presentan
las mismas propiedades de ki . Teniendo esto presente, pasemos a comprobar si este nuevo
estimador cumple con la propiedad de insesgamiento:
~
E ( 1 ) E
vi Yi vi E (Yi )
vi E ( 0 1 X i i )
vi
vi X i
As, para que el nuevo estimador sea insesgado se debe cumplir que:
vi
(2.56)
vi X i
(2.57)
Ntese que las dos expresiones precedentes son iguales a las propiedades de ki, enunciadas
anteriormente. Ahora, reemplazando la ecuacin (2.55) en la frmula de la varianza del
estimador, se tiene:
vi Yi
vi2VarYi
~
Var ( 1 ) Var
~
Var ( 1 ) 2
2
i
(2.58)
Con el fin de escribir la expresin anterior en trminos ms conocidos, hagamos el siguiente
artificio:
v
i
xi
v
i
x i
2
2
i
2 2
x i
2
xi
xi
xi
v
i
xi
2 2
xi
xi
x i
x i
2
2
i
2
i
xi
xi
2
i
2
i
34
Econometra Moderna
v
i
xi
xi 2
vi xi
xi 2
vi
xi 2
xi 2 xi 2 2 xi 2 xi 2 2
xi
xi
xi
xi 2
xi 2
~
Este resultado se obtiene debido a que el estimador 1 es insesgado y por tanto se cumplen
~
las condiciones (2.56) y (2.57). Resumiendo, la varianza de 1 se expresa como:
~
Var ( 1 ) 2
xi
2
x i
2
x i
vi
xi
xi 2
ki
~
, ya que la
La expresin anterior nos indica que la varianza de 1 es mayor a la de
1
nica forma de obtener un estimador de mnima varianza es utilizando las ponderaciones ki. As,
el estimador MCO posee la mnima varianza entre todos los dems estimadores lineales e
~
,
1
1
1
35
Econometra Moderna
En la figura 2.1, las distribuciones muestrales de ambos estimadores estn superpuestas con
el fin de escoger el mejor predictor o estimador. Ambas distribuciones estn centradas en el
verdadero valor evidenciando la insesgabilidad de ambos estimadores. El mejor estimador ser
aquel que posea mayor probabilidad de acercarse a 1 , lo que se cumple cuando la distribucin
de probabilidad del estimador est menos dispersa alrededor del valor de su media, es decir
cuando presenta una menor varianza. Dado lo anterior, resulta sencillo verificar que el estimador
obtenido por el mtodo MCO (aquel cuya distribucin se presenta con una lnea continua) es el
mejor estimador lineal insesgado ya que posee la mnima varianza, y as su distribucin presenta
una mayor probabilidad asociada a su valor medio.
Un hecho que debe destacarse es que para que se verifique el teorema de Gauss-Markov es
necesario que se cumplan del segundo al quinto supuesto de los mencionados en el captulo 1 6.
Estos, como ya mencionamos llevan el nombre de condiciones de Gauss-Markov. Si algunos de
dichos supuestos falla, ya no es vlido el teorema por lo que el estimador MCO ya no ser el de
mnima varianza y deber buscarse la forma de transformar los datos o incluir ciertas
condiciones para que se restablezcan estas condiciones a fin de poder seguir utilizando nuestro
estimador MCO.
Figura 2.1
Estos en esencia nos dicen que la esperanza matemtica de los errores es igual a cero, que no existe ni
autocorrelacin ni heterocedasticidad y que los regresores fijos no estn correlacionados con el trmino de error.
36
Econometra Moderna
(2.18)
el trmino de error desaparece debido a que el promedio de los mismos es cero y por tanto
su sumatoria tambin lo ser.
2. En promedio, el valor estimado de la variable endgena es igual a la media del valor
observado de dicha variable.
Este resultado se puede comprobar fcilmente, partiendo de la ecuacin de la funcin de
regresin muestral y haciendo algunas operaciones algebraicas, tal como se detalla a
continuacin:
Yi 0 1 X i
(2.19)
(2.20)
(2.21)
Se puede comprobar fcilmente que la suma de las desviaciones de una variable, (llmese
dependiente o independiente), con respecto a su media muestral es siempre igual a cero, de
modo que:
(2.22)
(X i X ) 0
As podemos reexpresar la ecuacin (2.21) de la forma:
Yi nY
(2.23)
(2.24)
Recurdese que el proceso de minimizacin que nos permiti estimar los coeficientes de
regresin gener dos ecuaciones (llamadas ecuaciones normales). La primera de ellas (2.6) es la
representacin de esta propiedad7:
7
De hecho, la presencia de un intercepto o trmino independiente resulta crucial para la validez de esta propiedad, tal
como se verificar posteriormente. Ntese, adems, que la comprobacin de esta propiedad est basada en la
ecuacin normal del intercepto.
37
Econometra Moderna
ei
Por otro lado, y si trabajamos con las expresiones anteriores, tenemos que:
ei (Yi 0 1 X i )
ei Yi Yi
ei
Y Y 0
n
(2.25)
Lo anterior, garantiza que el mtodo de MCO cumple con el supuesto de ortogonalidad entre
la parte explicada del modelo de regesin lineal simple y la parte no explicada. Formalmente:
Yi ei 0
(2.26)
Para demostrar esta propiedad basta reemplazar la funcin de la lnea de regresin muestral
(1.18) en la expresin anterior:
( 0 1 X i ) ei 0 ei 1X i ei
0 ei 1 X i ei 0
(2.27)
Ntese que en (2.27) los coeficientes de regresin (el intercepto y la pendiente) estn
multiplicados por la primera y segunda ecuacin normal, respectivamente. Como resultado del
proceso de minimizacin se tiene que dichas ecuaciones son idnticas a cero, por lo que queda
demostrado que la parte predicha o estimada del modelo no guarda relacin alguna con la parte
no explicada o estocstica.
Hasta el momento hemos estimado nicamente los parmetros del modelo propuesto pero
an nos queda la estimacin de una ltima magnitud: la varianza del error. Ntese que hasta el
2
momento cuando obtuvimos la varianza de los estimadores el trmino sta qued
8
En este caso la presencia de un trmino independiente tambin resulta indispensable ya que, de otra forma, no sera
posible realizar la sustitucin propuesta en (2.20).
38
Econometra Moderna
expresado en trminos tericos. Para poder estimar la varianza de los parmetros y la propia
varianza de la variable dependiente necesitamos un estimador de esta magnitud.
Una de las formas ms utilizadas para la estimacin de la varianza del error parte del modelo
terico y de su representacin en promedios muestrales:
Yi 0 1 X i i
Y 0 1 X
yi 1 x i i
(2.52)
1 i
ei ( 1 1 ) xi i
As, elevando al cuadrado y sumando a ambos lados, resulta:
ei2 ( 1 1 ) 2 xi2 2( 1 1 ) xi ( i ) ( i ) 2
y, tomando valores esperados se tiene:
E(
ei2 ) E ( 1 1 ) 2 xi2 E 2( 1 1 ) xi ( i ) E ( i ) 2
(2.53)
E ( 1 1 )
n
xi ( i ) E
k j
j 1
x
(
)
j
i
i
j 1
k i xi E i ( i ) 2
xi2
xi2
39
Econometra Moderna
( i ) 2 i2 2 i 2
2
i2
n
i2 n i
1
y tomando esperanzas:
E
) 2 n 2 2 ( n 1) 2
e
2
i
2 2 ( n 1) 2 (n 2) 2
2 ) E
E (
ei2
n2
1
E
n2
(2.54)
e n 1 2 (n 2)
2
i
Por consiguiente, el estimador MCO de la varianza del error para el modelo lineal simple
viene dado por la siguiente expresin:
N
2
i
i 1
(2.55)
N 2
Para el clculo del r2 se debe partir del modelo de regresin emprico, el cul puede
escribirse de dos formas:
Yi 0 1 X i ei
40
Econometra Moderna
yi y i ei
En la expresin anterior, resulta indiferente escribir ei o (ei e ) , pues recurdese que
e 0 por la primera ecuacin normal. Luego, elevando dicha expresin al cuadrado y tomando
sumatorias, se tiene:
(2.59)
Podemos expresar la ecuacin anterior de modo tal que resulte ms conocida en trminos
estadsticos9:
(2.60)
Cada una de las expresiones anteriores estn relacionadas con sus respectivas varianzas.
Segn ello, podemos descomponer la varianza de la variable endgena en dos partes: una
explicada por el modelo a travs de la regresin lineal estimada y otra que el modelo no es
capaz de explicar debido a su naturaleza estocstica. Pasemos ahora a definir los componentes
de la expresin (2.59):
ei2 ,
Ahora, y dado que se busca medir el grado en que nuestro modelo recoge el comportamiento
de la variable endgena, nuestra medida de bondad de ajuste (r2 ) vendra dada por el cociente
entre la SEC (variacin de Y explicada por el modelo) y la STC (variacin registrada para la
variable explicada):
2
2
2
) y
i2
y i e i
ei
Var ( Y
i
1
2
2
Var ( Yi ) y 2
yi
yi
i
(2.61)
Una condicin necesaria para que se cumpla (2.60) es que el modelo incorpore un intercepto. De otro modo no se
podr afirmar que e 0 ya que no habra una ecuacin normal asociada a este trmino.
41
Econometra Moderna
xi2 2 xi2
1
2
yi
yi2
12
Var ( X )
12
Var (Y )
x i yi 2
xi2 yi2
Yi
ei = Debido al residuo
Yi 0 1 X i
Total= (Yi Y )
Yi
(Yi Y ) = Debido a la regresin
42
Econometra Moderna
Xi
Figura 2.2
La variacin de la variable endgena es la suma de dos componentes
La figura 2.2 ilustra lo que hemos derivado de manera matemtica. La lnea continua sobre el
eje horizontal refleja el valor promedio de la variable dependiente Y. El trmino Yi refleja una
observacin de la misma variable. La distancia vertical entre este punto y la lnea del promedio
nos muestra la desviacin total de Yi con respecto a su media (lo que equivale a la suma total de
cuadrados si tomamos en cuenta a todas las observaciones). Como vemos esta distancia vertical
la podemos descomponer en dos partes. La primera de ellas est relacionada con el segmento
que parte de la lnea de regresin estimada y va hasta la lnea del promedio (Yi Y ) . Esta es
la desviacin explicada por la regresin. El segmento restante representa aquella parte que no
es explicada por la regresin y por tanto se relaciona con el residuo ( Yi Yi ).
2.6.2
1. Es un nmero no negativo. Para demostrarlo basta recordar que ste simboliza el cociente
entre dos sumas de cuadrados. Sin embargo, se debe advertir que en los casos en los que no
se especifique un intercepto en el modelo, el r2 podra resultar negativo y por tanto no
debera tomarse en consideracin10. Por ello, es preciso hallar el coeficiente de
determinacin ajustado o corregido, el cul se estudiar en el siguiente captulo.
2. Puede tomar valores entre cero y uno, (0 r 2 1) Qu pasara si r 2 fuese cero? No
existira ninguna relacin entre la variable endgena y la explicativa y, por tanto, el
) sera igual a cero y se obtendra
estimador de la pendiente de la variable explicativa (
1
una la lnea de regresin horizontal al eje X.
3. No tiene unidades de medida. Recurdese que es una proporcin, siendo, por tanto, un
nmero puro.
10
Recurdese que slo s se incluye un intercepto se cumple que STC = SEC + SRC.
43