You are on page 1of 33

ESTADISTICA GENERAL

Unidad IV: Regresin lineal y Correlacin

Relaciones entre variables y regresin

El trmino regresin fue introducido por Galton en su libro Natural inheritance (1889) refirindose a la ley de la regresin universal:

Cada peculiaridad en un hombre es compartida por sus descendientes, pero en media, en un grado menor.

Regresin a la media

Su trabajo se centraba en la descripcin de los rasgos fsicos de los descendientes (una variable) a partir de los de sus padres (otra variable). Pearson (un amigo suyo) realiz un estudio con ms de 1000 registros de grupos familiares observando una relacin del tipo: Francis Galton

Altura del hijo = 85cm + 0,5 altura del padre (aprox.) Conclusin: los padres muy altos tienen tendencia a tener hijos que heredan parte de esta altura, aunque tienen tendencia a acercarse (regresar) a la media. Lo mismo puede decirse de los padres muy bajos.

Primo de Darwin Estadstico y aventurero Fundador (con otros) de la estadstica moderna para explicar las teoras de Darwin.

Hoy en da el sentido de regresin es el de prediccin de una medida basndonos en el conocimiento de otra.

Estudio conjunto de dos variables

A la derecha tenemos una posible manera de recoger los datos obtenido observando dos variables en varios individuos de una muestra.

En cada fila tenemos los datos de un individuo Cada columna representa los valores que toma una variable sobre los mismos.

Altura en cm.
162

Peso en Kg.
61

154
180 158 171 169 166

60
78 62 66 60 54

Las individuos no se muestran en ningn orden particular.

Dichas observaciones pueden ser representadas en un diagrama de dispersin (scatterplot). En ellos, cada individuos es un punto cuyas coordenadas son los valores de las variables. Nuestro objetivo ser intentar reconocer a partir del mismo si hay relacin entre las variables, de qu tipo, y si es posible predecir el valor de una de ellas en funcin de la otra.

176
163 ...

84
68 ...

Diagramas de dispersin o nube de puntos


Tenemos las alturas y los pesos de 30 individuos representados en un diagrama de dispersin.

100 90 80 70 60
Pesa 50 kg. Mide 187 cm. Pesa 76 kg.

50 40 30 140 150 160 170 180


Mide 161 cm.

190

200

Ejemplo

Los datos corresponde a la estatura del padre (X) y la estatura del su hijo mayor (Y) para una muestra de padres e hijos son los siguientes:
Altura Padre
1.65 1.60 1.70 1.63 1.73 1.57 1.78 1.68 1.73 1.70 1.75 1.80

Altura Hijo
1.73 1.68 1.73
Altura Hijo
1,82 1,8 1,78 1,76 1,74 1,72 1,7 1,68 1,66 1,64 1,55

Diagrama de Dispersin de Alturas registradas de Padres e Hijos

1.65 1.75 1.68 1.73 1.65 1.80 1.70 1.73 1.78

1,6

1,65

1,7

1,75

1,8

1,85

Altura Padre

Relacin entre variables.


Tenemos las alturas y los pesos de 30 individuos representados en un diagrama de dispersin.

100 90 80 70 60 50 40 30 140 150 160 170 180 190 200

Prediccin de una variable en funcin de la otra.


Aparentemente el peso aumenta 10Kg por cada 10 cm de altura... o sea, el peso aumenta en una unidad por cada unidad de altura.

100 90 80 70 60 50 40 30 140 150 160


10 cm. 10 kg.

170

180

190

200

Cmo reconocer relacin directa e inversa.


330 280 230 180 130 80 30

100

Incorrelacin

90 80 70 60 50 40 30

Fuerte relacin directa.

140

150

160

170

180

190

200

140

150

160

170

180

190

200

Para valores de X por encima de la media tenemos valores de Y por encima y por debajo en proporciones similares. Incorrelacin.

Para los valores de X mayores que la media le corresponden valores de Y mayores tambin. Para los valores de X menores que la media le corresponden valores de Y menores tambin.

80 70 60 50 40 30 20 10 0 140 150 160 170 180 190 200

Cierta relacin inversa

Esto se llama relacin directa o creciente entre X e Y. Para los valores de X mayores que la media le corresponden valores de Y menores. Esto es relacin inversa o decreciente.

Cmo reconocer buena o mala relacin


330 280 230 180 130 80 30 140 150 160 170 180 190 200

100

Poca relacin

90 80 o 70 60

Fuerte relacin directa.

50

o
140 150 160 170 180 190 200

o30
Conocido X sabemos que Y se mueve por una horquilla estrecha. Buena relacin. Lo de horquilla estrecha hay que entenderlo con respecto a la dispersin que tiene la variable Y por si sola, cuando no se considera X.

40

Dado un valor de X no podemos decir gran cosa sobre Y. Mala relacin. Independencia.

80 70 60 50 40 30 20 10 0 140 150 160 170 180 190 200

Cierta relacin inversa

Covarianza de dos variables X e Y

La covarianza entre dos variables, Sxy, nos indica si la posible relacin entre dos variables es directa o inversa.

Directa: Sxy >0 Inversa: Sxy <0 Incorreladas: Sxy =0

1 S xy ( xi x )( yi y ) n i

El signo de la covarianza nos dice si el aspecto de la nube de puntos es creciente o no, pero no nos dice nada sobre el grado de relacin entre las variables.

Mtodo de Mnimos Cuadrados

Clculo de los coeficientes de regresin lineal:

B1

SC xy SC x
2

B0 y B1 x
2

SCx x

( x ) n

SCxy xy

( x )( y ) n

Ejemplo

Los datos corresponde a la estatura del padre (X) y la estatura del su hijo mayor (Y) para una muestra de padres e hijos son los siguientes:
Estud. Calificacin en matemtica Pre Univ. (X) Calificacin en matemtica Universidad (Y)

1
2

53
35

76
57

3
4 5 6 7 8 9 10

76
29 48 58 65 22 44 40

99
74 90 93 83 53 79 66

Coef. de correlacin lineal de Pearson

La coeficiente de correlacin lineal de Pearson de dos variables, r, nos indica si los puntos tienen una tendencia a disponerse alineadamente (excluyendo rectas horizontales y verticales).

tiene el mismo signo que Sxy por tanto de su signo obtenemos el que la posible relacin sea directa o inversa. r es til para determinar si hay relacin lineal entre dos variables, pero no servir para otro tipo de relaciones (cuadrtica, logartmica,...)

S xy SxS y

Propiedades de r

Es adimensional Slo toma valores en [-1,1] Las variables son incorreladas r=0 Relacin lineal perfecta entre dos variables r=+1 o r=-1

Excluimos los casos de puntos alineados horiz. o verticalmente.

Cuanto ms cerca est r de +1 o -1 mejor ser el grado de relacin lineal.

Siempre que no existan observaciones anmalas.


Relacin inversa perfecta Relacin directa casi perfecta

Variables incorreladas

-1

+1

Entrenando el ojo: correlaciones positivas


330 280 230 180 130 80 30 140 130 120 110 100 90 80 70 60 50 40 30 140 100 90 80 70 60 50

r=0,1
150 160 170 180 190 200

r=0,4
150 160 170 180 190 200

110 100 90 80 70 60 50 40 30 140 150 160 170 180

r=0,6
190 200

40 30 140 150 160 170 180

r=0,8
190 200

Entrenando el ojo: casi perfectas y positivas


100 90 80 70 60 50 40 30 140 100 90 80 70 60 50 40 30 140 150 160 170 180 150 160 170 180 100 90 80 70 60 50

r=0,9
190 200

40 30 140 150 160 170 180

r=0,99
190 200

r=1
190 200

Entrenando el ojo: correlaciones negativas


90 80 70 60 50 40 30 20 10 0 140

80 70 60 50 40 30 20

r=-0,5
150 160 170 180 190 200

10 0 140 80 70 60 50 40 30 20

r=-0,7
150 160 170 180 190 200

80 70 60 50 40 30 20 10 0 140

r=-0,95
150 160 170 180 190 200

10

r=-0,999
150 160 170 180 190 200

0 140

Preguntas frecuentes

Si r=0 eso quiere decir que no las variables son independientes? En la prctica, casi siempre s, pero no tiene por qu ser cierto en todos los casos. Lo contrario si es cierto: Independencia implica incorrelacin. Me ha salido r=12 la relacin es superlineal[sic]? Superqu? Eso es un error de clculo. Siempre debe tomar un valor entre -1 y +1. A partir de qu valores se considera que hay buena relacin lineal? Es difcil dar un valor concreto (mirad los grficos anteriores). Para este curso digamos que si |r|>0,7 hay buena relacin lineal y que si |r|>0,4 hay cierta relacin (por decir algo... la cosa es un poco ms complicada: observaciones anmalas,...)

Otros coeficientes de correlacin

Cuando las variables en vez de ser numricas son ordinales, es posible preguntarse sobre si hay algn tipo de correlacin entre ellas.
Disponemos para estos casos de dos estadsticos, aunque no los usaremos en clase: (ro) de Spearman (tau) de Kendall

Maurice George Kendall

No tenis que estudiar nada sobre ellos en este curso. Recordad slo que son estadsticos anlogos a r y que los encontrareis en publicaciones donde las variables no puedan considerarse numricas.
Charles Edward Spearman

Regresin

El anlisis de regresin sirve para predecir una medida en funcin de otra medida (o varias).
Y

= Variable dependiente
predicha explicada
predictora explicativa

= Variable independiente

Es

posible descubrir una relacin?


Y = f(X) + error
f es una funcin de un tipo determinado el error es aleatorio, pequeo, y no depende de X

Regresin

El ejemplo del estudio de la altura en grupos familiares de Pearson es del tipo que desarrollaremos en el resto del tema.

Altura del hijo = 85cm + 0,5 altura del padre (Y = 85 + 0,5 X)

Si el padre mide 200cm cunto mide el hijo?

Se espera (predice) 85 + 0,5x200=185 cm. Alto, pero no tanto como el padre. Regresa a la media.

Si el padre mide 120cm cunto mide el hijo?

Se espera (predice) 85 + 0,5x120=145 cm. Bajo, pero no tanto como el padre. Regresa a la media.

Es decir, nos interesaremos por modelos de regresin lineal simple.

Modelo de regresin lineal simple

En el modelo de regresin lineal simple, dado dos variables

Y (dependiente) X (independiente, explicativa)

buscamos encontrar una funcin de X muy simple (lineal) que nos permita aproximar Y mediante

= b0 + b1X b0 (ordenada en el origen, constante) b1 (pendiente de la recta)

Y e rara vez coincidirn por muy bueno que sea el modelo de regresin. A la cantidad

e=Y- se le denomina residuo o error residual.

En el ejemplo de Pearson y las alturas, l encontr:

= b 0 + b 1X

b0=85 cm (No interpretar como altura de un hijo cuyo padre mide 0 cm Extrapolacin salvaje! b1=0,5 (En media el hijo gana 0,5 cm por cada cm del padre.)

180 150 120 90 60 30 0


0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200 210 220

b1=0,5

b0=85 cm

La relacin entre las variables no es exacta. Es natural preguntarse entonces:

Cul es la mejor recta que sirve para predecir los valores de Y en funcin de los de X Qu error cometemos con dicha aproximacin (residual).
180 150 120 90 60 30 0
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200 210 220

b1=0,5

b0=85 cm

El modelo lineal de regresin se construye utilizando la tcnica de estimacin mnimo cuadrtica: Buscar b0, b1 de tal manera que se minimice la cantidad

i ei2

Se comprueba que para lograr dicho resultado basta con elegir:

SY b1 r SX

b0 y b1 x

Se obtiene adems unas ventajas de regalo El error residual medio es nulo La varianza del error residual es mnima para dicha estimacin.

Traducido: En trmino medio no nos equivocamos. Cualquier otra estimacin que no cometa error en trmino medio, si es de tipo lineal, ser peor por presentar mayor variabilidad con respecto al error medio (que es cero).

Que el error medio de las predicciones sea nulo no quiere decir que las predicciones sean buenas.
Hay que encontrar un medio de expresar la bondad del ajuste (bondad de la prediccin)
No importa. Con los dos ltimos clientes me equivoqu en +10 y +20. En trmino medio el error es cero.

Cometi un error de -30 en su ltima prediccin

Cmo medir la bondad de una regresin?


Imaginemos un diagrama de dispersin, y vamos a tratar de comprender en primer lugar qu es el error residual, su relacin con la varianza de Y, y de ah, cmo medir la bondad de un ajuste.

Interpretacin de la variabilidad en Y
En primer lugar olvidemos que existe la variable X. Veamos cul es la variabilidad en el eje Y. Y

La franja sombreada indica la zona donde varan los valores de Y. Proyeccin sobre el eje Y = olvidar X

Interpretacin del residuo


Fijmonos ahora en los errores de prediccin (lneas verticales). Los proyectamos sobre el eje Y. Se observa que los errores de prediccin, residuos, estn menos dispersos que la variable Y original. Cuanto menos dispersos sean los residuos, mejor ser la bondad del ajuste. Y

Bondad de un ajuste
Resumiendo: La dispersin del error residual ser una fraccin de la dispersin original de Y Cuanto menor sea la dispersin del error residual mejor ser el ajuste de regresin. Eso hace que definamos como medida de bondad de un ajuste de regresin, o coeficiente de determinacin a: Y

S R 1 S
2

2 e 2 Y

S e2 SY2

Resumen sobre bondad de un ajuste

La bondad de un ajuste de un modelo de regresin se mide usando el coeficiente de determinacin R2

R2 es una cantidad adimensional que slo puede tomar valores en [0, 1]

Para el alumno astuto: por qu?

Cuando un ajuste es bueno, R2 ser cercano a uno.

por qu?

Cuando un ajuste es malo R2 ser cercano a cero.

por qu?

A R2 tambin se le denomina porcentaje de variabilidad explicado por el modelo de regresin.

por qu? Difcil.

R2 puede ser pesado de calcular en modelos de regresin general, pero en el modelo lineal simple, la expresin es de lo ms sencilla: R2=r2

Es coherente lo dicho entonces sobre los valores de R 2?

Otros modelos de regresin

Se pueden considerar otros tipos de modelos, en funcin del aspecto que presente el diagrama de dispersin (regresin no lineal)
Incluso se puede considerar el que una variable dependa de varias (regresin mltiple).
140

recta o parbola?

150

160

170

180

190

200

recta o cbica?

140

150

160

170

180

190

200

Modelos de anlisis de regresin

1 variable explicativa
Simple Lineal

Modelos de regresin

2+ variables explicativas
Mltiple

No lineal

Lineal

No lineal

En clase slo tratamos el modelo de regresin lineal simple. En todos los dems la bondad del ajuste se mide usando R2
No ajustaremos modelos a mano. Usaremos para ello SPSS.

You might also like