You are on page 1of 6

Correlacin y Regresin Lineal Simple

1. Correlacin Lineal Simple Introduccin:Al trabajar con dos variables cuantitativas podemos estudiar la relacin que existe entre ellas mediante la correlacin y la regresin. Aunque los clculos de ambas tcnicas pueden ser similares en algunos aspectos e incluso dar resultados parecidos, no deben confundirse. En la correlacin tan solo medimos la direccin y la fuerza de la asociacin de una variable frente a la otra, pero nunca una relacin de causalidad. Solo cuando tenemos una variable que es causa o depende de otra, podremos realizar entonces una regresin. En este captulo estudiaremos dos de los coeficientes de correlacin ms utilizados, como el coeficiente de Persson y el coeficiente no paramtrico de Spearman. Tambin veremos un ejemplo de regresin lineal simple y cmo se deben interpretar sus resultados. Coeficiente de correlacin de Persson (r): Si tenemos dos variables cuantitativas y deseamos medir el grado de asociacin podemos utilizar el coeficiente de correlacin de Persson. En primer lugar, es muy aconsejable realizar un grfico de dispersin entre ambas variables y estudiar visualmente la relacin entre ellas. Este coeficiente mide asociacin lineal y al ser una prueba paramtrica requiere para su uso que ambas variables tengan distribuciones normales1. De no ser as, deberemos utilizar el coeficiente no paramtrico de Spearman. El coeficiente de correlacin de Persson (r) puede tomar valores entre -1 y +1, de modo que un valor de r positivo nos indica que al aumentar el valor de una variable tambin aumenta el valor de la otra (Figura 1A), y por el contrario, r ser negativo si al aumentar el valor de una variable disminuye la otra (Figura 1B). La correlacin ser perfecta si r= 1, en este caso los puntos formarn todos una recta. Es importante a priori determinar qu valor de r vamos a considerar como clnicamente relevante, puesto que una correlacin tan baja como r= 0,07 sera significativa (p=0,027) con un tamao muestral de unas 1000 personas. Al igual que cualquier otro parmetro, conviene darlo con sus correspondientes intervalos de confianza. Un coeficiente de correlacin significativo, lo nico que nos indica es que es bastante improbable que en nuestra poblacin r sea cero, y por tanto su intervalo de confianza no incluir el cero. Figura 1. El coeficiente de correlacin de Persson. A B

Coeficiente de correlacin no paramtrico de Spearman (rho) Al igual que el coeficiente de Pearson, tambin podemos utilizarlo para medir el grado de asociacin entre dos variables cuantitativas, sin embargo no es necesario que ambas variables sean normales, e incluso lo podemos utilizar en variables ordinales. Como todas las pruebas no paramtricas, este coeficiente se construye sustituyendo los valores de las variables por sus rangos o posiciones, si los valores de las variables fuesen ordenados de menor a mayor. Al contrario de otras pruebas no paramtricas, si permite construir intervalos de confianza 1.

La interpretacin de este coeficiente es muy similar al de Pearson, pudiendo alcanzar valores de entre -1 y +1 indicando asociacin negativa o positiva respectivamente. Tanto el coeficiente r de Pearson como el coeficiente rho de Spearman, son medidas adimensionales por lo que no poseen unidades. Usos incorrectos de los coeficientes de correlacin Ambos coeficientes, tanto el de Pearson, como el de Spearman, requieren que las observaciones sean independientes, por lo que no debemos aplicar una correlacin entre dos variables en los que tuviramos medidos pacientes de forma repetida. El encontrar una asociacin significativa no indica que una variable sea la causa y que la otra el efecto. La correlacin nunca mide una relacin causa-efecto. Adems, no distingue entre variable dependiente e independiente y por tanto la correlacin de la variable x frente a la variable y es la misma que la de la variable y frente a x 1. Esto no sucede as en la regresin. Siempre hay que tener mucho cuidado con la interpretacin de un coeficiente de correlacin puesto que otras variables, llamadas de confusin, pueden ser las causantes reales de la asociacin. Esto sucede cuando dos variables independientes entre s dependen ambas de una tercera. Por ejemplo est demostrado que en los nios, existe una correlacin positiva entre el tamao del pie y su capacidad para sumar. Sin embargo lo que en realidad sucede es que los nios con mayor pie, son tambin los de mayor edad y por tanto los que mejor suman. Este tipo de correlaciones se denominan espreas o engaosas y nos pueden llevar a conclusiones errneas. Tambin hay que advertir a aquellos investigadores que tengan la tentacin de correlacionar un nmero grande de variables cuantitativas con el nico objetivo de a ver si encuentro algo. Aparte de tener una difcil justificacin este modo de actuar, si cruzramos solo 20 variables todas ellas independientes, tendramos hasta 190 pares de variables en los que estudiar la correlacin, y slo por azar, es de esperar aproximadamente unas 9 10 como significativas. Es decir, el 5% de las correlaciones realizadas serian significativas con una p<0,05, cometiendo un error tipo I al afirmar que hay asociacin cuando en realidad no la hay (ver captulo I). Para evitarlo, podramos utilizar para cada p la correccin de Bonferroni. Tampoco debemos utilizar la correlacin para evaluar la concordancia entre dos medidas cuantitativas, siendo aconsejables otros ndices como el coeficiente de correlacin intraclase y otra serie de tcnicas.

2. Regresin lineal simple


Si deseamos estudiar la relacin entre dos variables cuantitativas y adems una de ellas puede considerarse como variable dependiente o respuesta podemos considerar el uso de la regresin lineal simple. Con la regresin, aparte de medir el grado de asociacin entre las dos variables, podremos realizar predicciones de la variable dependiente. Veamos un ejemplo de regresin lineal simple y cmo se interpretaran sus resultados. Dependiendo del programa estadstico utilizado, pueden variar la cantidad de informacin y el formato de las salidas, aunque los resultados van a ser los mismos as como su interpretacin. Supongamos que deseemos estudiar la asociacin entre el volumen mximo expirado en el primer segundo de una expiracin forzada (FEV1) y la talla medida en centmetros de un grupo de 170 adolescentes de edades comprendidas entre los 14 y los 18 aos (Tabla I). Tabla I. Ejemplo en 170 adolescentes. N 1 2 FEV1 (litros) 3,46 4,55 Altura (cm.) 171 172

3 4 5 6 168 169 170

4,53 4,59 3,67 4,71 4,38 5,06 3,06

182 179 173 180 177 184 152

FEV1: Volumen espiratorio forzado en el primer segundo. En primer lugar debemos realizar un grfico de dispersin como el de la Figura 2A y estudiar visualmente si la relacin entre nuestra variable dependiente (FEV 1) y nuestra variable independiente (talla) puede considerarse lineal 4. Por convenio, se coloca la variable dependiente en el eje Y de las ordenadas y la variable independiente en el eje X de las abscisas. Si no observamos un comportamiento lineal, debemos transformar la variable dependiente o incluso replantearnos el tipo de anlisis, ya que es posible que la relacin entre ambas variables en caso de existir, pueda no ser lineal. En nuestro ejemplo, si parece cumplirse una relacin lineal entre FEV 1 y la talla. Si calculsemos el coeficiente de correlacin de pearson nos dara un resultado de 0,86 (IC95%: 0,82; 0,90), indicando que la asociacin es positiva y por tanto valores altos de FEV 1 se corresponden a su vez con valores altos de talla. Sin embargo slo con la correlacin no tendramos la suficiente informacin si quisiramos hacer predicciones de los valores de FEV 1 en funcin de la talla. El objetivo de la regresin lineal simple es encontrar la mejor recta de ajuste de entre todas las posibles dentro de la nube de puntos de la Figura 2A. La mejor recta de ajuste ser aquella que minimice las distancias verticales entre cada punto y la recta, calculndose normalmente por el mtodo de mnimos cuadrados (Figura 2B) 1, 5. De este modo conseguiremos una ecuacin para la recta de regresin de Y (variable dependiente) en funcin de X (variable independiente) de la forma Y=a+bX. En nuestro ejemplo, el problema radica en estimar a (constante de la recta) y b (pendiente de la recta) de modo que podamos construir la ecuacin o recta de regresin: FEV1=a+b Talla que minimice esas distancias. Figura 2. Grfico de dispersin. A B

Cualquier programa estadstico nos debe dar al menos tres informaciones bsicas: Valor de R cuadrado: En la regresin lineal simple, se trata del coeficiente de correlacin de Pearson elevado al cuadrado. Se le conoce por coeficiente de determinacin y siempre ser un valor positivo entre 0 y 1. En nuestro ejemplo (Tabla I)

la R cuadrado es de 0,75 lo cual significa que nuestra variable independiente (talla en cm) es capaz de explicar hasta un 75% de la variabilidad observada en nuestra variable dependiente (FEV1). ANOVA de la regresin: Se descompone por un lado, en la suma de cuadrados explicada por la recta de regresin y por otro, en la suma de cuadrados no explicada por la regresin, denominada residual. La suma de ambas es lo que se llama suma de cuadrados totales. Por tanto, cuanto mayor sea la suma de cuadrados de la regresin respecto a la residual, mayor porcentaje de variabilidad observada podemos explicar con nuestra recta de regresin. Si la tabla presenta un resultado significativo (p<0,05) rechazaramos la hiptesis nula que afirma que la pendiente de la recta de regresin es 0. Coeficientes de la regresin: Los coeficientes estimados a (constante de la recta) y b (pendiente de la recta) que en nuestro ejemplo sera FEV1 (litros)= -8,387 + 0,073*TALLA (cm.) (Tabla II). En nuestra tabla, no solo aparecen los coeficientes, sino sus intervalos de confianza, y adems el valor de beta que no es mas que el coeficiente b estandarizado y que en la regresin lineal simple coincide con el coeficiente de correlacin de Pearson. El valor positivo de b (0,073) nos indica el incremento de FEV1 por cada centmetro en la talla. Para un adolescente de 170 cm. de altura podramos esperar un valor de FEV1 de 0,073*170-8,387 que dara como resultado 4,03.

Tabla II. Coeficientes estimados de la recta de regresin.


Constante (a) TALLA (b) B -8,387 0,073 Error tp. 0,552 0,003 Beta 0,864 p <0,001 <0,001 IC 95% (-9,476; -7,298) (0,066; 0,079)

IC95%: Intervalo de confianza del 95% Despus de realizar el anlisis hay que asegurarse de que no se violan las hiptesis en las que se sustenta la regresin lineal: normalidad de la variable dependiente para cada valor de la variable explicativa, independencia de las observaciones muestrales, y la misma variabilidad de Y para cada valor de nuestra variable independiente. Toda esta informacin se puede extraer estudiando el comportamiento de los residuos, es decir, la diferencia entre los valores observados y los pronosticados por nuestra recta de regresin. La Figura 3A es un histograma de frecuencias en el que se han normalizado o tipificado los residuos de modo que su media es 0 y su varianza 1. Como podemos observar su distribucin es similar a una distribucin normal. Otro grfico muy interesante es el de la Figura 3B, en el que se han colocado en el eje X los valores pronosticados por la regresin ya tipificados y en el eje Y, los residuos tambin tipificados. Los puntos han de situarse de forma aleatoria sin ningn patrn de comportamiento, porque en caso contrario, es muy posible que estemos violando alguno de los supuestos de la regresin lineal simple. Figura 3. Grfico de residuos.

You might also like