You are on page 1of 4

Ajustes de Curva

Anlisis de Regresin y Correlacin


Existen dos mtodos generales para el ajuste de curvas que se distinguen
entre s al considerar la cantidad de error asociado con los datos. Primero, si los
datos exhiben un grado significativo de error o ruido, la estrategia ser
obtener una sola curva que represente la tendencia general de los datos. Como
cualquier dato individual puede ser incorrecto, no se busca intersecar todos los
puntos. En lugar de esto, se construye una curva que siga la tendencia de los
puntos tomados como un grupo. Un procedimiento de este tipo se llama
regresin por mnimos cuadrados. Segundo, si se sabe que los datos son muy
precisos, el procedimiento bsico ser colocar una curva o una serie de curvas
que pasen por cada uno de los puntos en forma directa. Usualmente tales
datos provienen de tablas. Como ejemplos se tienen los valores de la densidad
del agua o la capacidad calorfica de los gases en funcin de la temperatura. La
estimacin de valores entre puntos discretos bien conocidos se llama
interpolacin.
La regresin por mnimos cuadrados requiere la informacin en el campo de la
estadstica tales como los conceptos de la media, desviacin estndar, suma
residual de los cuadrados, distribucin normal e intervalos de confianza.

Regresin Lineal: El ejemplo ms simple de una aproximacin por


mnimos cuadrados es ajustar una lnea recta a un conjunto de
observaciones definidas por puntos: (x1, y1), (x2, y2),, (xn, yn). La
expresin matemtica para la lnea recta es
y = a0 + a1x + e
Una estrategia para ajustar una mejor lnea a travs de los datos ser
minimizar la suma de los errores residuales de todos los datos
disponibles, como sigue:
Donde n = nmero total de puntos. Sin
embargo, ste es un criterio inadecuado, la
cual presenta el ajuste de una lnea recta de
dos puntos. Obviamente, el mejor ajuste es la

lnea que une los puntos.


Ajuste de una lnea recta por el mtodo de los mnimos
cuadrados
La estrategia que supera las deficiencias de los procedimientos
mencionados consiste en minimizar la suma de los cuadrados de los
residuos entre la y medida y la y calculada con el modelo lineal:

Para determinar los valores de a0 y a1, la ecuacin (17.3) se deriva con


respecto a cada
uno de los
coeficientes:

Al igualar estas derivadas a cero, se dar como resultado un Sr mnimo.


Si se hace esto, las ecuaciones se expresan como:

Ahora, si observamos que a0 = na0, expresamos las ecuaciones como


un conjunto de dos ecuaciones lineales simultneas, con dos incgnitas:

Donde podemos simplificar de la siguiente manera:

Y,
Se conoce r2 como el coeficiente de determinacin y r es el coeficiente
de correlacin. En un ajuste perfecto, S r = 0 y r = r2 = 1, significa que la
lnea explica el 100% de la variabilidad de los datos. Si r = r 2 = 0, Sr = St
el ajuste no representa alguna mejora. Una representacin alternativa
para r que es ms conveniente para implementarse en una computadora
es:

De esta manera r= 0.932 y r2 =


0.868

Linealizacin de relaciones no lineales:


Para obtener r y r2 de manera ms fcil usamos la forma linealizada
Modelo
Exponenc
ial

Expresin

Linealizacin

Potencial

Considerando
Se puede volver a
expresar como un
exponencial solo al
multiplicar por Euler.
Para expresar en su
forma potencial 2
conserva el mismo
valor que en su
forma linealizada, y
2 se obtiene con la
formula :

2=10 2(linealizado)
para basarnos en la frmula vista en la regresin lineal.

Regresin Polinomial:

El procedimiento de mnimos cuadrados se puede extender fcilmente al


ajuste de datos con un polinomio de grado superior. Por ejemplo, suponga
que ajustamos un polinomio de segundo grado o cuadrtico:

En este caso, la suma de los cuadrados de los residuos es:

Al seguir el procedimiento de la seccin anterior, obtenemos la derivada de


la ecuacin con respecto a cada uno de los coeficientes desconocidos del
polinomio,

Estas
ecuaciones se
igualan a cero y
se reordenan para
desarrollar el siguiente conjunto de ecuaciones normales:

Estas ecuaciones son fcilmente resueltas por algunos mtodos


numricos ya antes vistos.

You might also like