You are on page 1of 89

Universidad Técnica Federico Santa María

Análisis y Diseño de Experimentos

Avanzado

Medición del Efecto de Variables y


Construcción de Modelos.

Departamento de Ingeniería Química y Ambiental


Medición del Efecto de Variables y
Construcción de Modelos

Los modelos estudiados previamente contienen variables


cualitativas, ahora veremos el caso de modelos con
variables cuantitativas.

Estos modelos pueden aprovechar la inherente continuidad


de estas últimas variables.
Modelos Matemáticos

Los datos por si solos no tienen significado, solo adquieren su


significado cuando se relacionan con un modelo conceptual
del fenómeno estudiado.

Dada la naturaleza discreta de los datos, muchas formas de


modelo pueden ajustarse a ellos, por lo que se requiere de un
conocimiento básico del fenómeno estudiado.
Ejemplo: ¿cuál es el mejor modelo?

12 12

Valor
Valor

6 6

0
0
0 12 24 36
0 12 24 36
Tiempo
Tiempo

12 12
Valor

Valor
6 6

0 0
0 12 24 36 0 12 24 36
Tiempo Tiempo
Modelos teóricos o prácticos
Modelos originados principalmente en base a consideraciones
teóricas (fenomenológicos).

Reacción de primer orden:

== si CA = CA(0) - CB

== ( ∞

−− ) y si para t = 0 CA(0) = CB∞∞

( )= ∞

(− ) −−
es la solución del modelo.

Donde: C: Variable dependiente


t : Variable independiente
k,CB∞∞ Constantes
Modelos Empíricos

Frecuentemente el mecanismo por el que se desarrolla un


proceso es más complejo y puede resultar complicada su
postulación y más aún su solución. En estos casos es
preferible aproximar a un modelo de estructura más simple,
aunque su aplicación se restrinja a ciertos límites.
Supongamos el análisis de una reacción para un rango de
temperaturas.

1.0 Se observa que es


0.9
posible aproximar la
0.8
0.7
η = 0.0077x + 0.2018
variable a una línea recta
0.6 en una rango de
VAria ble

temperatura.
0.5
0.4
0.3
0.2 η = 0.0061x + 0.068
0.1 η =α + β ⋅
0.0
0 25 50 75 100

η =α + β ⋅
Temperatura

Reactor 1 Reactor 2
Es posible agregar términos cuadráticos a la ecuación pero los
parámetros del modelo pierden el sentido físico adquirido en
el modelo lineal.

Para encontrar los parámetros bastaría realizar un diseño


factorial de 2*3.

Temperatura
Reactor
25 50 75
1 - - - - - -
2 - - - - - -

Es aconsejable realizar replicados en el experimento con el fin


de analizar la variabilidad del error experimental.
El Problema del Diseño Experimental

Problema básico: Decidir qué puntos experimentales


revelarán aspectos importantes del problema.

Si se conociera la forma de la respuesta no existiría


inconvenientes en la ubicación ubicación adecuada de los
puntos.

Pero justamente la forma de la respuesta es lo que se


desconoce y se desea averiguar.
Para romper este círculo la experimentación debe realizarse
en forma secuencial. La primera experiencia dará
información para el segundo experimento y así
sucesivamente.

En los casos de modelos teóricos hay suficiente información y


en los modelos empíricos existen limitantes de continuidad
que se pueden establecer con anterioridad.
En general el tipo de dependencia encontrada en la práctica
son de relaciones suaves (sin cambios abruptos) y similares
(caso 2 reactores).

Cuando no se dispone de un respaldo teórico para la


formulación de un modelo es conveniente realizar un barrido
dirigido. En otras palabras se requiere efectuar un diseño
factorial.
Con diseño factorial

C1
C2
T1 T2 T1 T2 T1 T2 T1 T2
Cat 1 Cat 2 Cat 1 Cat 2
Reactor 1 Reactor 2

Sin diseño experimental


¿Qué diseño experimental es mejor?
Aun si se dispone de un modelo teórico, es importante saber
ubicar los puntos donde nos entreguen la mayor información
posible.
1,2
Vemos que el
1,0
experimento 3 es
0,8 que entrega la
mejor información
VAriable η

0,6
en la estimación de
0,4
los parámetros de
0,2 la curva.

(− )
0,0
−− ββ ⋅⋅
-0,2
0 25 50 75 100
η=β
Temperatura

Exp1 Exp 2 Exp 3


Investigación Experimental

Realizar experiencias para cubrir todas las posibilidades de


combinación de efectos y después analizar los resultados es
un sistema poco eficiente de estudio.

Es preferible utilizar un método secuencial para así modificar


las futuras experiencias de acuerdo a lo ya observado.
Observación

De lo anterior surge un hecho esperable: El mejor diseño


experimental es aquel diseñado después de analizar los
resultados y el peor es aquel realizado al comienzo de la
investigación.
A medida que transcurre la investigación puede pasar que:

1- La ubicación general del espacio de variables cambie.


2- Cambio del subespacio de variables, eliminar algunas e
incorporar otras.
3- Cambio de escalas en algunas variables,
transformaciones.
4- El objetivo de la investigación puede cambiar.

En general no se recomienda utilizar más del 25% de los


fondos disponibles en el primer diseño.
Regresión Lineal

En general una variable puede ser descrita como µ =µ+ µ

Ahora si introducimos la posibilidad de cambios debidos a


otras variables cuyos valores han sido fijados
independientemente, x1,..., xk llegamos a un modelo del tipo

µ =η ( µ µ µ β )+ µ

donde β es el vector de parámetros.

Luego, µ ≈ (η µ σ )
Ejemplo

−− ββ ⋅⋅
Considere el siguiente modelo: µµ = µµ
+ µµ

100

80
VAriable η

60

40

20

0
0 25 50 75 100
Temperatura

Curva modelo Experimento


Cuál es el significado de eµ?

1- Error de medición.
2- Efecto de cualquier variable no considerada en el
modelo.
3- Modelo incorrecto.
4- Efecto de cualquier caso no considerado en el modelo.

El como se ajusten los modelos a los datos depende de las


suposiciones de la función de error.
Comúnmente los problemas pueden ser abordados mediante
dos métodos: Regresión lineal y no lineal.

Consideremos el siguiente modelo, ¿es lineal o no lineal?:

η = β + β + β
Si los parámetros son conocidos, el modelo es claramente no
lineal en la variable. Pero en el caso de estimación de los
parámetros (con xi conocidos) el modelo se transforma en uno
lineal en los parámetros, es decir:
η = ( )β + ( )β + ( )β

Entonces la linealidad o no linealidad en regresión se refiere a


los parámetros, pues éstos son las “variables” del modelo.
Test de Linealidad

Tomemos un modelo cualquiera, cuya expansión en Serie de


Taylor es la siguiente:

∂η ∂η
η =η + (β − β )+ + (β − β ) +
∂β ∂β

El modelo se considera lineal cuando ninguna de las derivadas


parciales esté en función de algún βi.
Ejemplo

Concentración inicial de reacción v/s concentración de


reactante. Modelo de primer orden.

η=β⋅

Datos Conc. X 1 3 3 4 6 6 7
Conc. Y 8 30 33 42 59 60 68

=β⋅ +
Se requiere estimar β. Para esto se puede utilizar el criterio de
mínimos cuadrados:

(β ) = ( µµ − η µµ ) = ( µµ −β⋅ µµ )
µµ== µµ==

Estimación por Mínimos Cuadrados


14000

12000

10000

8000
S( )

6000

4000

2000

0
0 2 4 6 8 10 12 14 16 18 20

β
Para la estimación lineal se puede encontrar el valor exacto
tomando:

∂ (β )
=
∂β
Siendo en este caso:

∂ (β )
∂β
= ( µµ −β µµ )(− ) =
µµ
µµ ==

Recuerde que se debe calcular la segunda derivada para


comprobar que el punto obtenido corresponde al mínimo
(2da derivada > 0).
βxµ) son normales a xµ
Puesto que los residuos (yµ-β
se tiene que el parámetro β puede ser calculado por:

µµ µµ ⋅
β = =
µµ

Siendo en el ejemplo:

β = =
El estimador de M.C. Para η en condición xµ será:

=β⋅ µµ = ⋅ µµ

¿Esto quiere decir que el modelo representa bien los datos?

Luego de encontrar el parámetro se debe comprobar si el


modelo es el adecuado. Esto implica realizar un análisis de
varianza y un test de razón de varianzas.
Partición del total Σ()2.

= ( − + )
= ( − ) + + ( − )
Residuos, lo Modelo, Ecuación
que queda tomado en normal de
después de cuenta por valor nulo
ajustar el el modelo
modelo
Interpretación de los residuos
Los residuos se descomponen en:

• Error puro: estimación de 2 desde replicados o anterior

• Falta de ajuste del modelo


Interpretación de los residuos

Si existen n mediciones con ki replicados cada uno, la


ecuación de la partición de Σ()2 se transforma en:

( − )= ( − + − )
== ==

( − )= ( − )+ ( − )+ ( ) (
− ⋅ − )
== == == == == ==

Error puro, Falta de Término


independiente ajuste nulo
del modelo
En el ejemplo replicamos en x3 y x6.

y: 30 33 = 31.5
y: 59 60 = 59.5
Error puro:
Σ()2 = (30-31.5)2 + (32-31.5)2 + (60-59.5)2 + (59-59.5)2 = 5
Grados de libertad = 1+1 = 2.

Residuos Σ(y- )2 = 15.5 con (n-p) grados de libertad (6)

Falta de ajuste = 15.5 – 5.0 = 10.5 con (6-2) = 4 grados de libertad

Varianza error puro = 2.5


Varianza por Falta de ajuste = 2.63
Test de falta de ajuste:

≈ ( )= =

El test indica que no existe evidencia por falta de ajuste.


Si no existen replicados y se dispone de una estimación
externa de σ2 es posible utilizar s2 con grados de libertad y
comparar
≈ (γ γ )

Modelo ajustado µµ = µµ + µµ

Modelo verdadero µµ = η + ε µµ

Con ~ N(0, 2)
También se pueden presentar los residuos gráficamente.

¿son aleatorios?, ¿es constante σ?

1.0
0.8
0.6
0.4
0.2
0.0
e

-0.2 0 5 10 15 20 25

-0.4
-0.6
-0.8
-1.0

x
Falta de ajuste en término lineal.

40

35
30

25
20
e

15
10
5
0
0 5 10 15 20 25

x
Falta de ajuste en término cuadrático

200

150

100

50

0
e

0 5 10 15 20 25
-50

-100

-150

-200

x
Intervalo de Confiabilidad para β
Consideremos un modelo lineal:

µ = β ⋅ µ + µ

Cuyo parámetro β es:


β = = η

Y varianza:

σ
(β ) = ⋅σ =
( )
En general cualquier función se puede expandir a otra función
lineal mediante Serie de Taylor.

= ( )
La contribución a la varianza de y, de la varianza en cada una
de las variables que depende es:


σ = ⋅σ
= ∂
Luego:

(β ) = ⋅σ + ⋅σ + + ⋅σ

Pero si se supone que:

σ =σ = =σ
Pero:

µ =β⋅ µ + µ σ µµ
= σ µµ

Finalmente:

σ
(β ) = ⋅σ =
( )
De esta manera se llega a determinar que:

β≈ (β σ )
Como σ2 es desconocido se puede determinar por s2.

La estimación de M.C. de η a xk es

= β ⋅
La varianza de yk viene dada por:

( ) = ∂(β ⋅ ) ⋅ σ ββ + ∂(β ⋅ ) ⋅ σ
β

Puesto que los xk son fijos la varianza calculada queda


reducida a:

σ = ⋅σ ββ = ⋅σ
Lo anterior implica que:

≈ η σ
y


η = ± (γγ )
x

Limite sup y Límite inf


Justificación de M.C.

En principio es una medida de acercamiento del modelo a los


datos.

Bajo ciertas suposiciones el modelo de M.C. se puede justificar


como una herramienta eficiente de estimación.

¿Cuándo no lo es?
Este método posee las siguientes suposiciones implícitas:

1- Los datos son valores fijos y conocidos.


2- E(yµ) = ηµ , es decir, el modelo es verdadero.
3- Los errores en el modelo son independientes de una
experiencia a otra.
4- La varianza de los errores es constante.
5- Los errores se distribuyen en forma normal con media 0 y
varianza σ2.
Usando (1), (2) y (4) se puede demostrar que (β ) = β , o sea,
no existe error en la estimación del parámetro.

Con (3), (4) y usando el teorema de Gauss, el estimador de


M.C. es un estimador lineal, no sesgado de mínima varianza.

Si además (5) es cierto, entonces los β son estimadores de


Máxima Verosimilitud.
Función de Máxima Verosimilitud.
Antes que los datos estén disponibles la β (
asocia la )
densidad de cada resultado y del experimento, para β fijos.

Después que los datos están disponibles, es posible observar qué


valores de β podrían haber dado lugar a ese conjunto fijo de
observaciones ya obtenidas. β ( )

=
π ⋅σ
⋅ −
σ
( µµ − ηµµ )
µµ==

( )= ( µµ − η µµ )
ββ ββ µµ ==
Modelo de dos Parámetros
En el caso de un modelo con dos parámetros:

η = β ⋅ + β ⋅

La ecuación que satisface el criterio de mínimos cuadrados es:

( )= ( µµ − µµ − µµ )
µµ ==
β β
Los contornos β β
son elipses perfectas en
β el caso de modelos
lineales

β
Para encontrar los parámetros que ajustan el modelo se deriva
parcialmente la ecuación de M.C. originando dos ecuaciones
normales:

∂ (β β ) =
∂β

β⋅ µµ +β ⋅ µµ ⋅ µµ = µµ ⋅ µµ
µµ== µµ== µµ==

β⋅ µµ ⋅ µµ +β ⋅ µµ = µµ ⋅ µµ
µµ== µµ== µµ==
En forma matricial:

⋅ ⋅
µµ==
µµ
µµ==
µµ µµ
β µµ==
µµ µµ
=
β
µµ ⋅ µµ µµ µµ ⋅ µµ
µµ== µµ== µµ==
Modelo General de Ecuaciones
Todas las ecuaciones anteriores se pueden representar
mediante ecuaciones matriciales.

[ ] ×× = [ ] ×× ⋅ [β ] ×× + [ε ] ××

([β ]) = ([ε ] − [ ]⋅ [β ]) ⋅ ([ε ] − [ ]⋅ [β ])

([ β ]) = ( µµ − η µµ )
µµ==
Aplicando derivadas parciales a las matrices se obtiene la
expresión final para el cálculo del Vector de Parámetros.

([β ]) = − [ ] ⋅ ([ ] − [ ]⋅ [β ]) =
∂ [β ]

[ ] ⋅ [ ]⋅ [β ] =
[β ] = ([ ] ⋅ [ ]) [ ] ⋅ [ ]
−−
Inferencias Acerca de los Parámetros
A continuación analizaremos el Vector de Parámetros luego
de aplicarle los operadores de Esperanza y Varianza.

Aplicando el operador Esperanza:

(β ) = ( ⋅ )
−−
⋅ ⋅ ( )

(β ) = ( ⋅ )−−
⋅β = β
Aplicando el operador Varianza:

(β ) = (((β ) − (β ))⋅ (β − (β )) )
[β ] [β β ] [β β ]
[β β ] [β ] [β β ]
[β β ] [β ]
Se obtiene una matriz simétrica.
Al desarrollar la expresión de la varianza:

(β ) = (( )−−
⋅ ⋅( − ( )) ⋅ ( − ( )) ⋅ ( ))
−−

Se llega a su expresión final:

(β ) = (( )
−−
⋅ ⋅ ( )⋅ ⋅ ( ))
−−
Si los errores ε son independientes, poseen varianza constante.

( )= ⋅σ

(β ) = ( ⋅ )−−
⋅σ
Cuando existen dos parámetros es necesario establecer el
estado de relación entre ellos. El coeficiente de correlación
queda definido por:

β ρβ β =

ρ ββ =
(β β )
ββ
(β )⋅ (β )
β
β

− ≤ ρββ ββ ≤
< ρβ β ≤
β
Observación

Si:

≈ ( ⋅β ⋅σ )
Entonces:

β≈ (β ( ⋅ )σ
−−
)
Inferencias Acerca de los Parámetros
Individuales

β −β
≈ ( )
(β )
Generalmente σ es desconocido, pero puede ser estimado
por:

=
( µµ − µµ )

β −β

(β ) ( −− )
95% I.C. Individuales en cada parámetro βi.

β ± ( −− (
) ) (β )

Supongase que queremos predecir la respuesta k para las


condiciones Xk = (x1k,x2k,...,xnk).

= ⋅β η = ⋅β
( )= (( −η )⋅ ( −η ) )

( )= ( ⋅ (β − β ) ⋅ (β − β ) ⋅ )
( )= ⋅ (β )⋅

( )= ⋅ ( ⋅ )
−−
⋅ ⋅σ
Análisis de Varianza aplicado a M.C.
Considere la sumatoria de Y al cuadrado alrededor de un valor
arbitrario .

( −η )( −η )= ( − + −η )( − + −η )

( −η ) ( −η ) = ( − )( − ) + ( −η ) ( −η ) + ( − )( −η )
( −η )( −η ) = ( − )( − ) + (β − β ) (β − β )

Σ()2 de Σ()2 de

+ =
desviaciones desviaciones
entre Σ()2 de los entre las
observaciones residuos. predicciones
y predicciones. usando β y β
Tabla resumen de análisis de varianza.

Fuente
Fuente ΣΣ()
()22 G.L.
G.L. Var
Var EstVar
EstVar

Discrepancia
Discrepancia (β − β ) (β − β ) PP σ + ( )

Residuos
Residuos ( − )( − ) n-p
n-p (β )
( − )

Total
Total ( −η ) ( −η ) nn σ
Si hay replicados. Los residuos se pueden separar en error puro
y falta de ajuste.


(β ) ( − ) ( −− )
Un valor hipotético β0 llegará e ser significante al nivel de
probabilidad α cuando:


⋅ ≈
(β ) αα ( −− )

o cuando:

= ⋅ (β )⋅ αα ( −− )

pero:

= (β ) − (β )

finalmente:

= (β )⋅ + αα ( −− )

Interpretación
El lugar geométrico de todos los parámetros con valor β0 que
β0) define una región de
alcanzan este valor significante de S(β
α)%.
confiabilidad de 100(1-α

(β )
(β )
(β )
β
(β )
(β ) β

β β
⋅( −α )
β
Estudios de Parámetros Extras en el Modelo
Consideremos el siguiente modelo al cual se le ha agregado
un tercer parámetro:

Ajustamos:

= β + β ⋅ + β ⋅ +

= β + β ⋅ +ε (β β ) → ( − ) !

= β + β ⋅ + β ⋅ +ε (β β β) → ( − ) !
El término extra al agregar este nuevo parámetro es:

= (β β ) − (β β β ) → !

Compare:

≈ ( γ)
Si no se dispone de una estimación independiente de s2, se
puede usar:

=
(β β β )

También es posible observar el intervalo individual de
confiabilidad para el parámetro en cuestión: β2

βˆ22 ± tγγ ,,αα Var (βˆ22 )


22

y ver si incluye al cero o no.


Mínimos Cuadrados Generalizados
Para justificar el método de M.C. Como uno de estimación
eficiente tuvimos que suponer:

1- Errores independientes.
2- Todos los errores tenían igual varianza.
Supongamos ahora que los dos supuestos anteriores son falsos.

Supongamos además que los Yi poseen una distribución


Normal multivariada.

( β )= −−
⋅ − ⋅( − β ) ( − β) ≡ (β )
π
ββ
(β )= ββ
( − β) −−
( − β)


= = − ⋅ ⋅ ⋅ −−
( − ⋅β )
∂β

( ⋅ −−
⋅ )⋅ β = ⋅ −−

(β ) = ( ⋅ −−
⋅ )
−−
Casos Especiales

1- M.C. ordinarios.

= ⋅σ

( )⋅ β = ⋅

(β ) = ( −−
⋅ ) −−
σ
1- M.C. ponderados.

σ σ
σ
= −−
= σ

σ σ

ββ
( −η) −−
( −η) ≡ ββ σ µµ
( µµ − ηµµ )
µµ==
Implementación
Sea:
−−
= " " → =
σ

β = ( −−
) ( −− −−
)
Se define:

$ = " → $ = "
# = "
Note que se aplica una transformación a Y (Z=PY).

= β
+ ε
" = " β + " ε
# = $ β + ε
Lo mismo podemos aplicarlo a:

β = ( " " ) (
−−
" " )
= ($ )
−−
β $ $ #

Se puede usar el mismo programa para M.C. Por regresión de Z


en W.
M.C. Recursivos

= β+ε
×× ×× ×× ××

Algunas veces los datos se disponen secuencialmente.


Supongamos pues que ya tenemos n datos y hemos estimado
β por:

β =( ) ( )
−−
⋅ ⋅

Y tenemos una nueva observación (n+1).


Existen dos caminos posibles para calcular el nuevo
parámetro:

1- Volver a determinar el parámetro del nuevo conjunto de


datos.
2- Incorporar la nueva información que posee la observación
(n+1).

+ = + β +ε +
En forma matricial:

++ = = β +ε ++

++ ++
Luego:
−−

β ++ = [ ++ ]⋅ ⋅ [ ++ ]⋅
++ ++
Resolviendo:

β ++ = β + ++ ⋅( ++ − ++ β )

Nueva Estimación Ganancia por


estimación = anterior + error de
predicción
Observación
Donde:

" = ( ⋅ )= σ (β )

Dos ecuaciones recursivas:

- Actualización del vector de parámetros β


- Actualización de la varianza, covarianza de los β "
Note que no se requiere de inversión de matrices.

1- Si se dispone de información previa

→ β "

2- Si no se dispone de información previa

→β = " =α ⋅

You might also like