Professional Documents
Culture Documents
Indice
Restricciones Problemas con restricciones de igualdad
Restricciones
En la mayor parte de los problemas de toma de decisiones estn presentes ligaduras entre las variables o limitaciones en las mismas Unas debidas a las ecuaciones del modelo Otras al rango permisible de unas variables Otras debidas a reglas de operacin, existencias, etc. Por ello un problema de optimizacin a menudo se formula como:
min J (x)
x
h(x) = 0 g(x) 0
Restricciones
La presencia de restricciones limita el espacio de bsqueda pero, al mismo tiempo, dificulta el encontrar la solucin ptima porque se pierden algunos de los criterios de optimalidad como que el gradiente es nulo en el ptimo
x2
x1 Regin factible
Una poltica conducente a calcular el ptimo sin restricciones y luego limitarlo al contorno de la regin factible lleva a soluciones incorrectas
Restricciones de igualdad
Hay una categora de problemas en los cuales las variables de decisin estn sujetas solo a un conjunto de ecuaciones de igualdad:
min J (x)
x
min J ( x1 , x2 ,..., xn )
x
h ( x) = 0
Si es posible despejar m variables en funcin de las n-m restantes y sustituirlas en J, es posible transformar el problema en uno de optimizacin sin restricciones con n-m variables
Restricciones de igualdad
min ( x1 x2 + x 2 ) x2 2 x1 , x 2 x1 = log x2 x1 log x2 = x2 min
x2
x2 2 log x2
2 + x2
El procedimiento es similar si partiendo de los valores de x1,x2,,xn-m se puede evaluar J(x1,x2,,xn) por medio de una rutina de clculo. En ese caso se puede aplicar un algoritmo de optimizacin sin restricciones sobre las variables x1,x2,,xn-m Sin embargo, en muchos casos, debido a la no-linealidad de las ecuaciones hi, no es posible aislar y despejar m variables y el procedimiento no puede emplearse, o su uso implica el uso del mtodo de Newton para resolver las ecuaciones en una rutina de clculo.
Multiplicadores de Lagrange
Para problemas de optimizacin con restricciones de igualdad, el mtodo de los multiplicadores de Lagrange proporciona condiciones necesarias que deben cumplirse en el ptimo. La idea es convertir el problema en otro sin restricciones ampliado en m variables j (los multiplicadores de Lagrange) tal que su solucin coincida en las variables x con el primitivo y cumpla las restricciones h(x) = 0
min J (x) x h ( x) = 0
Para todos los x que cumplan las restricciones h(x)=0 se verifica: min L(x, ) = min J (x)
x, x
Si x* es optimo para el problema original, minimiza J(x*) y cumple h(x*) = 0, luego tambin tiene que ser una solucin del problema de la Lagrangiana L
Multiplicadores de Lagrange
min L(x, ) = min J (x) + ' h(x)
x, x,
L(x,) Lagrangiana
L(x, ) = 0, x x* , *
L(x, ) =0 x* , *
h(x * ) = 0
Que puede resolverse mediante el mtodo de Newton. Si tiene solucin, despus hay que comprobar mediante el Hessiano de L que la solucin x*,* corresponde verdaderamente a un mnimo de L respecto a x
J ( x) x 1
J (x) J (x) L + [1 x 2 x n
Para que haya solucin ptima, debe cumplirse que los gradientes xhj sean linealmente independientes, lo que se conoce como cualificacin de las restricciones
10
Ejemplo 1
x2
min x1 + x 2 x1 , x 2 2 2 x1 + x 2 = 4
x1 , x 2 , x1 , x 2 ,
x1 x1+x2=c
L(x, ) = 1 + 2 x 1 = 0 x 1 1 + 2 x 1 = 0
11
Ejemplo 1
x1 , x 2 ,
min L( x 1 , x 2 , ) = min x 1 + x 2 + ( x 2 + x 2 4) 1 2
x1 , x 2 ,
L(x, ) = 1 + 2 x 1 x 1 2L x 2 1 H x (x, ) = 2 L x x 2 1
L(x, ) = 1 + 2 x 2 x 2
L(x, ) = x2 + x2 4 1 2
2 0 2L x 1 x 2 2 0 2 PD 0 = 2 * * 2 L 0 ND 0 2 x , x 2 x* , * 2 2 0
Basta que el mnimo sea respecto a las variables x Este corresponde a *=sqrt(2)/2: x1*= - sqrt(2)/2, x2* = - sqrt(2)/2
12
13
Los multiplicadores de Lagrange ptimos (precios sombra) dan las sensibilidades opuestas de J* respecto a las restricciones b
Cesar de Prada ISA-UVA
max J = c' x
x
Ax = b x0
min J (x) x h ( x) = b
La respuesta (max) usando la teora de la dualidad de LP es la solucin del dual z, denominada precio sombra
J = z* b
*
J * = * ' b
Cesar de Prada ISA-UVA
14
El caso general incluye restricciones de igualdad y desigualdad en las variables de decisin x. Suponiendo que las funciones J, g y h son continuamente diferenciables, es posible encontrar condiciones necesarias y (en ciertos casos ) suficientes de ptimo del problema NLP denominadas condiciones de Karush-Kunt-Tucker (KKT) (o solo KTC, Kunt-Tacker Conditions) x2 Conjunto factible 2 x1 x1+x2=2 x1=1
Cesar de Prada ISA-UVA
h(x) = 0 g(x) 0
15
min x 12 x2 x1 , x 2 x1 + x2 = 2 2 2 x1 + x1 4 x1 1 0
h(x) = 0 g(x) 0
La idea fundamental en el desarrollo de las condiciones KKT parte de la Lagrangiana, considerando que, si una restriccin de desigualdad est activa en el ptimo, entonces puede tratarse como una de igualdad asignndosele un multiplicador de Lagrange , y si no est activa entonces puede ignorarse con lo que su multiplicador debe hacerse cero. De esta forma o g deben ser cero.
L ( x, , ) = J ( x ) + j h j ( x ) + i g i ( x )
j i
i g i ( x) = 0
Por otra parte si aumentamos el lado derecho de g(x) 0 la regin factible aumenta y, por tanto, J(x) puede tener un valor menor, de forma que la sensibilidad, medida por -, debe ser negativa, o sea 0.
16
h(x) = 0 g(x) 0
De esta forma, el ptimo del problema NLP debe cumplir las condiciones de ptimo de la Lagrangiana L(x,,), mas las condiciones adicionales. Para funciones continuamente diferenciables J, h y g, las condiciones necesarias de ptimo respecto a las variables x son:
17
x J ( x) + j x h j ( x) + i x g i ( x) = 0
j i
h j ( x) = 0 g i ( x) 0 i g i ( x) = 0 i 0
Adems,xgi y xhj para las restricciones activas en el ptimo, deben ser tmbin linealmente independientes,
Cesar de Prada ISA-UVA
[ x h (x)
x g(x)] = x J (x)
Cuando las desigualdades son convexas y las igualdades lineales y hay un punto factible en el interior de la regin marcada por las desigualdades.
18
En el ptimo
x g i ( x) x J ( x) x g i ( x)
x J ( x) = i x g i ( x)
i
Dado que, en el ptimo, para las restricciones activas >0 el gradiente de J, que es una combinacin lineal de los gradientes de gj (activas), debe estar en un semiplano distinto a estos ltimos
Cesar de Prada ISA-UVA
19
h(x) = 0 g(x) 0
Si la funcin J es convexa, las restricciones gi convexas y las restricciones de igualdad hj son lineales, entonces la regin factible es convexa y si existe una solucin de las condiciones KKT, entonces dicha solucin es el ptimo global del problema NLP
x J ( x) + j x h j ( x) + i x g i ( x) = 0
j i
h j ( x) = 0 g i ( x) 0 i g i ( x) = 0 i 0
Cesar de Prada ISA-UVA
20
x*(1,1)
Ejemplo 2
min x 1 x2 x1 , x 2 x1 + x2 = 2 2 2 x1 + x2 4 x1 + 1 0
2
x2
2 x1
Conjunto factible
x1+x2=2 x1=1
h j ( x) = 0 g i ( x) 0
i g i ( x) = 0
1 + + 1 2 x 2 = 0 x1 + x2 = 2
1 0 2 0
x 12 + x 2 4 1 ( x 12 + x 2 4) = 0 2 2 x1 + 1 0 2 ( x1 + 1) = 0
Cesar de Prada ISA-UVA
21
i 0
Ejemplo 2
2 2(1 + 1 ) 1 x2 = 21 2 1 + =2 2(1 + 1 ) 21 x1 =
1 + + 1 2 x 2 = 0 x1 + x2 = 2 1 0 2 0 x 12 + x 2 4 1 ( x 12 + x 2 4) = 0 2 2 x1 + 1 0 2 ( x1 + 1) = 0 2 x1 + + 1 2 x1 2 = 0
2 1 2 2 2(1 + ) + 2 41 = 0 1 1 2 + 2(1 + ) + 1 2 = 0 1
Cesar de Prada ISA-UVA
22
23
1 + =2 si 1 = 0, 2 = 0 2 Deben examinarse todas las 2(1 + 1 ) 21 alternativas para encontrar 2 + 1 = 2 posibles soluciones 2(1 + ) 2 1 1 si 1 = 0, 2 0 2 + 2 +1 = 0 x1 = 2(1 + 1 ) 2(1 + 1 ) 2 1 2 1 x2 = + 4=0 2(1 + 1 ) 21 21 si 2 = 0, 1 0 2 1 1 + =2 + =2 2(1 + 1 ) 21 2(1 + 1 ) 21 2 2 1 2 41 = 0 + 2 1 + =2 2(1 + 1 ) 21 2(1 + 1 ) 21 2 + 2 2 + 1 2 = 0 1 2(1 + ) si 1 0, 2 0 2 + 4 =0 1 2(1 + 1 ) 21 2 + +1 = 0 2(1 + 1 )
Cesar de Prada ISA-UVA
1 = 41
41 1 41 + =2 2(1 + 1 ) 21
41 1 + 2 = 2 1 = 1 / 4, = 0 2(1 + 1 )
Cesar de Prada ISA-UVA
24
x1 = 0, x2 = 2 NF
Ejemplo 2
2 x1 = 2(1 + 1 ) si = 0, = 0 { = 1, x = 1 / 2, x = 5 / 2 NF 1 1 2 1 2 x2 = 21 si 1 = 0, 2 0 { = 1, 2 = 3, x1 = 1, x2 = 1 2 1 1 = 1 / 4, = 0, x1 = 0, x2 = 2 NF + =2 2(1 + 1 ) 21 si 1 0, 2 = 0 1 = 5 / 4, = 1 NF 2 2 1 2 + 41 = 0 si 1 0, 2 0 { = 1; 1 = 0, 2 = 3, x1 = 1, x2 = 1 2(1 + 1 ) 21 Solucin ptima 2 + 2(1 + ) + 1 2 = 0 1
25
1 1 1 1 x h = x g = rango =2 1 0 1 0
26
Sensibilidad
min J (x)
x
h(x) = b g(x) c
A partir de la interpretacin de las condiciones KKT como multiplicadores de Lagrange, se puede establecer la siguiente relacin para las sensibilidades:
27
Ejemplo 2
Optimo: x1=1,x2=1,=1,1=0,2=3, J=0 min J ( x1 , x2 ) = min x 12 x2 x1 , x 2 x1 , x 2 x1 + x2 = 2 Restricciones Como varia el valor ptimo 2 2 activas x1 + x2 4 de la funcin de coste J si se aumenta el trmino derecho x1 + 1 0 de las restricciones en una unidad? Sensibilidades: -1,0,-3
Si aumentasen una unidad cada una manteniendo las otras, la primera mejorara en una unidad el costo J, no influira en la segunda y la tercera mejorara J en tres unidades
Cesar de Prada ISA-UVA
28
h( x ) z=0 z | x * x g act (x )
29
De modo que el Hessiano de L respecto a x es PD para todos los vectores z ortogonales a los gradientes de las restricciones activas en x*. Estos vectores dan origen al plano tangente a dichas restricciones. Para la necesidad basta con que el Hessiano sea PSD. (gact son restricciones activas)
Cesar de Prada ISA-UVA
Lagrangiana
2 L( x, , ) = x12 x2 + ( x1 + x2 2) + 1 ( x12 + x2 4) + 2 ( x1 + 1)
Ejemplo 2
min x 12 x2 x1 , x 2 x1 + x2 = 2 2 2 x1 + x2 4 x1 + 1 0
Optimo: x1=1,x2=1,=1,1=0,2=3
Hessiano respecto a x
z1 [ 1 0] = 0 z1 = 0 z2
de planos tangentes
L2 x 2 1 Hx = 2 L x2 x1
L2 x1x2 2 + 21 = 2 L 0 2 x2
30
0 z = 2z 2 > 0 0 z 0 0 z = 0 0
Ejemplo 3
x12-x2 4
2 2 2
-x1+x2 2 x2
h j ( x) = 0 g i ( x) 0 i g i ( x) = 0
31
i 0
Ejemplo 3
2( x1 + 3) + 1 (1) + 2 2 x1 = 0 2 x2 + 1 (1) + 2 ( 1) = 0 ( x1 + x2 2)1 = 0 1 0 ( x12 x2 4) 2 = 0 2 0 x1 + x2 2 0 2 x1 x2 4 0 1 6 2(1 + 2 ) 2 1 x2 = 2 6 1 1 + 2 2 1 = 0 2(1 + ) 2 2 2 6 2 1 1 4 2 = 0 2(1 + 2 ) 2
x1 =
si 1 = 0, 2 = 0
x1 = 3, x2 = 0
NF
32
6 1 1 si 1 0, 2 = 0 + 2 = 0 1 = 1, x1 = 5 / 2, x2 = 1 / 2 NF 2 2
Cesar de Prada ISA-UVA
Ejemplo 3
x1 =
1 6 2(1 + 2 ) si 1 = 0, 2 0 2 1 x2 = 2 6 1 1 + 2 2 1 = 0 2(1 + ) 2 2 6 2 2 1 1 = 0 si 1 0, 2 0 2 2(1 + ) 2 4 2 1 6 2 1 4 = 0 2 2(1 + ) 2 2 2 2 1 1 2 2 = 4 ( 2 1 ) 2 = 10( 2 1 ) 2 2 Optimo, por ser la 2 = 1 1 = 2 / 5, 2 = 2 / 5, x1 = 2, x2 = 0 regin convexa y J convexa = 10 6 1 + 6 = 0 = 14.4 NF 2 1 1 11 + 1 33 Cesar de Prada ISA-UVA
2( 2) 1 4 1 x g1 = x g 2 = rango 1 1 = 2 1 1
34
Sensibilidad
2 min ( x1 + 3) 2 + x2 x1 , x 2 x1 + x2 2 0 x12 x2 4 0
Optimo: x1=-2,x2=0,1=2/5,2=2/5, J=1 Restricciones activas Como varia el valor ptimo de la funcin de coste J si se aumenta el trmino derecho de las restricciones en una unidad?
Sensibilidades: -2/5,-2/5
Si aumentasen una unidad cada una manteniendo la otra, J mejorara en 2/5 en cada caso
35
Lagrangiana
2 L( x, , ) = ( x1 + 3) 2 + x2 + 1 ( x1 + x2 2) + 2 ( x12 x2 4)
Ejemplo 3
2 2 2
Condiciones de 2 orden
36
z ' L(x , , )z > 0 min ( x1 + 3) + x x1 , x 2 x1 + x2 2 0 Restricciones z [ 1 1] 1 = 0 z1 + z2 = 0 Vectores activas z x12 x2 4 0 de planos 2 tangentes z1 [2(2) 1] = 0 4 z1 z 2 = 0 Hessiano respecto a x z2 L2 L2 x 2 14 / 5 0 z x1x2 2 + 2 2 0 * = z ' H x z = [z z ] = 14 z 2 / 5 > 0 H x = 12 L2 0 2 0 z L 0 2 x2 x1 x2 14 / 5 0 z [z 4 z ] = 14 z 2 / 5 > 0 0 4 z 0 Cumple la suficiencia
Cesar de Prada ISA-UVA
x h( x * ) z | z=0 * x g act (x )
Ejemplo 4
V=20V R + i 10 Encontrar el valor de R de modo que se maximice la potencia absorbida en dicha resistencia
400 R min R ( R + 10 )2 20 = IR + 10 I R0 P = I 2R
37
38
Se pueden encontrar formulaciones equivalentes que expresan el problema en trminos de restricciones de desigualdad, como maximizacin, etc. Para ello se utilizan las mismas tcnicas de variables de holgura, cambios de signo, etc. Que en la LP
Cesar de Prada ISA-UVA
39
A (m x n) rango m < n
Programacin cuadrtica
x2 x* x2 x*
x1 A diferencia de la programacin lineal, en el caso de la programacin cuadrtica el ptimo puede encontrarse en el interior o en el contorno de la regin factible
x1
40
41
Otros
Lagrangiana:
42
Se puede encontrar una solucin factible del conjunto de ecuaciones lineales en (x,,) como un problema LP en dichas variables con el algoritmo simplex tipo I, y mantener la condicin x=0 imponiendo como regla de cambio de pivote que no esten simultneamente en la base columnas con componentes del vector (x,,) distintas de cero en x y en
c + Qx + A ' = 0 Ax = b x 0, 0 ' x = 0
Ecuaciones lineales excepto por x = 0, x son cero.
Cesar de Prada ISA-UVA
max (1,1,...1)
43
En el que no existen restricciones tipo , y puede resolverse mas facilmente, p.e. por sustitucin o multiplicadores de Lagrange
Cesar de Prada ISA-UVA
44
3.
4.
5.
Escoger xk y calcular x2 Resolver el problema , P, asociado k con igualdades en . Sea k la solucin y k sus multiplicadores de Lagrange xk+1 Calcular xk+1=xk+k(k-xk) Si k no xk verifica una restriccin que no est en (k <1) aadir el ndice a x1 Si los k que corresponden a desigualdades son todos 0, entonces k es ptimo. En caso contrario eliminar el ndice p i a i ' x k 1, min correspondiente al menor de ellos de k = min i a ' ( x k ) ai '( k xk )<0 i k Hacer k=k+1 y volver a 2
Cesar de Prada ISA-UVA
45
Ejemplo QP (Dinmico)
w e u
K e ds s + 1
PID
y w
K p ,Ti ,Td
min
e(t ) 2 dt MISE
K p 0, Ti 0, Td 0
46
Mtodo de Wolfe
min J (x)
x
Ax b x0
El algoritmo de Wolfe est orientado a resolver problemas algo mas generales que los de tipo QP: Aquellos en los que la funcin de costo no tiene por que ser cuadrtica, aunque se mantienen las restricciones lineales
Se resuelve mediante una sucesin de problemas LP aproximados En concreto sustituye J(x) por una aproximacin de primer orden, y usa el resultando de este problema para definir un direccin de bsqueda factible en la que se mejora J(x) respetando las restricciones
47
Mtodo de Wolfe
min J (x)
x
Ax b x0
min J (x k ) + x J (x k )(x x k )
x
Ax b x0
xk
xk+1
x$
Por ser un problema LP tiene una solucin ptima en un vrtice x$ y por tanto : $
48
Mtodo de Wolfe
El segundo paso del algoritmo consiste en minimizar J(x) en la direccin xk$ - xk en el segmento entre xk y xk$ el cual es factible. Esto es una optimizacin escalar que se resuelve fcilmente. Regin factible xk xk+1 xk$
min J (x k + k (x $ x k )) k
k
x k +1 = x k + * (x $ x k ) k k
De esta forma se determina un nuevo xk+1 iterandose hasta que se cumpla una condicin del tipo: xk
xk+1$
49
x k +1 x k 2 0 + xk
J (x k +1 ) J (x k ) 3 0 + J (x k )
xk+1
M q T P0 T P1 T P2 T P3
q moles/h T K = 4/3 Si un gas entra a 1bar y debe salir a 64 bares manteniendo q y T constantes, cuales deben ser las presiones de trabajo de cada etapa intermedia para gastar la mnima energa?
50
Compresor
La potencia total consumida ser la suma de la que consume cada compresor
M q T P0 T P1 T P2 T P3
1 1 1 P1 4 P2 4 P3 4 WTotal = qRT 4 + + 3 P0 P1 P2 P1 P0 , P1 P2 P3
P 64 min P1 + 2 + P P P , P2 1 1 2 P1 1, P1 P2 64
1 4
1 4
1 4
51
J (x k ) + x J (x k )(x x k )
= 0.25x 1 0.75 (1 x 0.25 x 1 0.5 ) 2,10 = 0.0383 2 2 ,10 = 0.25x 2 0.75 ( x 1 0.25 64 0.25 x 2 0.5 ) 2,10 = 0.00238 2 ,10
x2
64 x2=x1
x 2
x1 , x 2
52
x1
x1 1 x1 x2 0 x2 64
x2 64 x2=x1 1 x1 (64,64)
Problema LP equivalente, puede resolverse grficamente. Costo: -0.0383x1 0.00238x2 = c < 0 x2 = -16.09x1-420.16 c Optimo LP: (64,64) x2 Proporciona una direccin de minimizacin de J 64 (2,10) (64,64) x2=x1 x1
53
0 1
x2=x1 x1 Puede resolverse por interpolacin, seccin dorada, etc. Solucin: * = 0.027 Nuevo punto: x1= 2+0.027 62=3.69 x2= 10+0.027 54=11.47 J=4.25 Se continua iterando hasta que no haya mejora apreciable
(2,10)
54
min J (x) min J (x k ) + x J (x k )(x x k ) x x h(x) = 0 h(x k ) + x h(x k )(x x k ) = 0 m x x k M g(x) 0 g (x k ) + x g (x k )(x x k ) 0
55
Se aaden restricciones sobre las mximas desviaciones del punto de linealizacin que aseguran que esta es aceptable
Cesar de Prada ISA-UVA
Mtodos de Penalizacin
La idea bsica es transformar el problema NLP En otro sin restricciones tal que su solucin se aproxime a la del NLP
min J (x)
x
h(x) = 0 g(x) 0
V es la funcin a minimizar que aade a J las funciones de penalizacin Pi. i son parmetros que se va ajustando a lo largo del algoritmo para acercar la minimizacin de V a la solucin del problema NLP
56
Funciones de Penalizacin
min V (x, ) = min J (x) + i Pi (hi (x), g i (x))
x x i
La principal caracterstica de las funciones de penalizacin P, es que tienden a cero cuando se satisface las restricciones, pero toma un valor muy grande cuando stas son violadas. De manera tal que el algoritmo no realiza la bsqueda del mnimo de V en esta regin. Las penalizaciones P modifican la funcin de coste original J, incrementando su valor en aquellas regiones donde no se satisfacen las restricciones. Funciones de Penalizacin para: gi (x) 0 P P Funciones de Penalizacin para: h(x) = 0 h(x)
Cesar de Prada ISA-UVA
57
gi(x)
Funciones de Barrera/Penalizacin
gi(x) 0 P Penalizacin externa Penalizacin: Si se violan las restricciones, entonces P toma valores muy grandes. El ptimo puede violar ligeramente gi(x) las restricciones h(x) = 0 P Penalizacin parablica h(x)
gi(x) 0
Barrera: si el valor de gi(x) se aproxima a la restriccin, entonces P toma un valor muy grande. Fuerza a que x se encuentre dentro de la regin factible
Cesar de Prada ISA-UVA
58
Funciones de Penalizacin
Restricciones de Igualdad h( x) = 0 Si h(x) se desva del valor de cero , entonces la funcin P crece cuadrticamente, penalizando los valores de V(x) en los puntos no factibles. El parmetro proporciona la magnitud de la penalizacin. Se debe adicionar un trmino (hi(x))2 a la funcin objetivo J, por cada una de las restricciones de igualdad existentes. P Penalizacin para blica h(x)2 h(x) P, funcin continua con derivadas continuas P Valor Absoluto |h(x)|, discontinuas en h(x) = 0 h(x)
Cesar de Prada ISA-UVA
59
Problema original
x2
x1 -x1+x2 = 2 x2 x1
2 min ( x1 + 3) 2 + x2 + ( x1 + x2 2) 2 x1 , x2
Problema con la penalizacin aadida Curvas de nivel deformadas que fuerzan soluciones en torno a la restriccin x1+x2=2 (Aunque el problema es dficil numricamente al aumentar )
Matlab
Cesar de Prada ISA-UVA
60
Ejemplo 1
=0 funcin original J(x) =1 Funcin de Penalizacin V(x)=J(x)+ P =10 Funcin de Penalizacin V(x)=J(x)+ P El mnimo de J(x) se encuentra alrededor de h(x)=0
61
Funciones de Penalizacin
Restricciones de desigualdad Penalizacin Infinita
g ( x) 0
Penalizacin Exterior P
0 if g( x ) 0 P( g( x )) = 20 10 g( x ) if g(x ) > 0
g(x)
P( g( x )) = [max(0, g( x ))]
Penalizacin exterior
Continua y con derivadas continuas Al igual que con otras funciones de penalizacin: se pueden violar ligeramente las restricciones
g(x)
62
Funciones de Penalizacin
Penalizacin Exacta En problemas con restricciones de igualdad y desigualdad el mnimo de la funcin de coste: P
0 i *i
0 i * i
g(x)
Cesar de Prada ISA-UVA
63
Funciones de Barrera
Barrera Logartmica
Ntese que con funciones de barrera, el parmetro tiene que decrecer progresivamente para que permita un punto cercano a las restricciones
Cesar de Prada ISA-UVA
64
-x1+x2 = 2 x2 x1
65
2. 3.
4.
Formular el problema NLP como uno sin restricciones con funciones de penalizacin aadidas V(x,) = J(x) + i Pi(gi(x),hi(x)) Resolver el problema de minimizar V respecto a x con un valor de i fijo Modificar cada i de acuerdo a una cierta regla, aumentndolos si P es una penalizacin exterior y disminuyndolos si es una barrera interior Comprobar las condiciones de finalizacin, si no se cumplen volver al paso 2
Cesar de Prada ISA-UVA
66
Problema original
x12-x2 4 x2 x1
Regin factible
=2
1 0 -1 -2 -3 -4 -5 -6 -7 -8 -4 -3 -2 -1 0 1 2 3
min ( x1 + 3) + x + P ( g ( x))
2 x1 , x2 2 2
67
Matlab
Cesar de Prada ISA-UVA
Ejemplo 2
=0 funcin original J(x)
800 600 400
0 -1 -2
200 0 2 0 -2 -4 -6 -4 -2 2 0 4
-3 -4 -5 -6 -3
68
-2
-1
69
h(x) = g(x) 0
Si existe solucin factible del problema original, obviamente el optimo dara = 0, = 0, y se tiene la misma solucin. Pero si no existe, y amplian la regin factible, justo lo mnimo para que exista dicha solucin factible.
Cesar de Prada ISA-UVA
70