Professional Documents
Culture Documents
alisis Num
erico y Optimizaci
on
1
2
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Indice general
3
4 INDICE GENERAL
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Captulo 1
Introducci
on. Repaso de Conceptos
Conocidos
1.1. Introducci
on. Planteamiento del problema
En esta asignatura trataremos dos aspectos importantes dentro de la Matematica Aplicada:
el Analisis Numerico y su relacion con la Optimizacion. En concreto trataremos problemas de
Optimizacion desde el punto de vista del Analisis Numerico. De manera general un problema
de optimizacion puede ser descrito de la siguiente forma: Supongamos que tenemos un sistema
sobre el que podemos actuar mediante una variable v (el control) que vive en un cierto conjunto
U (el conjunto de controles admisibles). Supongamos tambien que tenemos a nuestra disposici on
una funcion J (funcional coste) que depende de v y, posiblemente, de la solucion del sistema.
Pretendemos calcular un control u U tal que J(u) J(v) para cualquier v U.
En terminos matem aticos el problema puede ser escrito del siguiente modo: Supongamos que V
es un espacio normado (en general de dimension infinita). Dados U V un conjunto y J : U 7 R
un funcional, planteamos el problema
(
Hallar u U tal que
(P )
J(u) J(v) v U.
El objetivo de de la Optimizaci
on es tanto el estudio teorico del problema (P ) como proporcionar
algoritmos que permitan aproximar la o las soluciones del problema.
Diremos que (P ) es un problema de optimizaci on sin restricciones si U V . Si U 6= V ,
entonces hablaremos de un problema de mnimos con restricciones.
En este curso, estamos interesados por la optimizacion continua en dimension finita o infinita.
Abordaremos fundamentalmente, y en este orden, las siguientes cuestiones:
5
6 1.2. Convergencia d
ebil y d
ebil-. Espacios reflexivos
Para los problemas sin restricciones (Tema 2), estudiaremos los algoritmos de tipo gradien-
te (paso
optimo, paso fijo, paso variable) y gradiente conjugado (generico, Fletcher-Reeves,
Polak-Riviere). Para los problemas con restricciones (Tema 3), estudiaremos el algoritmo del
gradiente con proyeccion, cuya aplicacion se restringe a conjuntos U muy particulares. Los
problemas con restricciones generales son mas difciles de tratar y se intenta su resoluci
on
reemplazandolos por otros problemas sin restricciones, esta es la idea para los metodos de
dualidad (Uzawa).
El Tema 4 se dedica al Control Optimo que consiste en un problema de minimizacion donde
ademas, la soluci
on buscada depende de otra variable dada a traves de una ecuacion diferencial
ordinaria o en derivadas parciales.
Dedicaremos este primer Tema a repasar ciertos conceptos que apareceran a lo largo del curso
y que han sido vistos anteriormente en las asignaturas en Ecuaciones en Derivadas Parciales y
Analisis Funcional y An
alisis Funcional y Optimizacion del cuarto curso de la Licenciatura en
Matematicas.
1.2. Convergencia d
ebil y d
ebil-. Espacios reflexivos
A lo largo de esta secci
on X representa un espacio normado con norma que sera denotada por
k k. Recordemos que, dados una sucesion {xn }n1 X y un elemento x X, se tiene que xn
converge hacia x en X (que denotaremos xn x en X) si la sucesion real kxn xk converge hacia
cero. En algunas ocasiones diremos que xn converge en norma o fuertemente hacia x. Adem as
de este concepto de convergencia tambien introduciremos los siguientes:
Definici
on 1.1. 1. Sean {xn }n1 X una sucesion y x X un elemento de X. Diremos que
xn converge debilmente hacia x (y escribiremos xn * x) si para cualquier x0 X 0 se tiene
2. Sean {x0n }n1 X 0 una sucesion y x0 X 0 un elemento de X 0 . Diremos que x0n converge
0
-debilmente hacia x (y escribiremos xn * x) si
Observaci on 1.1. Los conceptos de convergencia debil y -debil son lineales. Por ejemplo, si
{xn }n1 e {yn }n1 son dos sucesiones en X y x e y son dos elementos de X tales que xn * x e
yn * y, entonces se tiene
xn + yn * x + y, , R.
Pasemos a continuaci
on a analizar estos conceptos en algunos ejemplos interesantes:
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 7
Ejemplo 1.1. Consideremos el caso de un espacio de Hilbert H, con producto escalar que denota-
remos por (, ). Recordemos que, gracias al Teorema de Riesz, el espacio H puede ser identificado
con su dual H 0 mediante el producto escalar (, ). Efectivamente, introduzcamos la aplicaci on
R : H H 0 definida por
hRx, yiH 0 ,H = (x, y), x, y H.
Entonces, R est a bien definida y es un isomorfismo isometrico entre H y H 0 , es decir es lineal,
biyectiva y verifica
kRxkH 0 = kxkH , x H.
En particular, tanto R como R1 son continuas. Este resultado permite identificar H con H 0 .
Esta identificacion tambien nos permite reescribir de manera equivalente el concepto de conver-
gencia debil en el espacio de Hilbert H. Efectivamente, dados {xn }n1 H y x H, se tiene que
xn * x si y solo si
(xn , y) (x, y), y H.
Ejemplo 1.2. Sea un abierto no vaco de RN . Recordemos que f : RN RN es una funci
on
medible si el conjunto
{x RN : f (x) < a}
es medible (respecto de la medida de Lebesgue en RN ) para cualquier valor a de R. Como es
habitual, identificaremos funciones que son iguales salvo un conjunto de medida (Lebesgue) nula
(iguales casi por doquier). Para la integral de Lebesgue usaremos la notacion
Z Z
f= f (x) dx.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
8 1.2. Convergencia d
ebil y d
ebil-. Espacios reflexivos
0
De nuevo, Rp est a bien definido, es un isomorfismo isometrico entre Lp () y [Lp ()]0 y permite
0
identificar Lp () con [Lp ()]0 .
En el caso p = , tambien podemos introducir el operador R : L1 () [L ()]0 y se tiene
tambien que R es lineal e isometrico (y por tanto inyectivo) pero no es sobreyectivo. Deducimos
que L1 () no se puede identificar con [L ()]0 .
En el caso p [1, ) y usando la anterior identificacion, es posible reescribir el concepto de
convergencia debil en Lp (). Dados {fn }n1 Lp () y f Lp (), es facil comprobar que fn * f
en Lp () si y s
olo si
Z Z
0
fn (x)g(x) dx f (x)g(x) dx, g Lp ().
Por ultimo, teniendo en cuenta que L () [L1 ()]0 , tambien podemos identificar la conver-
gencia debil-* en L (): Dados {fn }n1 L () y f L (), es facil comprobar que fn * f
en L () si y solo si
Z Z
fn (x)g(x) dx f (x)g(x) dx, g L1 ().
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 9
Proposici
on 1.6. Sea X un espacio normado. Entonces,
Pasemos a continuaci
on a analizar otros conceptos relacionados con la convergencia debil en
espacios normados:
Pasemos a continuaci
on a recordar el concepto de conjunto compacto en un espacio normado.
Es bien conocido que si X es un espacio normado, el concepto de compacidad puede ser reescrito
en terminos de convergencia. En concreto, dado K X, K es compacto si y solo K satisface la
siguiente propiedad:
Teorema 1.9. 1. Sea X un e.n. separable y {x0n }n1 X 0 una sucesi on acotada. Entonces
on {x0nk }k1 de {x0n }n1 y x0 X 0 tal que x0nk * x0 .
existe una subsucesi
2. Sea X un espacio de Banach reflexivo y {xn }n1 X una sucesion acotada. Entonces existe
on {xnk }k1 de {xn }n1 y x X tal que xnk * x.
una subsucesi
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
10 1.3. Semicontinuidad y semicontinuidad secuencial d
ebil
E = {x U : f (x) }
As:
Gracias a la caracterizaci
on de la s.c.i. y de la s.c.i. secuencial debil, no es difcil comprobar la
siguiente propiedad:
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 11
Prueba. La demostraci on del resultado es una facil consecuencia de la Proposicion 1.12. Observese
en primer lugar que esta puede ser aplicada pues U es un convexo cerrado no vaco y, por tanto, U
es secuencialmente debilmente cerrado.
Aplicando la Proposicion 1.12, f es s.c.i. en U si y solo si el conjunto E es un cerrado de X
para cualquier de R. Como el funcional f y el conjunto U son convexos, es facil comprobar que
E es tambien un conjunto convexo para todo R. Por tanto, E es cerrado si y solo si E
es secuencialmente debilmente cerrado, es decir, si y solo si f es s.d.s.c.i. en el conjunto U. Esto
finaliza la prueba.
Ejemplo 1.3. Dado (X, k k) un espacio normado, es posible aplicar este resultado a la funci on
norma obteniendo de nuevo la propiedad 2 de la Proposicion 1.3. Efectivamente, considerando
U X y f (x) = kxk, se tiene que f es un funcional convexo definido en el convexo cerrado X.
Como f es continuo en X, en particular es s.c.i. en X. Aplicando directamente la propiedad anterior
deducimos que f k k es s.d.s.c.i. en X y, por tanto, la propiedad 2 de la Proposicion 1.3.
1.4. Minimizaci
on de funcionales
En esta secci
on recordaremos algunos resultados conocidos sobre minimizacion de funcionales.
Recordemos que estamos interesados en el estudio de la existencia de solucion de problemas de
Optimizacion que pueden ser escritos de la forma
nf J(v)
vU
J(u) J(v), v U.
De forma analoga se pueden definir los conceptos de maximo local (o relativo) y maximo global
(o absoluto) de un funcional J en un conjunto U. En general, utilizaremos la palabra extremo para
designar indistintamente un m aximo o mnimo de J.
El primer resultado de existencia de mnimos que veremos es debido a Weierstrass:
Teorema 1.16. (Teorema de Weierstrass) Supongamos que U es un espacio metrico no vaco
y compacto y J : U R es un funcional s.c.i. en U. Entonces, J admite un mnimo global en U.
Prueba: Aplicaremos el llamado metodo directo del Calculo de Variaciones: Tomaremos una su-
cesion minimizante {un }n1 y probaremos que admite una subsucesion convergente a un mnimo
global de f en U. Usaremos la compacidad de U para poder extraer una subsucesion convergente y
la s.c.i. de J en U para probar que el lmite es un mnimo global de J en U.
Si llamamos = nf vU J(v) [, ), entonces, existe una sucesion {un }n1 U (sucesi
on
minimizante) tal que
lm J(un ) = .
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
12 1.4. Minimizaci
on de funcionales
Como U es compacto, existen u b U y una subsucesion {unk }k1 de {un }n1 tales que unk u
b en
U. Al ser J un funcional s.c.i. en U, se tiene
lm J(u) = +.
kuk+
Es posible la generalizaci
on del resultado anterior a un marco mas abstracto. As, usaremos el
proximo resultado para deducir la existencia de solucion de problemas de minimizacion planteados
en un espacio normado:
Prueba: Seguimos el mismo razonamiento del Teorema 1.16 y seleccionamos una sucesion mini-
mizante {un }n1 U tal que
Si U es un subconjunto acotado, esta claro que la sucesion {un }n1 esta acotada. Si U es un no
acotado, no es difcil comprobar (gracias a la hipotesis de coercitividad de J) que tambien {un }n1
esta acotada. Efectivamente, basta razonar por reduccion al absurdo para deducir la acotaci on de
{un }n1 .
Al ser X un espacio reflexivo, U un subconjunto s.d. cerrado y {un }n1 una sucesion acota-
da, deducimos que existe una subsucesion de {un }n1 (que seguiremos denotando {un }n1 ) y un
elemento u b U tal que
un * u b debil en X.
Como J es s.d.s.c.i., entonces
Esta u
ltima desigualdad prueba el resultado.
Como una consecuencia inmediata del Teorema 1.18, tenemos:
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 13
J(b
u1 ) = J(b
u2 ) = nf J(u).
uU
Al ser U convexo, u
b= 1
2 (b b2 ) U y
u1 + u
1
J(b
u) < (J(b
u1 ) + J(b
u2 )) = nf J(u).
2 uU
Evidentemente, esta u
ltima desigualdad es absurda.
La convexidad de J permite liberarnos del caracter local de los mnimos relativos. Se tiene:
Proposici on 1.21. Sea X un espacio normado, U X un subconjunto convexo de X y J : U R
b en U, entonces ese mnimo es un mnimo
un funcional convexo. Si J admite un mnimo relativo u
global en U, es decir,
J(b
u) = nf J(u).
uU
u) J(u),
J(b u U B(b
u; ).
Sea ahora v U arbitrario y veamos que J(bu) J(v). Esta desigualdad es evidente si v B(b
u; ).
Supongamos entonces que kv u bk > y consideremos
u=u
b+ (v u
b)
2kv u
bk
1.5. C
alculo diferencial
En esta secci
on vamos a hacer un breve recordatorio de la teora de derivacion en espacios
normados.
Definicion 1.22. Sean X e Y dos espacios normados, U X un subconjunto abierto, F : U Y
un operador, x0 U y h X. Se dice que F es diferenciable en el sentido de Gateaux (o G-
diferenciable) en x0 y en la direcci
on h si existe el lmite en Y
F (x0 + h) F (x0 )
lm = F (x0 ; h) Y.
0
Al elemento F (x0 ; h) Y definido por el anterior lmite se le denomina G-diferencial de F en el
punto x0 y en la direcci on h.
Si existe F (x0 ; h) para toda h X, diremos que F es G-diferenciable en x0 , y a la aplicaci
on
F (x0 ) definida por
F (x0 ) : h X 7 F (x0 ; h) Y
la denominaremos la G-diferencial (o diferencial G
ateaux) de F en el punto x0 .
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
14 1.5. C
alculo diferencial
Por otro lado, si introducimos la funcion de variable real g(t) = F (x0 + th) (definida en un entorno
de t = 0), entonces, se tiene que F es G-diferenciable en el punto x0 y en la direccion h si y s
olo si
0
g es derivable en 0. En este caso, g (0) = F (x0 ; h).
Siguiendo con las definiciones, pasemos a la siguiente:
Definicion 1.23. Sean X e Y dos espacios normados, U X un subconjunto abierto, x0 U
y F : U Y un operador G-diferenciable en x0 . Si la aplicaci on F (x0 ) es un operador lineal y
continuo de X en Y , es decir, si F (x0 ) L(X, Y ), entonces se dice que F es G-derivable en x0
y a la aplicaci
on F (x0 ) se la denomina la derivada Gateaux (G-derivada) de F en x0 .
F : x H 7 F (x) = kxk2 R, x H.
Este funcional puede ser escrito F (x) = (x, x) y as, aplicando el punto anterior, deducimos
que F es G-derivable en todos los puntos de H y
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 15
La anterior definici
on nos proporciona un nuevo concepto de derivada en los espacios de Banach
que, evidentemente esta relacionado con la derivada en el sentido de Gateaux. Se tiene:
Proposicion 1.25. Sean X e Y dos espacios normados y F : U X Y un operador definido
en U X un abierto. Si F es F-derivable en x0 U, entonces F es continua y G-derivable en x0 .
Ademas, F (x0 ) L(X, Y ) y F 0 (x0 ) = F (x0 ).
Prueba: Sea h X \{0} y consideremos 0 > 0 y A(x0 ) L(X, Y ) satisfaciendo la condicion (1.1).
Entonces, para 6= 0 y 0 /khkX se tiene
F (x0 + h) F (x0 ) o(h)
= A(x0 )h + .
Usando la propiedad (1.2), podemos pasar al lmite cuando 0 en la desigualdad precedente
para probar
F (x0 + h) F (x0 ) o(h) ko(h)kY
lm = A(x0 )h + lm = A(x0 )h + lm khkX = A(x0 )h,
0 0 0 khkX
de donde se deduce que F es derivable G
ateaux en x0 y F (x0 ) = A(x0 ). En particular, esto prueba
la unicidad de A(x0 ) mencionada anteriormente.
La continuidad de F en x0 es una simple consecuencia de la formulas (1.1) y (1.2). Esto acaba
la prueba.
Ejemplo 1.5. En los tres ejemplos anteriores es facil comprobar que las aplicaciones son F-
derivables en cada punto x0 X y, evidentemente, la F-derivada coincide con la G-derivada.
Efectivamente,
1. En este primer caso, F puede ser escrita
F (x0 + h) = F (x0 ) + Ah, x0 , h X.
Al ser A L(X, Y ), deducimos que F satisface (1.1) para A(x0 ) A y o(h) 0. As, F es
F-derivable en X y F 0 (x0 ) = A, para todo x0 X.
2. En este caso, F puede ser escrita de la forma
F (x0 + h) = F (x0 ) + A(x0 )h + B(h, h), x0 , h X
con A(x0 )h = B(x0 , h) + B(h, x0 ). Si hacemos o(h) B(h, h) entonces, utilizando que B
L2 (X, Y ), deducimos que F satisface (1.1) y (1.2), es decir, F es F-derivable en cualquier
punto x0 X y F 0 (x0 ) B(x0 , ) + B(, x0 ).
3. Este ejemplo es un caso particular del anterior para X = H un espacio de Hilbert, Y = R y
B(, ) = (, ).
Observaci on 1.4. Todas las nociones de diferencial y derivada que se han introducido poseen
caracter lineal en F .
Por otro lado, el concepto de derivada Gateaux de un operador F definido entre los espacios
normados X e Y es realmente m as debil que el concepto de derivada en el sentido Frechet. Esto es
cierto incluso en el caso de espacios de dimension finita. Veamos un ejemplo: Consideremos X = R2 ,
Y = R y F el funcional dado por
x6
F (x, y) = si (x, y) 6= (0, 0), F (0, 0) = 0.
(y x2 )2 + x8
Es facil comprobar que F es G-diferenciable en el punto (0, 0), con G-derivada dada por F (0, 0) =
(0, 0), pero no es continua en (0, 0). Por tanto, F no es derivable en el sentido de Frechet.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
16 1.5. C
alculo diferencial
F (x2 ) F (x1 ) = F (, x2 x1 ).
Es facil comprobar directamente que C 1 ([0, 1]) y, as, el resultado se obtiene como consecuencia
del teorema del valor medio de funciones reales de variable real.
2. Como consecuencia del Teorema de Hahn-Banach, dado F (x2 ) F (x1 ) Y , existe y Y 0 ,
con ky kY 0 = 1, tal que
El resultado se obtiene sin m as que aplicar el teorema del valor medio a la funcion real de variable
real (t) = hy , F (x1 + t(x2 x1 )iY 0 ,Y definida en [0, 1].
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 17
con
o(h) = F (x0 + h) F (x0 ) F (x0 )h.
Veamos que o(h) satisface (1.2). Como F (x) es continua en U, fijado > 0, existe (0, 0 ) tal
que
kF (x0 + h) F (x0 )kL(X,Y ) h X con khk .
Si h X y khk , entonces el segmento [x0 , x0 + h] B(x0 , 0 ) U y podemos aplicar el
on F () F (x0 )(), deduciendo la existencia de (x0 , x0 + h) tal que
Teorema 1.27 a la aplicaci
Es posible dar un resultado m as general que el Teorema 1.27. Con ayuda del concepto de
G-diferencial segunda de un operador F , se tiene:
Teorema 1.30. Sean X e Y dos espacios normados, U X un abierto y F : U Y un operador.
Dados x1 , x2 U tales que [x1 , x2 ] U, supongamos que F es dos veces G-diferenciable en todo
on x2 x1 . Entonces,
punto de [x1 , x2 ] en la direcci
1. Si Y = R, existe (x1 , x2 ) tal que
1
F (x2 ) = F (x1 ) + F (x1 , x2 x1 ) + 2 F (, x2 x1 , x2 x1 ).
2
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
18 1.5. C
alculo diferencial
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 19
Proposici
on 1.32. En las hip on 1.31, J es convexa en U si y s
otesis de la Proposici olo si
(1.6) 2 J(x1 , x2 x1 , x2 x1 ) 0, x1 , x2 U.
2. Si se tiene
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
20 1.5. C
alculo diferencial
Observaci on 1.6. Observese que la condicion (1.7) no es una condicion necesaria para que J sea
estrictamente convexa en U. Basta considerar el funcional (funcion) definida en X = R dada por
J(t) = t4 que es, evidentemente, estrictamente convexa en R y no satisface (1.7).
a(x, x) 0, x X.
Prueba: Como u int y J alcanza en u un mnimo relativo, deducimos que existe 0 > 0 tal que
B(u; 0 ) y J(u) J(v), para cualquier v B(u; 0 ). Sea h V con h 6= 0 y supongamos que
(0, 0 ). Entonces,
J(u, h/khk) = lm J(u + h/khk) J(u) 0
0+
J(u h/khk) J(u)
0.
J(u, h/khk) = lm
0+
En consecuencia, J(u; h/khk) = 0 para cualquier h V con h 6= 0. Utilizando una vez mas que la
G-diferencial es homogenea respecto de h deducimos el resultado.
Observacion 1.7. El resultado anterior deja de ser cierto si no imponemos la hipotesis u int .
Efectivamente, basta considerar el funcional J(x) = x definido en = [0, 1] V R.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 21
(1.9) J(u, v u) 0 v U.
Por otro lado, fijado v U, existe 1 (0, 1) tal que u + (v u) B(u; 0 ), para (0, 1 ).
Evidentemente, al ser U un conjunto convexo, u + (v u) U y podemos escribir
J(u + (v u)) J(u)
J(u, v u) = lm 0.
0+
2. Supongamos ahora que J es convexo en U y que se tiene (1.9) para u U. Veamos que u es un
mnimo global de J en U. Efectivamente, sea v U; como J es convexo en U se tiene (ver (1.3))
J(u, w) = 0, w W.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
22 1.6. Aplicaciones
Entonces,
1.6. Aplicaciones
Analicemos en esta secci
on dos sencillas aplicaciones de los anteriores conceptos. En ellas ob-
tendremos resultados sobre problemas de mnimo ya conocidos.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 23
1
(1.11) J(v) = a(v, v) hL, vi, v V,
2
donde a(, ) : V V R es una forma bilineal, continua y simetrica y L : V R es una forma
lineal y continua en V , es decir, L V 0 . Evidentemente, existen constantes C1 , C2 > 0 (de hecho
C2 = kLkV 0 ) tales que (
|a(v, w)| C1 kvkkwk, v, w V,
|hL, vi| C2 kvk, v V.
Supongamos que la forma bilineal a(, ) es coercitiva en V , i.e., existe > 0 tal que
El funcional J es F-derivable en V (ver Ejemplos 1.4 y 1.5) y en este caso J 0 (v) L(V, R) = V 0
esta dada por
hJ 0 (v), wiV 0 ,V = a(v, w) hL, wi, u, w V,
1
(hJ 0 (v), wiV 0 ,V = (a(v, w) + a(w, v)) hL, wi, u, w V
2
si a(, ) no es simetrica). Del Ejemplo 1.6 deducimos tambien que J es dos veces G-diferenciable
en V en cualquier direcci on h (de hecho, J es dos veces F-derivable en V ) y
De la Proposici
on 1.33 (ver tambien el Ejemplo 1.7) y de la condicion (1.12) obtenemos que
J es estrictamente convexo en V . Efectivamente, se tiene a(v, v) > 0 para cualquier v V
con v 6= 0.
1 1
J(v) = a(v, v) hL, vi kvk2 kLkV 0 kvk kvk2 kLk2V 0 kvk2
2 2 2 4
1
= kvk2 kLk2V 0 .
4
De aqu obtenemos la propiedad.
Fijemos ahora U V un subconjunto cerrado convexo no vaco y consideremos el problema de
mnimos
Minimizar J(v) = 1 a(v, v) hL, vi
(1.13) 2
Sujeto a v U.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
24 1.6. Aplicaciones
nico u U soluci
Teorema 1.36. En las condiciones anteriores, existe un u on del problema (1.13).
as u U es soluci
Adem on de (1.13) si y s
olo si
En este caso es f acil comprobar que la forma bilineal a(, ) y la forma lineal L son continuas y,
ademas, a satisface (1.12). Aplicando el Teorema 1.36 deducimos que el problema de mnimos (1.13)
(planteado en un conjunto cerrado, convexo no vaco U RN ) admite una u nica solucion u RN
y esta esta caracterizada por
(Au b, v u) 0, v U.
Cuando U RN , la caracterizaci
on de u se reescribe (ver Observacion 1.9)
Au = b,
es decir, el problema de mnimos (1.13) equivale a la resolucion de un sistema lineal con matriz de
coeficientes A y segundo miembro b.
e U tal que
(
Hallar u
(1.14)
ke
u u0 k = nf kv u0 k.
vU
Es facil comprobar que a y L satisfacen las condiciones de la Seccion 1.6.1. En particular, a(, )
es una forma bilineal, continua y coercitiva en U (satisface (1.12) para = 1). Podemos aplicar
por tanto el Teorema 1.36 y deducir:
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 25
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
26 1.6. Aplicaciones
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Captulo 2
En lo que sigue supondremos que V es un espacio de Hilbert equipado con un producto escalar
denotado (, ) y con norma asociada k k. Utilizaremos el Teorema de Riesz para identificar V con
su dual V 0 . Recordemos que esa identificacion viene dada mediante el producto escalar de V: Dado
f V 0 , existe un u
nico elemento uf V tal que kuf k = kf kV 0 y
(1 )
(2.1) J((1 )u + v) (1 )J(u) + J(v) ku vk2 .
2
La constante positiva es denominada constante de elipticidad de J asociada a U.
J(v) kvk2 , v U.
27
28 2.1. Funcionales elpticos
+ hL,
e vi > 0 + hL,
e v0 i, (, v) Epi (J).
No es difcil comprobar que > 0 (puesto que podemos tomar arbitrariamente grande). Sin m
as
que considerar (J(v), v) Epi (J) y dividir por , la desigualdad anterior se transforma en
y de aqu,
J(v) kvk2 (v, v0 ) + hL, vi + C1 ,
4 2
con C1 = (/4)kv0 k2 +hL, v0 iJ(v0 )+2C. Aplicando la desigualdad de Cauchy-Schwarz, deducimos
J(v) kvk2 (kLkV 0 + kv0 k/2) kvk + C1 kvk2 ,
4 8
para cierta constante .
Podemos ahora establecer un resultado de existencia y unicidad de mnimo para funcionales
elpticos sobre un convexo cerrado no vaco. Se tiene:
Adem
as, se tiene
4
(2.3) kv uk2 (J(v) J(u)) , v U,
on minimizante de J en U converge hacia u.
de donde se deduce que cualquier sucesi
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 29
J(u, v u) 0, v U.
(2.4) J(v) J(u) + J(u, v u) + kv uk2 , u, v U.
2
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
30 2.1. Funcionales elpticos
Ejemplo 2.2. Veamos el caso particular en el que V tiene dimension finita. Para ello, consideramos
V = RN , con N 1, A L(RN ) una matriz de orden N y b RN . Introduzcamos el funcional
cuadratico en RN dado por:
1
J(x) = (Ax, x) (b, x) x RN ,
2
donde mediante (, ) estamos denotando el producto eucldeo en RN . Entonces, J es elptico en
RN si y solo si A es definida positiva y la constante de elipticidad del funcional coincide con la
constante que da el car acter definido positivo de la matriz A.
Ejemplo 2.3. Veamos otro caso particular del Ejemplo 2.1. Consideremos RN un abierto
acotado y recordemos que1
H 1 () = {v L2 () : i v L2 () para todo i : 1 i N },
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 31
3. haremos un+1 = un + n dn .
Esta es la estructura general de un llamado metodo de descenso. El problema surge en como
elegir la mejor direccion de descenso, es decir, la direccion dn V que haga que la diferencia
J(un ) J(un+1 ) sea lo mayor posible. Veamos como podemos elegir esa direccion optima (al menos
localmente optima):
Supongamos que J C 1 (V ), es decir, supongamos que J es F-diferenciable en V con F-derivada
continua. Si hacemos wn = n dn , entonces un+1 = un + wn y
J(un+1 ) = J(un ) + (J 0 (un ), wn ) + kwn ko(wn ) con lm o(w) = 0,
kwk0
donde mediante J 0 (v) estamos denotando la F-derivada de J en v. Recordemos que, con la identi-
ficacion V V 0 , J 0 (un ) V . De aqu deducimos
J(un ) J(un+1 ) = (J 0 (un ), wn ) kwn ko(wn ),
Gracias a la desigualdad de Cauchy-Schwarz, se deduce |(J 0 (un ), wn )| kJ 0 (un )kkwn k y la igualdad
se alcanza cuando J 0 (un ) y wn son proporcionales. Esto nos conduce a tomar wn = J 0 (un ), es
decir, tomaremos como direcci on de descenso en la etapa n + 1 la del gradiente de J en un .
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
32 2.2. M
etodos del gradiente para problemas de mnimo sin restricciones
2.2.1.
Algoritmo del Gradiente con Paso Optimo (AGPO)
Supongamos que J C 1 (V ). Con las consideraciones anteriores planteamos el Metodo del
Gradiente con Paso Optimo:
1. Elegir u0 V .
Dados n 0 y un V :
2. Calcular J 0 (un ) V .
J 0 (u) = 0.
Esta igualdad nos permite suponer que J 0 (un ) 6= 0 para todo n 0, pues en caso contrario
tendramos que un u y el metodo sera convergente en un n umero finito de etapas. Veamos ya la
prueba del resultado:
Etapa 1. En esta primera etapa comprobaremos que el algoritmo esta bien definido. Supongamos
dado n 0 y un V , con J 0 (un ) 6= 0, y calculemos un+1 . Consideremos la funcion fn : R R
dada por
fn () = J(un J 0 (un )).
Claramente, fn C 1 (R) y fn0 () = (J 0 (un J 0 (un )), J 0 (un )). Veamos que fn es elptica en R.
Efectivamente, si , R y [0, 1], tenemos
0 0
fn ((1 ) + ) = J (1 ) u n J (un ) + un J (un )
(1 )J un J 0 (un ) + J un J 0 (un )
(1 )
k( )J 0 (un )k2
2
(1 ) 0
= (1 )fn () + fn () kJ (un )k2 | |2 ,
2
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 33
de donde colegimos que fn es elptica en R con constante de elipticidad kJ 0 (un )k2 . Aplicando el
Teorema 2.3 obtenemos que fn tiene un u nico mnimo en R que esta caracterizado por fn0 (n ) = 0.
Tenemos asegurado que el algoritmo est a bien definido.
Puesto que fn0 (n ) = 0, deducimos,
J 0 (un+1 ), J 0 (un ) = 0, n 0,
(2.8)
(2.9) lm kun+1 un k2 = 0.
Veamos ya la u ltima propiedad de la sucesion {un }n0 . Gracias a la Proposicion 2.2, sabemos
que el funcional J es coercitivo en V . Como {J(un )}n0 es convergente, necesariamente {un }n1
esta acotada. As, existe M > 0 tal que
(2.10) kun k M, n 0
Etapa 3. Probemos la convergencia de la sucesion. Esta se va a deducir de la combinacion de las
propiedades anteriores (v
alidas en cualquier algoritmo de descenso) y de una propiedad particular
del (AGPO). Es la siguiente:
kJ 0 (un )k2 = (J 0 (un ), J 0 (un )) = (J 0 (un ), J 0 (un ) J 0 (un+1 )) kJ 0 (un )kkJ 0 (un ) J 0 (un+1 )k,
es decir,
kJ 0 (un )k kJ 0 (un ) J 0 (un+1 )k.
Utilizamos ahora (2.7) y (2.10) para obtener
es decir,
1 0
(2.11) kun uk kJ (un )k 0.
Tenemos de este modo la prueba del resultado.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
34 2.2. M
etodos del gradiente para problemas de mnimo sin restricciones
Observacion 2.4. 1. Es interesante resaltar que la desigualdad (2.11) tiene un gran interes
desde el punto de vista pr
actico: proporciona una estimacion del error cometido en la etapa n
del algoritmo. Sin embargo, no nos proporciona una estimacion de la velocidad de convergencia
del algoritmo.
De aqu obtenemos
kgn k2
n = , con gn = J 0 (xn ) = Axn b.
(Agn , gn )
De esta manera, el metodo queda del siguiente modo:
1. Elegir x0 RN y > 0.
Dados n 0 y xn RN :
2. Calcular gn = Axn b.
kgn k2
4. Calcular n = y xn+1 = xn n gn . Hacer n = n + 1 y volver a 2.
(Agn , gn )
2.2.2. Algoritmos del Gradiente con Paso Fijo (AGPF) y Variable (AGPV)
Se puede simplificar el (AGPO) dando a priori el valor del paso en cada etapa n en lugar de
calcularlo resolviendo un problema de mnimos unidimensional. As, supongamos dada una sucesi
on
{e
n }n0 R y planteemos el llamado Algoritmo del Gradiente con Paso Variable (AGPV):
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 35
1. Elegir u0 V .
Dados n 0 y un V :
2. Calcular J 0 (un ) V .
Como paso particular del metodo anterior esta el Algoritmo del Gradiente con Paso Fijo que
on constante en R, para todo n 0:
consiste en tomar una sucesi
1. Elegir > 0 y u0 V .
Dados n 0 y un V :
2. Calcular J 0 (un ) V .
Supongamos adem
as que existen a, b > 0 tales que
2
0 < a en b < , n 0.
L2
Entonces, el algoritmo (AGPV) es convergente con convergencia geometrica, es decir, existe =
(, L, a, b) [0, 1) tal que, para cualquier u0 V , se tiene:
siendo u V la u
nica soluci
on del problema de mnimos (2.6).
Prueba: Bajo las condiciones del enunciado se tiene que el funcional J admite un u nico mnimo
on de Euler J 0 (u) = 0 en V . Por tanto, podemos escribir
u V que satisface la ecuaci
siendo P el polinomio dado por P () = L2 2 2+1. Es facil comprobar que P (0) = P (2/L2 ) = 1
y que mn[0,2/L2 ] P () = P (/L2 ) = 1 2 /L2 [0, 1) (pues, como se comprueba facilmente,
L). q
Por otro lado, si hacemos = ax[a,b] P () [0, 1), entonces kun+1 uk2 2 kun uk2 .
m
De aqu se concluye el resultado.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
36 2.2. M
etodos del gradiente para problemas de mnimo sin restricciones
Observaci on 2.5. El Teorema 2.3 da, en particular, un resultado de convergencia para el (AGPF).
Para ello basta elegir (0, 2/L2 ). Teniendo en cuenta la expresion del polinomio P deducimos
que la elecci optima del paso es /L2 .
on
21
0 < a en b < , n 0.
2N
Analizando la prueba del teorema anterior, veamos que es posible mejorar la acotacion anterior.
En efecto, sea x RN el mnimo de J en RN . Sabemos que Ax = b y, as,
de donde,
kxn+1 xk kI n Ak2 kxn xk, n 0,
donde k k2 representa la norma espectral. Si hacemos f () = kI Ak2 , como I A es simetrica,
entonces,
f () = max{|1 1 |, |1 N |}.
Viendo la gr
afica de la funci
on f es facil comprobar que si
2
0 < a en b < ,
N
n ) m
entonces f (e ax{f (a), f (b)} e (0, 1). Finalmente,
Obtenemos de este modo la convergencia del (AGPV) con una cota superior para n (2/N ) que
es mejor que la que proporciona el Teorema 2.7 (21 /2N ). Tambien analizando la grafica de f ,
optimo de en el (AGPF) es 2/(1 + N ) que proporciona el siguiente
obtenemos que el valor
valor para :
e
2 N 1
e f = (0, 1).
1 + N 1 + N
Es posible probar un resultado de convergencia local del (AGPV) bajo hipotesis mas generales
que las exigidas en el Teorema 2.7. En concreto, se tiene:
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 37
Entonces, dado R > 0 y a, b (0, 2/L2R ), existe R = R (, R, a, b) [0, 1) tal que si u0 B(u; R)
y
2
0 < a en b < 2 , n 0,
LR
(u V la u
nica soluci
on del problema de mnimos (2.6)).
Prueba: La prueba es muy parecida a la del Teorema 2.7. En las hipotesis del enunciado, si fijamos
R > 0 y consideramos el polinomio
PR () = L2R 2 2 + 1
q
y R = max[a,b] PR (), entonces, es facil comprobar que R [0, 1). La prueba se obtiene
facilmente si aplicamos un razonamiento de induccion.
1
1 x21 + 2 x22 , con 0 < 1 < 2 ,
J(x1 , x2 ) =
2
Veamos este u ltimo punto. Para ello, veremos (por induccion) que si xn = (x1,n , x2,n ) satisface
x1,n 6= 0 y x2,n 6= 0, entonces, si xn+1 = (x1,n+1 , x2,n+1 ), tambien se tiene x1,n+1 6= 0 y x2,n+1 6= 0.
Efectivamente, si hacemos gn = J 0 (xn ) = (1 x1,n , 2 x2,n ), entonces vimos que xn+1 = xn n gn
kgn k2
con n = . Obtenemos por tanto,
(Agn , gn )
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
38 2.3. M
etodos del gradiente conjugado para problemas sin restricciones
J(xn+1 ) = mn J(x).
xxn +Gn
Esta claro que el anterior problema de mnimos esta bien planteado (es decir, tiene una u nica
N
solucion) pues xn + Gn es un convexo cerrado no vaco y J es elptico en R (y, en particular, en
xn + Gn ).
El algoritmo que se propone calcula los puntos xl+1 , con 0 l n, resolviendo los problemas
de minimizaci on
xl+1 xl + Gl , J(xl+1 ) = mn J(x), 0 l n.
xxl +Gl
J 0 (xl+1 ), J 0 (xi ) = 0,
(2.12) xl+1 xl + Gl y 0 i l n,
de donde deducimos que los gradientes J 0 (xl ) con 1 l k + 1 son dos a dos ortogonales (n
otese
la diferencia con el (AGPO) donde s olo los gradientes consecutivos eran ortogonales; ver (2.8)).
A la vista de lo expuesto previamente deducimos:
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 39
Como hemos supuesto que J 0 (xi ) 6= 0 para 0 i n, de la identidad anterior obtenemos que
l 6= 0 para 0 l n. Uilizando de nuevo (2.12),
y de aqu,
Definicion 2.9. Dada A L(RN ) una matriz simetrica y definida positiva y un conjunto de
vectores {wl RN : 0 l n}, se dice que son conjugados respecto de la matriz A si se tiene
l1
X i,l l1
1 X
dl = l = J 0 (xl ) + J 0 (xi ) = J 0 (xl ) + i,l J 0 (xi ),
l,l l,l
i=0 i=0
con 0 l n.
Veremos que, para 0 i < l n, el calculo de los coeficientes i,l (y por tanto de la direcci
on
de descenso dl ) es muy sencillo. Para ello utilizamos (2.14) y obtenemos,
0 = (Adl , i ) = (dl , Ai ) = dl , J 0 (xi+1 ) J 0 (xi )
l1
!
X
0 0 0 0
= J (xl ) +
m,l J (xm ), J (xi+1 ) J (xi ) ,
m=0
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
40 2.3. M
etodos del gradiente conjugado para problemas sin restricciones
es decir,
kJ 0 (xl )k2
i,l = , i : 0 i < l n.
kJ 0 (xi )k2
Volviendo a la expresi on de dl ,
l1
0
X kJ 0 (xl )k2 0
d = J (x ) + J (xi )
l l
kJ 0 (xi )k2
i=0
l2
!
kJ 0 (xl )k2 X kJ 0 (xl1 )k2 kJ 0 (xl )k2
= J 0 (xl ) + 0 J 0 (xl1 ) + J 0 (xi ) = J 0 (xl ) +
dl1 .
kJ (xl1 )k2 kJ 0 (xi )k2 kJ 0 (xl1 )k2
i=0
Esta u
ltima igualdad proporciona un procedimiento de calculo muy simple de las sucesivas
direcciones de descenso del algoritmo:
0
d0 = J (u0 ),
(2.15) kJ 0 (xl )k2
dl = J 0 (ul ) + dl1 , l : 0 l n.
kJ 0 (xl1 )k2
Para completar el algoritmo, hay que determinar el paso optimo asociado a la direccion de descenso
dl , es decir, hay que determinar l R tal que J(ul l dl ) = nf R J(ul dl ). No es difcil
comprobar que l viene dado por
(J 0 (ul ), dl )
l = .
(Adl , dl )
Tenemos los elementos para plantear el Algoritmo del Gradiente Conjugado para un funcional
cuadratico elptico (AGCCE):
atico elptico en RN
Teorema 2.10. El algoritmo del gradiente conjugado para un funcional cuadr
converge, a lo sumo, en N etapas.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 41
kJ 0 (xn+1 )k2
4. Calcular dn+1 = J 0 (xn+1 ) + dn . Hacer n = n + 1 y volver a 2.
kJ 0 (xn )k2
J 0 (un ), dn > 0,
n 0,
1. Elegir u0 V y > 0.
Dados n 0 y un V :
Veremos un resultado de convergencia global del anterior algoritmo para funcionales elpticos
definidos en un espacio de Hilbert V . Se tiene:
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
42 2.3. M
etodos del gradiente conjugado para problemas sin restricciones
Prueba: La demostraci on del resultado sigue los pasos de la demostracion del Teorema 2.6. De
nuevo, de las hip otesis del enunciado, podemos aplicar el Teorema 2.3 y deducir que el proble-
ma (2.6) admite una u on u V caracterizada por J 0 (u) = 0. De esta manera podemos
nica soluci
0
suponer que J (un ) 6= 0, para n N, pues en caso contrario, el algoritmo converge en un numero
finito de etapas. Veamos la prueba:
Etapa 1. El algoritmo est
a bien definido. Efectivamente, si consideramos la funcion
fn () = J(un dn ), R,
es facil comprobar que fn C 1 (R) y que es elptica en R (pues dn 6= 0). Tenemos as asegurada la
optimo n R que ademas satisface f 0 (n ) = 0, es decir,
existencia del paso
J 0 (un+1 ), dn = 0,
(2.17) n 0.
lm kun+1 un k2 = 0,
Etapa 3. En esta etapa intentamos probar una desigualdad parecida a (2.10). Combinando la
condicion de Polak (2.16) y la igualdad (2.17), obtenemos
1 0 1 0 1
kJ 0 (un )kkdn k J (un ), dn = J (un ) J 0 (un+1 ), dn kJ 0 (un ) J 0 (un+1 )kkdn k.
De aqu deducimos,
1 0 LM
kJ 0 (un )k kJ (un ) J 0 (un+1 )k kun un+1 k.
Observaci on 2.6. Es posible generalizar el Teorema 2.11 cambiando la condicion de Polak (2.16)
por otra condicion m as general, la llamada condicion de Zoutendijk: Existe una sucesi on
{tn }n0 (0, ) tal que
X
t2n = y J 0 (un ), dn tn kJ 0 (un )kkdn k.
n0
Para ver una prueba de este resultado, vease [9] y [5]. Evidentemente, la condicion de Polak implica
la condicion de Zoutendijk.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 43
Utilizando las expresiones anteriores, vamos a obtener dos algoritmos (distintos cuando J es un
funcional elptico definido en V , un espacio de Hilbert) que se engloban dentro de los algoritmos
de gradiente conjugado.
Empezamos por el llamado algoritmo del gradiente conjugado de Polak-Rivi` ere (1969) (AGCPR):
3. Calcular J 0 (un+1 ) V . Si kJ 0 (un+1 )k < parar el algoritmo y tomar u ' un+1 . Si kJ 0 (un+1 )k
pasar al punto siguiente.
4. Calcular
(J 0 (un+1 ) J 0 (un ), J 0 (un+1 ))
dn+1 = J 0 (un+1 ) + dn .
kJ 0 (un )k2
Hacer n = n + 1 y volver a 2.
Veremos que el algoritmo (AGCPR) es un caso particular de algoritmo del gradiente conjugado
generico. Respecto de la convergencia del algoritmo, se tiene:
Prueba: Vamos a obtener la prueba como consecuencia del Teorema 2.11. Observese que basta
comprobar que la direccion de descenso dn satisface la condicion de Polak (2.16).
En primer lugar, si dn1 6= 0, es f
acil comprobar que un V esta bien definido y satisface
J 0 (un ), dn1 = 0.
(2.18)
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
44 2.3. M
etodos del gradiente conjugado para problemas sin restricciones
Utilizando (2.18), es evidente que dn 6= 0. Esto asegura que el algoritmo esta bien definido y que
la sucesion generada {un }n0 V esta acotada (ver etapas 1 y 2 de la prueba del Teorema 2.11),
i.e., existe M > 0 tal que
kun k M, n 0.
on inferior de (J 0 (un ), dn ). Supongamos que hemos demostrado la
Comprobemos ya la acotaci
acotacion:
Esta u
ltima igualdad, la igualdad (2.20) y la expresion de n , proporciona
00 d 0
Jn1 n1 , J (un )
n = 00 d
.
Jn1 n1 , dn1
Etapa 2: Acotaci on de n . Supongamos que hemos probado la existencia de una constante C > 0
00
tal que kJn1 kL(V,V ) C. Entonces, podemos acotar el numerador de n del siguiente modo:
00
Jn1 dn1 , J 0 (un ) Ckdn1 kkJ 0 (un )k.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 45
En esta u
ltima desigualdad hemos tenido en cuenta el caracter elptico del funcional J en V y, en
concreto, la Proposici
on 2.5. Se tiene as la prueba de la desigualdad (2.19), para C0 = C/, y del
teorema.
Etapa 3: Finalicemos la prueba mostrando la acotacion de Jn1 00 en L(V, V ). Para ello probaremos
que J esta uniformente acotada (respecto de la norma de L(V, V )) en los acotados de V . Observese
00
que esto es suficiente pues sabemos que la sucesion un satisface {un }n0 B(0; M ) y, as, para
todo t [0, T ] se tiene un1 tn1 dn1 [un1 , un ] B(0; M ).
Sea R > 0 y fijemos v B(0; R) y w V tal que kwk 1. Entonces, si || 1,
1
kJ 00 (v)wk = lm kJ 0 (v + w) J 0 (v)k LR+1 kwk,
0
donde LR+1 es la constante de Lipschitz de J 0 en B(0; R + 1). Tomando supremo cuando kwk 1
obtenemos el resultado. Esto finaliza la prueba.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
46 2.3. M
etodos del gradiente conjugado para problemas sin restricciones
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Captulo 3
M
etodos Para Problemas de
Optimizaci
on con Restricciones
En este captulo vamos a interesarnos por los llamados problemas de optimizacion con restriccio-
nes. De manera general estos problemas pueden ser formulados del siguiente modo: Consideramos
un espacio de Hilbert V , un subconjunto U V y un funcional J : U R. Con estos datos,
planteamos el problema:
(
Minimizar J(v)
(3.1)
Sujeto a v U.
3.1. M
etodo del Gradiente con Proyecci
on
Empezamos esta secci
on recordando el Teorema de la Proyeccion en espacios de Hilbert:
(P w w, v P w) 0, v U.
Recprocamente, si u satisface
uU y (u w, v u) 0, v U,
entonces, u = P w.
47
48 3.1. M
etodo del Gradiente con Proyecci
on
kP w1 P w2 k kw1 w2 k, w1 , w2 V.
Pw U y P w w U .
uU y J 0 (u), v u 0, v U.
u = P u J 0 (u) ,
con > 0.
Del razonamiento anterior deducimos que la b usqueda de un mnimo de J en el convexo cerrado
no vaco U equivale a la b
usqueda de un punto fijo de la aplicacion
g : v U 7 g(v) = P v J 0 (v) U,
1. Elegir u0 U.
Dados n 0 y un U:
2. Calcular J 0 (un ) V .
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 49
Supongamos adem
as que existen a, b > 0 tales que
2
0 < a n b < , n 0.
L2
Entonces, el algoritmo (AGPPV) es globalmente convergente con convergencia geometrica, es decir,
existe = (, L, a, b) [0, 1) tal que, para cualquier u0 U, se tiene:
siendo u V la u
nica soluci
on del problema de mnimos (3.1).
Prueba: Bajo las condiciones del enunciado, podemos aplicar el Teorema 2.3 y deducir la existencia
de un unico mnimo u U de J en U. Ademas este mnimo u esta caracterizado por la inecuaci
on
variacional
J 0 (u), v u 0, v U,
es decir, u = P (u n J 0 (u)).
De esta ultima igualdad y de las propiedades de P obtenemos:
siendo Q el polinomio dado por Q() = L2 2 2+1. Ahora es facil terminar la prueba razonando
como en la prueba del Teorema 2.7.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
50 3.2. M
etodos de Penalizaci
on
Los metodos del gradiente con proyeccion proporcionan, en teora, metodos que aproximan la
solucion de un problema de optimizacion convexa. Sin embargo, no nos podemos dejar enga nar por
el Teorema 3.2: en general, es imposible aplicar el metodo pues es imposible conocer explcitamente
on P asociado a un convexo cerrado no vaco U.
el operador de proyecci
Veamos a continuacion un ejemplo sencillo donde s es posible aplicar el (AGPPV):
En el caso particular U = RN + = {x R
N : x 0, 1 i N }, el operador est
i a dado por
(P x)i = m N
ax{0, xi }, con x R e i : 1 i N .
Consideramos ahora el problema (3.1) para U = RN atico y elptico en RN :
+ y un funcional cuadr
1
J(x) = (Ax, x) (b, x) ,
2
xn+1
i ax {xni n (Axn b)i , 0} ,
= m i : 1 i N.
3.2. M
etodos de Penalizaci
on
En esta secci
on vamos a analizar los llamados metodos de penalizaci
on. Estos metodos consisten,
grosso modo, en la sustituci
on del problema de mnimos con restricciones (3.1) por otro problema
sin restricciones donde se ha a
nadido una funcion (la funcion de penalizacion) que fuerza a que
el mnimo del problema sin restricciones se alcance cercadel conjunto U y que, en el lmite, se
acerque al mnimo del problema con restricciones.
Comencemos definiendo el concepto de funci
on de penalizaci
on:
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 51
Prueba: Bajo las hip otesis del enunciado, tenemos que el problema (3.1) admite una u nica
solucion u U (ver Teorema 2.3). Por otro lado, el funcional J es tambien un funcional elptico
en V con constante de elipticidad > 0. Efectivamente, J es un funcional continuo y, para
cualesquiera w, v V y [0, 1], se tiene
1
J ((1 )w + v) = J((1 )w + v) + ((1 )w + v)
1 (1 )
(1 )J(w) + J(v) + (w) + (v) kw vk2
2
(1 )
= (1 )J (w) + J (v) kw vk2 .
2
Aplicando de nuevo el Teorema 2.3 obtenemos que existe un u nico u V tal que J (u ) =
nf vV J (v).
Observese que tanto J como J son funcionales elpticos en V . En particular, J y J son
funcionales continuos, estrictamente convexos y coercitivos en V (Proposicion 2.2). As, J y J
son tambien funcionales debilmente secuencialmente semicontinuos inferiormente en V . A le
podemos aplicar el mismo razonamiento: es continuo y convexo en V , por tanto, es d.s.c.i. en
V . Utilizaremos estas propiedades m
as adelante.
Se tiene,
1
(3.2) J(u ) J(u ) + (u ) J (u ) J (u) = J(u),
on {u }>0 esta acotada en V (J es un funcional coercitivo en V ).
lo que proporciona que la sucesi
Como V es reflexivo, existe una subsucesion {u0 }0 >0 y un elemento u0 V tal que
u0 * u0 debil en V.
0 (u0 ) lm
0
inf (u0 ) = 0,
0
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
52 3.2. M
etodos de Penalizaci
on
es decir, existe l0m J(u0 ) = J(u). Tomando de nuevo l0m en (3.2), deducimos tambien que existe
0 0
el lmite y l0m J0 (u0 ) = J(u).
0
Para finalizar, probemos que u0 u en V . Efectivamente, como J es un funcional elptico en
V , podemos utilizar la desigualdad (2.1) con = 1/2, y escribir,
2 1 1
ku0 uk (J0 (u0 ) + J0 (u)) J0 (u0 + u)
8 2 2
1 1
(J0 (u) J0 (u0 )) (J(u) J0 (u0 )) .
2 2
Sin mas que tomar lmite deducimos el resultado.
La unicidad de soluci
on del problema (3.1) permite demostrar que, en realidad, es toda la familia
{u }>0 la que converge hacia el elemento u. Esto finaliza la prueba.
Observaci on 3.2. Observese que el problema penalizado tiene muy buenas propiedades: Si J
es elptico en V , hemos visto que J tambien lo es. Ademas, si J y son F-derivables en V ,
tambien lo es J . De este modo, podemos aplicar al problema penalizado (que es un problema sin
restricciones) los algoritmos del gradiente o del gradiente conjugado vistos en el tema anterior y
construir sucesiones que aproximen la solucion u . Eligiendo suficientemente peque
no, tendramos
tambien una aproximaci on de la solucion u del problema (3.1).
Como en el caso del metodo del gradiente con proyeccion, la dificultad en la aplicaci on de
on radica en la construccion de . De manera general, dado U V un
los metodos de penalizaci
subconjunto convexo cerrado no vaco, no es facil construir una funcion de penalizacion asociada
al conjunto U. Veamos un ejemplo sencillo donde es posible construir una funcion de penalizaci on:
Ejemplo 3.2. Como ejemplo, consideremos un conjunto de restricciones que viene de un problema
de programaci on convexa en RN : Supongamos dadas las funciones continuas i : RN R, con
i : 1 i m. Supongamos tambien que i son convexas en RN para todo i : 1 i m. Con estos
datos, consideremos el conjunto U dado por
U = {x RN : i (x) 0, i : 1 i m}.
Supondremos que U 6= . Entonces, es facil comprobar que la funcion dada por
m
X
(x) = max{i (x), 0}
i=1
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 53
3.3. M
etodos de dualidad. M
etodo de Uzawa
En esta seccion consideraremos un problema general de programacion no lineal. Se trata de
nuevo del problema de optimizacion con restricciones (3.1) en el caso particular en el que el conjunto
de restricciones ser
a dado por
Definicion 3.5. Se dice que las restricciones i son cualificadas en v U si, para todo i I(v),
e V tal que
se tiene que i es F-derivable en v y, o bien, i son afines, o bien, existe w
)
(0i (v), w)
e 0,
0
i I(v).
(i (v), w)
e < 0 si i no es afn
Tomando v = 0, tenemos que I(v) = {1, 2} y es facil comprobar que las restricciones no son
cualificadas en este punto (en concreto, 2 no satisface la definicion anterior).
Observaci on 3.4. Gracias a la hip otesis de continuidad que estamos imponiendo sobre las res-
tricciones i , se tiene que v int U si y solo si I(v) = . En este caso se tiene la condicion de
cualificacion de las restricciones en el punto v.
Por otro lado, si los funcionales i son afines para cualquier i con 1 i m, entonces tambien
se tiene la condici on sobre las restricciones en cualquier punto v U.
on de cualificaci
Estamos en condiciones de enunciar uno de los resultados mas importantes en Optimizacion: las
relaciones de Kuhn-Tucker. Estas proporcionan una condicion necesaria de mnimo en Programacion
no lineal:
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
54 3.3. M
etodos de dualidad. M
etodo de Uzawa
Por analoga con el Teorema de los multiplicadores de Lagrange, el vector (u) dado por (u) =
(i (u))1im Rm + es denominado multiplicador de Lagrange generalizado asociado al m nimo
relativo u de J en U dado por (3.3).
Observaci
on 3.5. 1. Los multiplicadores i (u) que aparecen en (3.5) no estan determinados
nica, salvo que el conjunto {0i (u) : 1 i m} V sea un conjunto linealmente
de manera u
independiente.
Definicion 3.7. Se dice que las restricciones i : R, con 1 i N , son cualificadas si existe
ve U que satisface i (e
v ) < 0 para aquellas restricciones i que no son afines.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 55
Compruebese que es posible aplicar los Teoremas 3.6 y 3.8 y deducir que el problema de mnimo
tiene una u nica soluci b RN . Adem
on x b RN es solucion del anterior problema de mnimo si
as, x
m
y solo si existe p R tal que x
b satisface
x b + B p = 0,
Ab p 0, x c)Rm = 0.
(p, Bb
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
56 3.3. M
etodos de dualidad. M
etodo de Uzawa
Observacion 3.6. Como aplicaci on del teorema anterior obtenemos lo siguiente: supongamos
que los datos del problema (3.1) son convexos y que conocemos el multiplicador (u) Rm +.
Introduzcamos el funcional
m
X
Ju : v RN 7 Ju (v) = J(v) + i (u)i (v).
i=1
As, si se satisfacen las condiciones del Teorema 3.8 2, se tiene la siguiente cadena de equivalencias:
nf J(v)
vU
Utilizaremos los problemas primal y dual para determinar cada una de las componentes de
los puntos de silla del lagrangiano L. De hecho, veremos que estos dos problemas determinan
unvocamente los puntos de silla de L. Se tiene:
Proposicion 3.10. En las condiciones anteriores, el punto (u, ) U M es un punto de silla
de L en U M si y s
olo si
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 57
es decir, J(u) = mnvU J(v). Un razonamiento analogo permite probar la igualdad contraria.
Veamos el recproco. Por un lado, de la definicion de J(u) tenemos
L(u, ) J(u), M.
Se tiene:
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
58 3.3. M
etodos de dualidad. M
etodo de Uzawa
una solucion del problema de mnimo (3.1) para U (dado por (3.9)).
es decir, u U es soluci
on del problema de mnimo (3.1). Se tiene de este modo la prueba del
primer punto.
2. Estamos en condiciones de aplicar el Teorema 3.8 1, deduciendo la existencia de Rm
+ tal
m
que se satisfacen las relaciones de Kuhn-Tucker (3.5). As, si R+ ,
m
X
L(u, ) = J(u) + i i (u) J(u) = L(u, ), Rm
+.
i=1
Por otro lado, de (3.5) deducimos que la funcion convexa en V L(, ) tiene un mnimo global
en el punto u. De aqu, L(u, ) L(v, ), para cualquier v V . Uniendo las dos desigualdades
obtenemos que (u, ) es un punto de silla de L en V Rm
+ . Esto termina la prueba del resultado.
Observaci on 3.8. El resultado anterior establece una clara relacion entre las soluciones u del
problema de mnimo con restricciones (3.1) (con U dado por (3.9)) y los puntos de silla del Lagran-
giano L dado por (3.10). Observese que la segunda componente Rm + del punto de silla es el
correspondiente multiplicador de Lagrange asociado a u. Como comentamos en la Observaci on 3.5,
este multiplicador no esta determinado de manera u nica, incluso si el problema de mnimo (3.1)
admite una u on u U.
nica soluci
3.3.3. M
etodo de Uzawa para un funcional elptico
El Teorema 3.11 muestra una estrategia para el calculo de la solucion del problema de mni-
mos (3.1) planteado en U (U dado por (3.9)). Esta estrategia utiliza tambien la Proposicion 3.10,
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 59
proposicion que permite calcular las componentes del punto de silla mediante los problemas primal
y dual
nf J(v) y sup G(),
vU M
lo que proporciona Rm+ , y despues calcular la primera componente (y solucion del problema de
programacion) del punto de silla utilizando la desigualdad derecha de (3.6):
uV y L(u, ) L(v, ), v V,
con L, dado por (3.10), el lagrangiano asociado a J. Observese que este u ltimo problema es un
problema de mnimos sin restricciones.
Observese que el problema dual es un problema con restricciones planteado en Rm (espacio
de dimension finita). El conjunto de restricciones (Rm+ ) es un conjunto convexo cerrado no vac
o.
Ademas, conocemos el operador de proyeccion asociado (ver Ejemplo (3.1)). Esto permite utilizar
el algoritmo del gradiente con proyeccion si el funcional G fuese F-derivable en Rm
+ . Veremos que,
bajo ciertas condiciones sobre los datos, esto es posible.
Supondremos:
Hipotesis (H): Supongamos que V es un espacio de Hilbert, J, i : V R son (m+1)-funcionales
continuos en V (m 1). Supongamos ademas que los funcionales i son convexos en V (para todo
i : 1 i m) y que J es elptico en V (con constante de elipticidad > 0). Finalmente,
supongamos que J es F-derivable en V y que las restricciones son cualificadas (en el sentido de la
Definicion 3.7.
Es facil comprobar que bajo las hipotesis (H), el problema de mnimo (3.1) (con U dado por (3.9))
admite una u on u U. Supongamos por un momento que las restricciones i (1 i m)
nica soluci
son tambien F-derivables en V . Podemos aplicar el Teorema 3.11, deduciendo que u tiene asociada
al menos un Rm + tal que (u, ) es un punto de silla del lagrangiano L en V R+ , L dado
m
G() = nf L(v, )
vV
J 0 (u ) + 0 (u ) = 0 en V,
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
60 3.3. M
etodos de dualidad. M
etodo de Uzawa
G0 () = (u ) + J 0 (u ) + 0 (u ) u0 (u ).
El calculo anterior permite calcular (formalmente) el gradiente del funcional G() en cada punto
Rm + . Podemos as introducir el algoritmo de Uzawa (Algoritmo del Gradiente con Proyecci on
y Paso Fijo aplicado al problema dual (3.11)). Recordemos que el operador de proyeccion de Rm +
esta dado por:
(P+ x)i = max{xi , 0}, x Rm .
Algoritmo de Uzawa:
1. Elegir 0 Rm
+ y > 0.
Dados n 0 y n Rm
+:
Observaci on 3.9. Observese que, en la aplicacion del metodo de Uzawa, en cada etapa n se va
calculando la soluci
on del problema de mnimo sin restricciones
Teorema 3.12. Supongamos que se satisfecen las hip otesis (H). Supongamos adem as que los fun-
cionales i , con 1 i m, son globalmente lipschitzianos en V , es decir, existe L > 0 tal que
Entonces, si
2
0<<,
L2
el metodo de Uzawa converge globalmente, es decir, para cualquier 0 Rm on {un }n0
+ , la sucesi
proporcionada por el algoritmo de Uzawa converge hacia la solucion u U del problema (3.1) (U
dado por (3.9)).
Prueba: En primer lugar, J es un funcional elptico y las restricciones i son continuas y convexas
en V . Por otro lado, las restricciones son cualificadas. Deducimos que el conjunto U es un convexo
cerrado no vaco y que el problema (3.1), con U dado por (3.9), admite una u nica solucion u U.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 61
Por otro lado, fijado Rm+ , se tiene que el funcional L(v, ) = J(v) + (v) es el
ptico en V
nico u V solucion del problema
(con constante de elipticidad ). As, existe un u
L(u , ) = nf L(v, ).
vV
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
62 3.3. M
etodos de dualidad. M
etodo de Uzawa
Observaci on 3.10. El algoritmo de Uzawa nos permite aproximar la solucion u del problema
de optimizacion con restricciones (3.1) (con U dado por (3.9)) por una sucesion de problemas de
optimizacion sin restricciones (etapa 2 del algoritmo de Uzawa). En cada etapa n del algoritmo
tambien se calcula directamente n+1 = P+ (n + (un )) Rm + . Como dijimos m as arriba, el
Teorema 3.12 solo asegura la convergencia de la sucesion {un }n1 V . Observese que este teorema
no dice nada sobre la convergencia de la sucesion {n }n1 Rm+ . Es f
acil comprobar que en el caso
en el que el lagrangiano L (ver (3.10)) tiene un u nico punto de silla (u, ) (o equivalentemente,
es u
nico), entonces tambien se tiene
lm |n | = 0.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Captulo 4
2. El estado yv del sistema que se quiere controlar. Para cada v Uad , el estado yv se determina
resolviendo la ecuacion de estado
yv = f (v),
3. La observaci
on z(v) que es una funcion del estado yv .
63
64 4.2. Control
optimo de e.d.o.
4. La funcion coste J(v) que esta definida a partir de una funcion positiva que esta definida
sobre el espacio de las observaciones por
J(v) = (z(v)).
nf J(v),
vUad
Dentro de la Teora de Control Optimo pretendemos dar respuesta a las siguientes cuestiones:
(ii) Obtenci
on de condiciones necesarias (o necesarias y suficientes) para la/las soluciones del
problema de control
optimo (condiciones de optimalidad ).
(iii) Estudio de la estructura y de las propiedades de las soluciones de las condiciones de optima-
lidad.
(iv) Obtenci
on de algoritmos constructivos para la aproximacion de la/las soluciones del problema
de minimizaci
on precedente.
Debido al caracter introductorio de este tema, aqu solo nos dedicaremos al estudio de las dos
primeras cuestiones en dos situaciones sencillas: cuando el sistema de estado esta gobernado por un
sistema diferencial ordinario lineal y cuando el sistema esta gobernado por una EDP elptica lineal.
Por otro lado, s
olo consideraremos funcionales coste J sencillos: solo estudiaremos funcionales que
se pueden reescribir como un funcional cuadratico elptico en un espacio de Hilbert. Evidentemente,
el estudio de las cuatro cuestiones anteriores depende fuertemente del modelo y del funcional J
considerados.
4.2. Control
optimo de ecuaciones diferenciales ordinarias lineales
Comenzamos nuestro estudio de algunos problemas de control optimo de sistemas gobernados
por ecuaciones, con el caso m as sencillo: sistemas gobernados por un sistema diferencial ordinario
lineal con coeficientes constantes. Para ello, sean n, m 1 dos n
umeros naturales y T > 0 un n
umero
real (tiempo final de observaci on). Consideremos A L(Rn ) y B L(Rm ; Rn ) dos matrices. Para
cada v L2 (0, T ; Rm ) e y0 Rn consideramos el sistema diferencial ordinario lineal (ecuacion de
estado)
(
yt = Ay + Bv en (0, T )
(4.1)
y(0) = y0 .
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 4. Control
optimo de sistemas lineales 65
En nuestro caso particular, podemos calcular una matriz fundamental como F (t) = etA , con
t R. As, la soluci
on de (4.1) viene dada mediante la expresion
Z t
tA
yv (t) = e y0 + e(ts)A Bv(s) ds, t R.
0
zv = Cyv L2 (0, T ; R` ).
Si ahora hacemos = C0 L(L2 (0, T ; Rm ); L2 (0, T ; R` )), entonces el funcional J puede ser
escrito como
1
J(v) = a(v, v) hL, vi + C0 ,
2
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
66 4.2. Control
optimo de e.d.o.
a(v, w) = (v, w)L2 (0,T ;R` ) + (v, w)L2 (0,T ;Rm ) , v, w L2 (0, T ; Rm ),
hL, vi = (zd CY0 , v)L2 (0,T ;R` ) + (vd , v)L2 (0,T ;Rm ) , v L2 (0, T ; Rm ),
a(v, v) = kvk2L2 (0,T ;R` ) + kvk2L2 (0,T ;Rm ) kvk2L2 (0,T ;Rm ) , v L2 (0, T ; Rm ),
de donde deducimos que J es un funcional cuadratico y elptico (con constante asociada > 0) en
el espacio de Hilbert L2 (0, T ; Rm ) (vease el Ejemplo 2.1). Tenemos as la prueba del resultado.
Observaci on 4.2. En la prueba anterior hemos utilizado de manera fundamental que la constante
en (4.2) es positiva. Siguiendo el razonamiento anterior, si = 0, el funcional J sigue siendo
un funcional cuadr atico que verifica a(v, v) 0, para cualquier v L2 (0, T ; Rm ). Esta u
ltima
2 2 m
propiedad garantiza que el funcional J es continuo y convexo en L (0, T ; L (R )), pero de estas
propiedades no podemos deducir la existencia y/o unicidad de solucion para el problema de control
optimo (4.3).
Ejercicio 4.1. En las condiciones del Teorema 4.1, supongamos que 0. Demuestrese que el
conjunto
Ue = {u Uad : u es solucion del problema de control optimo (4.3)}
d
(yv (t), (t))Rn = (Bv(t), (t))Rn (yv (t), f (t))Rn = (v(t), B (t))Rm (yv (t), f (t))Rn ,
dt
e integrado entre 0 y T ,
Z T Z T
0= (v(t), B (t))Rm dt (yv (t), f (t))Rn dt = (v, B )L2 (0,T ;Rm ) (yv , f )L2 (0,T ;Rn ) .
0 0
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 4. Control
optimo de sistemas lineales 67
es decir, el operador adjunto de 0 , 0 L(L2 (0, T ; Rm ); L2 (0, T ; Rn )), esta dado por la igualdad
0 f = B , con soluci
on del problema adjunto (4.5).
Pasemos a continuaci
on a dar las condiciones de optimalidad del problema de control opti-
mo (4.3). Se tiene:
Teorema 4.2. Bajo las condiciones del Teorema 4.1, la u nica soluci
on del problema de control
optimo (4.3), u Uad , est
a caracterizada por ser soluci
on de la inecuaci
on variacional
a(v, w) hL, wi = (C0 v, C0 w)L2 (0,T ;R` ) + (v, w)L2 (0,T ;Rm )
(zd CY0 , C0 w)L2 (0,T ;R` ) (vd , w)L2 (0,T ;Rm )
= (0 C [C (0 v + Y0 ) zd ] + (v vd ), w)L2 (0,T ;Rm ) ,
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
68 4.3. Control
optimo de EDP elpticas
Observaci on 4.4. En realidad, la caracterizacion del control optimo u dada en el Teorema 4.2
sigue siendo valida en el caso [0, ). Efectivamente, en este caso el funcional J dado en (4.2)
sigue siendo un funcional cuadr atico convexo (posiblemente no elptico) en L2 (0, T ; Rm ). Por tanto,
la caracterizaci
on de las posibles soluciones de (4.3) continua siendo
u Uad y a(u, v u) hL, v ui 0, v Uad .
De aqu se obtiene el resultado general.
Observaci on 4.5. En esta secci on hemos considerado el caso de un s.d.o. de coeficientes cons-
tantes (A L(Rn ) y B L(Rm ; Rm )). Por otro lado, tambien hemos considerado una matriz de
observacion constante (C L(Rn ; R` )). Es importante resaltar que los resultados presentados en
los Teoremas 4.1 y 4.2 siguen siendo validos cuando consideramos matrices de coeficientes variables,
es decir, cuando
A C 0 ([0, T ]; L(Rn )), B C 0 ([0, T ]; L(Rm ; Rn )) y C C 0 ([0, T ]; L(Rn ; R` )).
Observaci on 4.6. En el problema de control optimo estudiado en esta seccion para el sistema de
estado dado por (4.1), hemos considerado una observacion definida a traves de una matriz C
L(Rn ; R` ). Evidentemente hay otras posibles elecciones de operadores de observacion. Destacamos
el caso en el que C es el operador definido del siguiente modo:
C : w C 0 ([0, T ]; Rn ) 7 w(T ) Rn .
Es facil comprobar que C es un operador lineal y continuo entre C 0 ([0, T ]; Rn ) y Rn , i.e., C
L(C 0 ([0, T ]; Rn ); Rn ). As, podemos definir el funcional coste:
1 1 1 1
J (v) = |Cyv yd |2Rn + kvk2L2 (0,T ;Rm ) = |yv (T ) yd |2Rn + kvk2L2 (0,T ;Rm ) ,
2 2 2 2
donde yv C 0 ([0, T ]; Rn ) es la solucion de (4.1) asociada a v L2 (0, T ; Rn ) e y0 Rn , yd Rn
es el estado final deseado y es un n umero real positivo. Mediante | |Rn estamos denotando la
norma euclidea en RN . Este problema de control optimo entra dentro de los llamados problemas
de controlabilidad exacta para el sistema (4.1).
Ejercicio 4.2. En las condiciones de la anterior observacion, fijemos Uad un convexo cerrado no
vaco de L2 (0, T ; Rm ). Pruebese que el problema de control optimo
(
Minimizar J (v)
Sujeto a v Uad .
con yv la soluci nica solucion u Uad . Obtengase el sistema
on de (4.1) asociada a v, tiene una u
de optimalidad asociado al anterior problema de control optimo.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 4. Control
optimo de sistemas lineales 69
Recordemos (vease [3]) que y es solucion debil de (4.10) si y esta en H01 () y satisface
Z
a0 (y, w) = 1 v(x)w(x) dx, w H01 (),
N Z
X Z
(4.12) a0 (y, w) = aij (x)j y(x)i w(x) dx + c(x)y(x)w(x) dx, y, w H01 ().
i,j=1
Veamos en primer lugar que el sistema de estado (4.10) esta bien planteado. Se tiene:
Teorema 4.3. Bajo las condiciones anteriores, sean aij , c L () satisfaciendo (4.11). Entonces,
para cada v L2 () el problema (4.10) admite una u on debil yv H01 () que depende
nica soluci
lineal y continuamente de v, es decir, existe una constante positiva C (dependiente de kaij k , kck
y ) tal que
kyv kH01 () CkvkL2 () .
Observaci
on 4.8. Como consecuencia del Teorema 4.3, el operador
e 0 : v L2 () 7
e 0 v = yv L2 (),
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
70 4.3. Control
optimo de EDP elpticas
(4.13) e = 1 kCy
J(v) e v zd k2 + kv vd k2 2 ,
H L ()
2 2
donde 0 esta dado e yv es la solucion del sistema de estado (4.10) asociada a v L2 (). De
nuevo, fijemos Uad L2 () un subconjunto cerrado, convexo y no vaco (el conjunto de controles
admisibles) y planteemos el problema de control optimo:
(
Minimizar J(v)e
(4.14)
Sujeto a v Uad .
Observaci on 4.9. De nuevo, podemos interpretar el funcional coste (4.13) como lo hicimos en
la Observaci on 4.1: pretendemos calcular un control v en el conjunto de controles admisibles que
este lo mas cerca posible de un valor prefijado vd y que haga que la observacion del estado asociado
tambien este cerca de un valor deseado zd . El segundo sumando de (4.13) tiene en cuenta cu anto
cuesta actuar sobre el sistema de estado (4.10).
Respecto de la existencia y unicidad de control optimo, se tiene:
Teorema 4.4. Bajo las condiciones anteriores, supongamos que Uad L2 () es un subconjunto
cerrado, convexo y no vaco y fijemos (0, ). Entonces, el problema de control
optimo (4.14)
tiene una u on u Uad .
nica soluci
Prueba: La demostraci on del resultado es parecida a la del Teorema 4.1. Veremos que el coste Je es
un funcional cuadratico elptico en el espacio de Hilbert L2 (), con constante de elipticidad > 0.
De nuevo, el resultado ser a consecuencia del Teorema 2.3.
El funcional Je puede ser escrito como
e = 1e
J(v) a(v, v) hL,
e vi + C0 ,
2
a(, ) la forma bilineal, continua y simetrica en L2 () dada por
con e
a(v, w) = (C
e ee 0 v, C
ee 0 w)H + (v, w)L2 () , v, w L2 (),
L es la forma lineal y continua en L2 () dada por
hL,
e vi = (zd , C
ee 0 v)H + (vd , v)L2 () , v L2 (),
y, finalmente, C0 R es la constante dada por
1
C0 = kzd k2H + kvd k2L2 () .
2 2
As,
a(v, v) = kC e 0 vk2 + kvk2 2 2
v L2 (),
L () kvkL2 ( ,
e
e H
de donde deducimos que Je es un funcional cuadratico y elptico (con constante asociada > 0) en
el espacio de Hilbert L2 (). Esto finaliza la prueba.
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 4. Control
optimo de sistemas lineales 71
Observaci on 4.10. De nuevo, para deducir la existencia y unicidad de solucion del problema
de control optimo (4.14) hemos utilizado de manera fundamental que la constante en (4.13) es
positiva. Si = 0, el funcional Je sigue siendo un funcional cuadratico y positivo, pero el problema
de control optimo (4.3) podra no tener solucion o esta podra no ser unica. En cualquier caso,
tambien se tiene la propiedad:
Ejercicio 4.4. En las condiciones del Teorema 4.4, supongamos que 0. Demuestrese que el
conjunto
U
e = {u Uad : u es solucion del problema de control optimo (4.14)}
Antes de pasar a estudiar las condiciones de optimalidad para el problema (4.14) veamos en
que consiste el operador adjunto a e . Para ello, introducimos el sistema adjunto a (4.10):
e 0,
0
XN
i (aij (x)j ) + c(x) = f en ,
(4.15) i,j=1
= 0 sobre ,
on f L2 () est
donde la funci a dada. Aplicando el Teorema 4.3 se tiene que, para cada f L2 (),
nica solucion H01 () que depende lineal y continuamente
el sistema adjunto (4.15) posee una u
de f .
Multiplicando por la EDP de (4.10), por yv la EDP de (4.15) e integrando por partes, es facil
comprobar la igualdad
Z Z
v(x)1 (x) dx = yv (x)f (x) dx, v, f L2 (),
(v, 1 )L2 () = (
e 0 v, f )L2 () , v, f L2 ().
e 0 : f L2 () 7
e 0 f = 1 L2 (),
Teorema 4.5. Bajo las condiciones del Teorema 4.4, la u nica soluci
on del problema de control
optimo (4.14), u Uad , est
a caracterizada por ser soluci
on de la inecuaci
on variacional
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
72 4.3. Control
optimo de EDP elpticas
y
XN
e [Cy
i (aij (x)j u ) + c(x)u = C e u zd ] en ,
(4.18) i,j=1
u = 0 sobre .
Prueba: Como consecuencia del Teorema 4.4, sabemos que Je es un funcional cuadratico y elptico
en L2 () y Uad es un subconjunto cerrado, convexo, no vaco de L2 (). Por tanto, la u
nica soluci
on
u Uad del problema (4.14) se caracteriza por
a(, ) y L
donde las formas e e est
an dadas en la prueba del Teorema 4.4. Utilizando los operadores
e 0 L(L ()) y C
2 e L(L2 (); H) y sus adjuntos e L(L2 ()) y Ce L(H; L2 ()) podemos
0
escribir h i
a(v, w) hL,
e e 0 C
e wi = ( e C e 0 v zd + (v vd ), w)L2 () ,
e
Observaci on 4.12. Veamos en que se transforma (4.16)(4.18) cuando tomamos como operador
de observaci e = w1O , con O un subconjunto abierto de . En este caso, H L2 () y es f
on Cw acil
comprobar que Ce es un operador autoadjunto. As, el sistema de optimalidad es: u U y
(u 1 + (u vd ), v u)L2 () 0, v Uad ,
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 4. Control
optimo de sistemas lineales 73
Observaci on 4.13. Razonando como en la Observacion 4.4 deducimos que la caracterizacion del
control optimo u dada en el Teorema 4.5 sigue siendo valida en el caso [0, ). En el caso = 0
no podemos asegurar la existencia y/o unicidad de solucion del sistema de optimalidad (4.16)
(4.18).
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
74 4.3. Control
optimo de EDP elpticas
Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Bibliografa
[2] S. Barnett, Introduction to Mathematical Control Theory, Oxford University Press, London,
1975.
[5] R. Fletcher, Practical Methods of Optimization, Vol 1, 2, John Wiley and Sons, Chichester,
1980.
[7] J.-L. Lions, E. Magenes, Probl`emes aux Limites non Homog`enes et Applications, Tomo 1,
Dunod, Paris, 1968.
75