You are on page 1of 75

An

alisis Num
erico y Optimizaci
on

1
2

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Indice general

1. Repaso de Conceptos Conocidos 5


1.1. Introduccion. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Convergencia debil y debil-. Espacios reflexivos . . . . . . . . . . . . . . . . . . . . 6
1.3. Semicontinuidad y semicontinuidad secuencial debil . . . . . . . . . . . . . . . . . . . 9
1.4. Minimizaci on de funcionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5. Calculo diferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.6.1. Primera Aplicaci on: Minimizacion de un funcional cuadratico . . . . . . . . . 23
1.6.2. Segunda Aplicaci on: Teorema de la Proyeccion . . . . . . . . . . . . . . . . . 24

2. M etodos de Tipo Gradiente Para Problemas sin Restricciones 27


2.1. Funcionales elpticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2. Metodos del gradiente para problemas de mnimo sin restricciones . . . . . . . . . . 31
2.2.1. Algoritmo del Gradiente con Paso Optimo (AGPO) . . . . . . . . . . . . . . 32
2.2.2. Algoritmos del Gradiente con Paso Fijo (AGPF) y Variable (AGPV) . . . . . 34
2.3. Metodos del gradiente conjugado para problemas sin restricciones . . . . . . . . . . . 37
2.3.1. El algoritmo del gradiente conjugado para un funcional cuadratico elptico
en RN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.2. Algoritmo del Gradiente Conjugado Generico (AGCG) . . . . . . . . . . . . . 41

3. M etodos Para Problemas de Optimizaci on con Restricciones 47


3.1. Metodo del Gradiente con Proyeccion . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2. Metodos de Penalizaci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3. Metodos de dualidad. Metodo de Uzawa . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3.1. Relaciones de Kuhn-Tucker . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3.2. Lagrangianos y puntos de silla. Introduccion a la dualidad . . . . . . . . . . . 56
3.3.3. Metodo de Uzawa para un funcional elptico . . . . . . . . . . . . . . . . . . . 58

4. Control optimo de sistemas lineales 63


4.1. Planteamiento de un problema de control optimo . . . . . . . . . . . . . . . . . . . . 63
4.2. Control
optimo de e.d.o. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3. Control
optimo de EDP elpticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

3
4 INDICE GENERAL

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Captulo 1

Introducci
on. Repaso de Conceptos
Conocidos

1.1. Introducci
on. Planteamiento del problema
En esta asignatura trataremos dos aspectos importantes dentro de la Matematica Aplicada:
el Analisis Numerico y su relacion con la Optimizacion. En concreto trataremos problemas de
Optimizacion desde el punto de vista del Analisis Numerico. De manera general un problema
de optimizacion puede ser descrito de la siguiente forma: Supongamos que tenemos un sistema
sobre el que podemos actuar mediante una variable v (el control) que vive en un cierto conjunto
U (el conjunto de controles admisibles). Supongamos tambien que tenemos a nuestra disposici on
una funcion J (funcional coste) que depende de v y, posiblemente, de la solucion del sistema.
Pretendemos calcular un control u U tal que J(u) J(v) para cualquier v U.
En terminos matem aticos el problema puede ser escrito del siguiente modo: Supongamos que V
es un espacio normado (en general de dimension infinita). Dados U V un conjunto y J : U 7 R
un funcional, planteamos el problema
(
Hallar u U tal que
(P )
J(u) J(v) v U.

El objetivo de de la Optimizaci
on es tanto el estudio teorico del problema (P ) como proporcionar
algoritmos que permitan aproximar la o las soluciones del problema.
Diremos que (P ) es un problema de optimizaci on sin restricciones si U V . Si U 6= V ,
entonces hablaremos de un problema de mnimos con restricciones.
En este curso, estamos interesados por la optimizacion continua en dimension finita o infinita.
Abordaremos fundamentalmente, y en este orden, las siguientes cuestiones:

Resultados de existencia y unicidad de solucion del problema (P ).

Caracterizacion de la(s) solucion(es), es decir, condiciones necesarias, y en algunos casos,


suficientes de soluci
on del problema (P ). Las condiciones necesarias hacen intervenir, gene-
ralmente, la derivada primera (en cierto sentido) del funcional J, mientras que las condiciones
suficientes hacen intervenir las derivadas segundas (en cierto sentido) de J.

Construccion efectiva de algoritmos que permitan aproximar la o las soluciones de (P ). Es


decir, construcci on {uk }k0 de elementos de U que converja (en un sentido
on de una sucesi
adecuado) hacia la o una solucion del problema (P ).

5
6 1.2. Convergencia d
ebil y d
ebil-. Espacios reflexivos

Para los problemas sin restricciones (Tema 2), estudiaremos los algoritmos de tipo gradien-
te (paso
optimo, paso fijo, paso variable) y gradiente conjugado (generico, Fletcher-Reeves,
Polak-Riviere). Para los problemas con restricciones (Tema 3), estudiaremos el algoritmo del
gradiente con proyeccion, cuya aplicacion se restringe a conjuntos U muy particulares. Los
problemas con restricciones generales son mas difciles de tratar y se intenta su resoluci
on
reemplazandolos por otros problemas sin restricciones, esta es la idea para los metodos de
dualidad (Uzawa).

El Tema 4 se dedica al Control Optimo que consiste en un problema de minimizacion donde
ademas, la soluci
on buscada depende de otra variable dada a traves de una ecuacion diferencial
ordinaria o en derivadas parciales.

Dedicaremos este primer Tema a repasar ciertos conceptos que apareceran a lo largo del curso
y que han sido vistos anteriormente en las asignaturas en Ecuaciones en Derivadas Parciales y
Analisis Funcional y An
alisis Funcional y Optimizacion del cuarto curso de la Licenciatura en
Matematicas.

1.2. Convergencia d
ebil y d
ebil-. Espacios reflexivos
A lo largo de esta secci
on X representa un espacio normado con norma que sera denotada por
k k. Recordemos que, dados una sucesion {xn }n1 X y un elemento x X, se tiene que xn
converge hacia x en X (que denotaremos xn x en X) si la sucesion real kxn xk converge hacia
cero. En algunas ocasiones diremos que xn converge en norma o fuertemente hacia x. Adem as
de este concepto de convergencia tambien introduciremos los siguientes:

Definici
on 1.1. 1. Sean {xn }n1 X una sucesion y x X un elemento de X. Diremos que
xn converge debilmente hacia x (y escribiremos xn * x) si para cualquier x0 X 0 se tiene

hx0 , xn iX 0 ,X hx0 , xiX 0 ,X .

on h, iX 0 ,X representa el producto de dualidad entre el espacio normado X y


En esta definici
0
su dual X .

2. Sean {x0n }n1 X 0 una sucesion y x0 X 0 un elemento de X 0 . Diremos que x0n converge
0
-debilmente hacia x (y escribiremos xn * x) si

hx0n , xiX 0 ,X hx0 , xiX 0 ,X x X.

Observaci on 1.1. Los conceptos de convergencia debil y -debil son lineales. Por ejemplo, si
{xn }n1 e {yn }n1 son dos sucesiones en X y x e y son dos elementos de X tales que xn * x e
yn * y, entonces se tiene
xn + yn * x + y, , R.

Es facil comprobar la relaci


on que existe entre los anteriores conceptos de convergencia debil y
-debil y el concepto de convergencia fuerte. En concreto, se tiene:

Proposici on y x X un elemento de X (resp., {x0n }n1


on 1.2. Sean {xn }n1 X una sucesi
0
X una sucesi on y x X ) tales que xn x en X (resp., x0n x0 en X 0 ). Entonces, xn * x
0 0

(resp., x0n * x0 ).

Pasemos a continuaci
on a analizar estos conceptos en algunos ejemplos interesantes:

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 7

Ejemplo 1.1. Consideremos el caso de un espacio de Hilbert H, con producto escalar que denota-
remos por (, ). Recordemos que, gracias al Teorema de Riesz, el espacio H puede ser identificado
con su dual H 0 mediante el producto escalar (, ). Efectivamente, introduzcamos la aplicaci on
R : H H 0 definida por
hRx, yiH 0 ,H = (x, y), x, y H.
Entonces, R est a bien definida y es un isomorfismo isometrico entre H y H 0 , es decir es lineal,
biyectiva y verifica
kRxkH 0 = kxkH , x H.
En particular, tanto R como R1 son continuas. Este resultado permite identificar H con H 0 .
Esta identificacion tambien nos permite reescribir de manera equivalente el concepto de conver-
gencia debil en el espacio de Hilbert H. Efectivamente, dados {xn }n1 H y x H, se tiene que
xn * x si y solo si
(xn , y) (x, y), y H.
Ejemplo 1.2. Sea un abierto no vaco de RN . Recordemos que f : RN RN es una funci
on
medible si el conjunto
{x RN : f (x) < a}
es medible (respecto de la medida de Lebesgue en RN ) para cualquier valor a de R. Como es
habitual, identificaremos funciones que son iguales salvo un conjunto de medida (Lebesgue) nula
(iguales casi por doquier). Para la integral de Lebesgue usaremos la notacion
Z Z
f= f (x) dx.

Recordemos tambien que, para p [1, ), Lp () (abreviatura de Lp (, ), cuando es la


medida de Lebesgue en RN ) es el espacio de (clases de) funciones u, medibles en y que son
p-integrables en , es decir, Z
|u|p < .

En el caso p = , se tiene que L () es el espacio de (clases de) funciones u, medibles en que
estan esencialmente acotadas en , es decir, tales que existe M > 0 y N con medida nula
verificando |u(x)| M para cada x \ N.
Los espacios vectoriales anteriores son normados para las normas:
Z 1/p
p
||u||p; = ||u||Lp () = |u| para p [1, ),

||u||; = ||u||L () = sup es |u| = nf {M > 0 : |u(x)| M p.c.t. x } para p = .



Es conocido que (Lp (), || ||p; ) es un espacio de Banach para cualquier valor de p [1, ]. En el
caso particular de p = 2, es decir, (L2 (), || ||2; ) es un espacio de Hilbert.
Al igual que en el caso de los espacios de Hilbert, es posible identificar el dual de los espacios
Lp (). Efectivamente, si p [1, ), RN es un abierto y p0 (1, ] es el exponente conjugado
de p,
1 1
+ 0 = 1,
p p
0
podemos introducir el operador Rp : Lp () [Lp ()]0 definido por
Z
hRp f, gi[Lp ()]0 ,Lp () = f (x)g(x) dx, g Lp ().

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
8 1.2. Convergencia d
ebil y d
ebil-. Espacios reflexivos

0
De nuevo, Rp est a bien definido, es un isomorfismo isometrico entre Lp () y [Lp ()]0 y permite
0
identificar Lp () con [Lp ()]0 .
En el caso p = , tambien podemos introducir el operador R : L1 () [L ()]0 y se tiene
tambien que R es lineal e isometrico (y por tanto inyectivo) pero no es sobreyectivo. Deducimos
que L1 () no se puede identificar con [L ()]0 .
En el caso p [1, ) y usando la anterior identificacion, es posible reescribir el concepto de
convergencia debil en Lp (). Dados {fn }n1 Lp () y f Lp (), es facil comprobar que fn * f
en Lp () si y s
olo si
Z Z
0
fn (x)g(x) dx f (x)g(x) dx, g Lp ().

Por ultimo, teniendo en cuenta que L () [L1 ()]0 , tambien podemos identificar la conver-

gencia debil-* en L (): Dados {fn }n1 L () y f L (), es facil comprobar que fn * f
en L () si y solo si
Z Z
fn (x)g(x) dx f (x)g(x) dx, g L1 ().

Veamos algunas propiedades sobre la convergencia debil:


Proposici
on 1.3. Sean X e Y dos espacios normados. Se tiene:
1. Sean A L(X, Y ), {xn }n1 X y x X tales que xn * x en X. Entonces, Axn * Ax en
Y.

2. Si xn * x debil en X, entonces {xn }n1 es una sucesi


on acotada en X y kxkX lm inf kxn kX .

3. Si x0n * x0 debil- en X 0 , entonces {x0n }n1 es una sucesi
on acotada en X 0 y kx0 kX 0
lm inf kxn kX 0 .
Observaci on 1.2. Si A no es lineal, aunque sea continua, el primer punto de la Proposicion 1.3
es, en general falso. Un ejemplo viene dado por la aplicacion norma en un espacio de Banach X (la
cual es, evidentemente, una aplicacion continua pero no lineal). Es posible construir ejemplos de
sucesiones {xn }n1 X tales que kxn k = 1 y satisfacen xn * 0. Evidentemente, xn 6 0 en X.
Pasemos a continuaci on a recordar el concepto de reflexividad. Dado X un espacio normado, se
on J : X X 00 por
define la aplicaci

hJ(x), x0 iX 00 ,X 0 = hx0 , xiX 0 ,X , x X, x0 X 0

llamada inyecci onica de X en X 00 . Se tiene:


on can
Proposici on 1.4. La aplicacion J est
a bien definida, es lineal, isometrica e inyectiva. Por tanto
permite identificar X con el subespacio J(X) de X 00 .
Gracias a este resultado podemos definir:
Definicion 1.5. Sea X un espacio normado. Se dice que X es un espacio reflexivo si la aplicaci
on
J es sobreyectiva.
Observese que, en particular, si X es reflexivo entonces X se identifica con X 00 (que es un espacio
de Banach al ser el dual de X 0 ). Deducimos que tambien X es un espacio de Banach.
Veamos algunas propiedades de los espacios reflexivos. Se tiene:

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 9

Proposici
on 1.6. Sea X un espacio normado. Entonces,

olo si X 0 es un espacio reflexivo.


1. X es un espacio reflexivo si y s

2. Si X es un espacio reflexivo y C X es un subespacio vectorial cerrado, entonces (C, k k)


es tambien un espacio reflexivo.

Pasemos a continuaci
on a analizar otros conceptos relacionados con la convergencia debil en
espacios normados:

Definicion 1.7. Sean X un espacio normado y C X un subconjunto. Se dice que C es secuen-


on {xn }n1 X y x X tales que xn * x
cialmente debilmente cerrado si para cualesquiera sucesi
se tiene que x C.

A diferencia de lo que podra pensarse, observese que si C X es un conjunto secuencialmente


debilmente cerrado, entonces C es cerrado. La implicacion contraria es, en general, falsa. Si embargo,
como consecuencia del Teorema de Hanh-Banach o, mas concretamente, como consecuencia de los
Teoremas de separaci on de conjuntos convexos, se tiene:

Teorema 1.8. Sea X un espacio normado y C X un subconjunto convexo. Entonces, C es


cerrado si y s
olo si C es secuencialmente debilmente cerrado.

Pasemos a continuaci
on a recordar el concepto de conjunto compacto en un espacio normado.
Es bien conocido que si X es un espacio normado, el concepto de compacidad puede ser reescrito
en terminos de convergencia. En concreto, dado K X, K es compacto si y solo K satisface la
siguiente propiedad:

Fijada {xn }n1 K, existe una subsucesi


on {xnk }k1 de {xn }n1 y x K tal que xnk x.

La propiedad anterior en particular implica la propiedad bien conocida: Sea K X un compac-


to (con X un espacio normado), entonces K es cerrado y acotado. Recuerdese que la implicaci on
contraria solo es v
alida si X es un espacio de dimension finita. Sin embargo en los espacios nor-
mados de dimensi on infinita tambien es posible obtener informacion de las sucesiones acotadas. Se
tiene:

Teorema 1.9. 1. Sea X un e.n. separable y {x0n }n1 X 0 una sucesi on acotada. Entonces

on {x0nk }k1 de {x0n }n1 y x0 X 0 tal que x0nk * x0 .
existe una subsucesi

2. Sea X un espacio de Banach reflexivo y {xn }n1 X una sucesion acotada. Entonces existe
on {xnk }k1 de {xn }n1 y x X tal que xnk * x.
una subsucesi

1.3. Semicontinuidad y semicontinuidad secuencial d


ebil
Pasemos seguidamente a recordar los conceptos de semicontinuidad inferior y semicontinuidad
inferior debil de funcionales definidos en espacios normados. As, definimos:

Definicion 1.10. Sea X un espacio normado y f : U R un funcional, con U X. Diremos que


a f es s.c.i., en un punto x U si para toda sucesi
f es semicontinuo inferiormente, y se escribir on
{xn }n1 U con xn x, se tiene

f (x) lm inf f (xn ).

Diremos que f es semicontinua inferiormente en U si lo es en todo punto x de U.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
10 1.3. Semicontinuidad y semicontinuidad secuencial d
ebil

Analogamente, podemos definir:

Definicion 1.11. Sea X un espacio normado y f : U R un funcional, con U X. Diremos que


f es secuencialmente debilmente semicontinuo inferiormente, y se escribir
a f es s.d.s.c.i., en un
punto x U si para toda sucesi
on {xn }n1 U tal que xn * x, se tiene

f (x) lm inf f (xn ).

Diremos que f es secuencialmente debilmente semicontinua inferiormente en U si lo es en todo


punto x de U.

De nuevo y a diferencia de lo que podra suponerse, el concepto de semicontinuidad inferior


secuencial debil es m
as fuerte que el concepto de semicontinuidad inferior: Es facil comprobar que
si f : U R un funcional, con U X, es s.d.s.c.i. en el punto x U, entonces f es s.c.i. en x.
Es posible caracterizar ambos conceptos del siguiente modo:

Proposici on 1.12. Sean X un espacio normado, U X un subconjunto y f : U R un


funcional. Se tiene:

1. Supongamos que U es cerrado. Entonces, f es s.c.i. en U si y s


olo si el conjunto

E = {x U : f (x) }

es un conjunto cerrado de X para todo R.

2. Supongamos que U es secuencialmente debilmente cerrado. Entonces, f es s.d.s.c.i. en U si


olo si el conjunto E es un conjunto debilmente cerrado de X para todo R.
y s

Dado un espacio vectorial X y un subconjunto U X, recordemos que U es convexo si para


cualesquiera x, y U se tiene [x, y] U, donde

[x, y] = {x + (1 )y : [0, 1]}.

As:

Definicion 1.13. Sean X un espacio vectorial, U X un subconjunto convexo y f : U X una


on. Se dice que f es convexa en U si
funci

f (x + (1 )y) f (x) + (1 )f (y), x, y U, [0, 1].

Se dice que f es estrictamente convexa en U si

f (x + (1 )y) < f (x) + (1 )f (y), x, y U con x 6= y, (0, 1).

Gracias a la caracterizaci
on de la s.c.i. y de la s.c.i. secuencial debil, no es difcil comprobar la
siguiente propiedad:

Proposici on 1.14. Dados X un espacio normado, U X un subconjunto convexo cerrado no


vaco y f : U R un funcional convexo. Entonces, se tiene que f es s.c.i. en U si y s
olo si f es
s.d.s.c.i. en U.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 11

Prueba. La demostraci on del resultado es una facil consecuencia de la Proposicion 1.12. Observese
en primer lugar que esta puede ser aplicada pues U es un convexo cerrado no vaco y, por tanto, U
es secuencialmente debilmente cerrado.
Aplicando la Proposicion 1.12, f es s.c.i. en U si y solo si el conjunto E es un cerrado de X
para cualquier de R. Como el funcional f y el conjunto U son convexos, es facil comprobar que
E es tambien un conjunto convexo para todo R. Por tanto, E es cerrado si y solo si E
es secuencialmente debilmente cerrado, es decir, si y solo si f es s.d.s.c.i. en el conjunto U. Esto
finaliza la prueba.

Ejemplo 1.3. Dado (X, k k) un espacio normado, es posible aplicar este resultado a la funci on
norma obteniendo de nuevo la propiedad 2 de la Proposicion 1.3. Efectivamente, considerando
U X y f (x) = kxk, se tiene que f es un funcional convexo definido en el convexo cerrado X.
Como f es continuo en X, en particular es s.c.i. en X. Aplicando directamente la propiedad anterior
deducimos que f k k es s.d.s.c.i. en X y, por tanto, la propiedad 2 de la Proposicion 1.3.

1.4. Minimizaci
on de funcionales
En esta secci
on recordaremos algunos resultados conocidos sobre minimizacion de funcionales.
Recordemos que estamos interesados en el estudio de la existencia de solucion de problemas de
Optimizacion que pueden ser escritos de la forma

nf J(v)
vU

con U un subconjunto de un espacio X (en general un espacio normado) y J : U R un funcional.


Como sabemos, U es el conjunto de las restricciones o conjunto admisible y J es el funcional coste
o funcional objetivo. Recordemos tambien los siguientes conceptos:
Definicion 1.15. Dados X un espacio normado, U X un subconjunto y J : U R un
funcional. Se dice que u es un mnimo local (o mnimo relativo) de J en el conjunto U si u U y
existe > 0 tal que
J(u) J(v) v U B(u; ).
Se dice que u es un mnimo global (o mnimo absoluto) de J en el conjunto U si u U y se satisface

J(u) J(v), v U.

De forma analoga se pueden definir los conceptos de maximo local (o relativo) y maximo global
(o absoluto) de un funcional J en un conjunto U. En general, utilizaremos la palabra extremo para
designar indistintamente un m aximo o mnimo de J.
El primer resultado de existencia de mnimos que veremos es debido a Weierstrass:
Teorema 1.16. (Teorema de Weierstrass) Supongamos que U es un espacio metrico no vaco
y compacto y J : U R es un funcional s.c.i. en U. Entonces, J admite un mnimo global en U.
Prueba: Aplicaremos el llamado metodo directo del Calculo de Variaciones: Tomaremos una su-
cesion minimizante {un }n1 y probaremos que admite una subsucesion convergente a un mnimo
global de f en U. Usaremos la compacidad de U para poder extraer una subsucesion convergente y
la s.c.i. de J en U para probar que el lmite es un mnimo global de J en U.
Si llamamos = nf vU J(v) [, ), entonces, existe una sucesion {un }n1 U (sucesi
on
minimizante) tal que
lm J(un ) = .

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
12 1.4. Minimizaci
on de funcionales

Como U es compacto, existen u b U y una subsucesion {unk }k1 de {un }n1 tales que unk u
b en
U. Al ser J un funcional s.c.i. en U, se tiene

u) lm inf J(unk ) = lm J(un ) = .


J(b

Deducimos de este modo que R y J(b


u) = = nf uU J(u). Esto finaliza la demostracion.
Recordemos tambien

on 1.17. Sea X un espacio normado, U X un subconjunto no acotado y J : U R un


Definici
funcional. Se dice que J es coercitivo en U si

lm J(u) = +.
kuk+

Es posible la generalizaci
on del resultado anterior a un marco mas abstracto. As, usaremos el
proximo resultado para deducir la existencia de solucion de problemas de minimizacion planteados
en un espacio normado:

Teorema 1.18. Sean X un espacio de Banach reflexivo, U X un subconjunto secuencialmente


debilmente cerrado no vaco y J : U R un funcional s.d.s.c.i. Adem
as, si U es no acotado,
supongamos que J es coercitiva en U. Entonces, J admite, al menos, un mnimo global en U.

Prueba: Seguimos el mismo razonamiento del Teorema 1.16 y seleccionamos una sucesion mini-
mizante {un }n1 U tal que

lm J(un ) = = nf J(u)( [, )).


uU

Si U es un subconjunto acotado, esta claro que la sucesion {un }n1 esta acotada. Si U es un no
acotado, no es difcil comprobar (gracias a la hipotesis de coercitividad de J) que tambien {un }n1
esta acotada. Efectivamente, basta razonar por reduccion al absurdo para deducir la acotaci on de
{un }n1 .
Al ser X un espacio reflexivo, U un subconjunto s.d. cerrado y {un }n1 una sucesion acota-
da, deducimos que existe una subsucesion de {un }n1 (que seguiremos denotando {un }n1 ) y un
elemento u b U tal que
un * u b debil en X.
Como J es s.d.s.c.i., entonces

u) lm inf J(un ) = lm J(un ) = .


J(b

Esta u
ltima desigualdad prueba el resultado.
Como una consecuencia inmediata del Teorema 1.18, tenemos:

Corolario 1.19. Sean X un espacio de Banach reflexivo, U X un subconjunto convexo cerrado


no vaco y J : U R un funcional convexo y s.c.i. Adem
as, si U es no acotado, supongamos que
J es coercitiva en U. Entonces, J admite, al menos, un mnimo global en U.

Respecto a la unicidad de soluci


on para el problema de minimizacion planteado, se tiene:

Proposicion 1.20. Sea X un espacio vectorial sobre R, U X un subconjunto convexo y J : U


as un mnimo global en U.
R un funcional estrictamente convexo. Entonces, J admite a lo m

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 13

Prueba: Supongamos que u b2 U satisfacen u


b1 , u b1 6= u
b2 y

J(b
u1 ) = J(b
u2 ) = nf J(u).
uU

Al ser U convexo, u
b= 1
2 (b b2 ) U y
u1 + u

1
J(b
u) < (J(b
u1 ) + J(b
u2 )) = nf J(u).
2 uU

Evidentemente, esta u
ltima desigualdad es absurda.
La convexidad de J permite liberarnos del caracter local de los mnimos relativos. Se tiene:
Proposici on 1.21. Sea X un espacio normado, U X un subconjunto convexo de X y J : U R
b en U, entonces ese mnimo es un mnimo
un funcional convexo. Si J admite un mnimo relativo u
global en U, es decir,
J(b
u) = nf J(u).
uU

b U un mnimo relativo de J en U deducimos la existencia de > 0 tal que


Prueba: Al ser u

u) J(u),
J(b u U B(b
u; ).

Sea ahora v U arbitrario y veamos que J(bu) J(v). Esta desigualdad es evidente si v B(b
u; ).
Supongamos entonces que kv u bk > y consideremos

u=u
b+ (v u
b)
2kv u
bk

u; ) (el conjunto U es convexo). De este modo, al ser J


que, evidentemente, satisface u U B(b
convexa,

u) J(u) J(b
J(b u) + (J(v) J(b
u)) ,
2kv ubk
u) J(v). Esto finaliza la prueba.
de donde se deduce que J(b

1.5. C
alculo diferencial
En esta secci
on vamos a hacer un breve recordatorio de la teora de derivacion en espacios
normados.
Definicion 1.22. Sean X e Y dos espacios normados, U X un subconjunto abierto, F : U Y
un operador, x0 U y h X. Se dice que F es diferenciable en el sentido de Gateaux (o G-
diferenciable) en x0 y en la direcci
on h si existe el lmite en Y

F (x0 + h) F (x0 )
lm = F (x0 ; h) Y.
0
Al elemento F (x0 ; h) Y definido por el anterior lmite se le denomina G-diferencial de F en el
punto x0 y en la direcci on h.
Si existe F (x0 ; h) para toda h X, diremos que F es G-diferenciable en x0 , y a la aplicaci
on
F (x0 ) definida por
F (x0 ) : h X 7 F (x0 ; h) Y
la denominaremos la G-diferencial (o diferencial G
ateaux) de F en el punto x0 .

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
14 1.5. C
alculo diferencial

Observaci on 1.3. No es difcil demostrar que si F es G-diferenciable en x0 y en la direccion h X,


on h, con R, y
entonces tambien lo es en la direcci

F (x0 ; h) = F (x0 ; h), R, h X.

Por otro lado, si introducimos la funcion de variable real g(t) = F (x0 + th) (definida en un entorno
de t = 0), entonces, se tiene que F es G-diferenciable en el punto x0 y en la direccion h si y s
olo si
0
g es derivable en 0. En este caso, g (0) = F (x0 ; h).
Siguiendo con las definiciones, pasemos a la siguiente:
Definicion 1.23. Sean X e Y dos espacios normados, U X un subconjunto abierto, x0 U
y F : U Y un operador G-diferenciable en x0 . Si la aplicaci on F (x0 ) es un operador lineal y
continuo de X en Y , es decir, si F (x0 ) L(X, Y ), entonces se dice que F es G-derivable en x0
y a la aplicaci
on F (x0 ) se la denomina la derivada Gateaux (G-derivada) de F en x0 .

Ejemplo 1.4. 1. Sean X e Y dos espacios normados, y0 Y y A L(X, Y ) un operador


lineal y continuo. Consideremos F : x X 7 F (x) = Ax + y0 Y . Entonces, no es difcil
comprobar que F es G-derivable en X y F (x) = A, para cualquier x X. Si A fuera solo un
operador lineal, entonces F es G-diferenciable en x0 y F (x0 ) = A, para cualquier x0 X.
2. Consideremos ahora B L2 (X, Y ), es decir, B : X X Y , un operador bilineal y continuo.
Definamos la aplicacion F : x X 7 F (x) = B(x, x) Y . Entonces, se tiene que F es G-
derivable en X y F (x) = B(x, ) + B(, x), para cualquier x X. Si B es simetrico, entonces,
F (x) = 2B(x, ). En el caso en el que B solo es bilineal, se tiene que F es G-diferenciable en
x0 con F (x0 ) = B(x0 , ) + B(, x0 ), para cualquier x X0 .
3. Como aplicaci
on del punto anterior podemos obtener lo siguiente: Sea H en espacio de Hilbert
(con producto escalar (, )) e introduzcamos el funcional

F : x H 7 F (x) = kxk2 R, x H.

Este funcional puede ser escrito F (x) = (x, x) y as, aplicando el punto anterior, deducimos
que F es G-derivable en todos los puntos de H y

F (x0 ; h) = 2(x0 , h), x0 H, h H.

Las definiciones precedentes generalizan el concepto de derivada direccional para aplicaciones


de RN en R. Un concepto m as restrictivo lo constituye la nocion de derivada en el sentido de M.
Frechet.
Definici on 1.24. Sean X, Y dos espacios normados, U X un subconjunto abierto, F : U Y
un operador y x0 U . Diremos que F es derivable en x0 en el sentido de Frechet (o F-derivable
en x0 ), si existe 0 > 0 y A(x0 ) L(X, Y ) tal que

(1.1) F (x0 + h) = F (x0 ) + A(x0 )h + o(h), h X con khkX 0 ,

con o(h) Y satisfaciendo


ko(h)kY
(1.2) lm = 0.
khk0 khkX

En tal caso el operador A(x0 ) es u on 1.25), lo denotaremos por F 0 (x0 ) y lo


nico (ver la Proposici
denominaremos la derivada Frechet (o F-derivada) de F en x0 .

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 15

La anterior definici
on nos proporciona un nuevo concepto de derivada en los espacios de Banach
que, evidentemente esta relacionado con la derivada en el sentido de Gateaux. Se tiene:
Proposicion 1.25. Sean X e Y dos espacios normados y F : U X Y un operador definido
en U X un abierto. Si F es F-derivable en x0 U, entonces F es continua y G-derivable en x0 .
Ademas, F (x0 ) L(X, Y ) y F 0 (x0 ) = F (x0 ).
Prueba: Sea h X \{0} y consideremos 0 > 0 y A(x0 ) L(X, Y ) satisfaciendo la condicion (1.1).
Entonces, para 6= 0 y 0 /khkX se tiene
F (x0 + h) F (x0 ) o(h)
= A(x0 )h + .

Usando la propiedad (1.2), podemos pasar al lmite cuando 0 en la desigualdad precedente
para probar
F (x0 + h) F (x0 ) o(h) ko(h)kY
lm = A(x0 )h + lm = A(x0 )h + lm khkX = A(x0 )h,
0 0 0 khkX
de donde se deduce que F es derivable G
ateaux en x0 y F (x0 ) = A(x0 ). En particular, esto prueba
la unicidad de A(x0 ) mencionada anteriormente.
La continuidad de F en x0 es una simple consecuencia de la formulas (1.1) y (1.2). Esto acaba
la prueba.
Ejemplo 1.5. En los tres ejemplos anteriores es facil comprobar que las aplicaciones son F-
derivables en cada punto x0 X y, evidentemente, la F-derivada coincide con la G-derivada.
Efectivamente,
1. En este primer caso, F puede ser escrita
F (x0 + h) = F (x0 ) + Ah, x0 , h X.
Al ser A L(X, Y ), deducimos que F satisface (1.1) para A(x0 ) A y o(h) 0. As, F es
F-derivable en X y F 0 (x0 ) = A, para todo x0 X.
2. En este caso, F puede ser escrita de la forma
F (x0 + h) = F (x0 ) + A(x0 )h + B(h, h), x0 , h X
con A(x0 )h = B(x0 , h) + B(h, x0 ). Si hacemos o(h) B(h, h) entonces, utilizando que B
L2 (X, Y ), deducimos que F satisface (1.1) y (1.2), es decir, F es F-derivable en cualquier
punto x0 X y F 0 (x0 ) B(x0 , ) + B(, x0 ).
3. Este ejemplo es un caso particular del anterior para X = H un espacio de Hilbert, Y = R y
B(, ) = (, ).
Observaci on 1.4. Todas las nociones de diferencial y derivada que se han introducido poseen
caracter lineal en F .
Por otro lado, el concepto de derivada Gateaux de un operador F definido entre los espacios
normados X e Y es realmente m as debil que el concepto de derivada en el sentido Frechet. Esto es
cierto incluso en el caso de espacios de dimension finita. Veamos un ejemplo: Consideremos X = R2 ,
Y = R y F el funcional dado por
x6
F (x, y) = si (x, y) 6= (0, 0), F (0, 0) = 0.
(y x2 )2 + x8
Es facil comprobar que F es G-diferenciable en el punto (0, 0), con G-derivada dada por F (0, 0) =
(0, 0), pero no es continua en (0, 0). Por tanto, F no es derivable en el sentido de Frechet.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
16 1.5. C
alculo diferencial

Pasemos seguidamente a recordar (sin demostracion) un resultado clasico de derivabilidad de


funciones compuestas. Se tiene:

Teorema 1.26. (Regla de la cadena) Sean X, Y , Z tres espacios normados, U X y V Y


dos abiertos y x0 U. Consideremos dos aplicaciones : U V y : V Z, y denotemos
y0 = (x0 ) y F = . As, si es F-derivable en y0 y es F-derivable (respectivamente, G-
derivable, G-diferenciable, G-diferenciable en la direcci on h de X) en x0 , entonces F es F-derivable
(respectivamente, G-derivable, G-diferenciable o G-diferenciable en la direcci on h de X) en x0 , y
se satisface
F 0 (x0 ) = 0 (y0 ) 0 (x0 ),
(respectivamente, F (x0 ) = 0 (y0 ) (x0 ), F (x0 , h) = 0 (y0 ) ((x0 , h))).

Para una prueba del anterior resultado, cons


ultense los apuntes de la asignatura Analisis Fun-
cional y Optimizaci
on.
Es posible generalizar el Teorema del valor medio en el marco de los operadores que son G-
diferenciables en un espacio de Banach. Se tiene:

Teorema 1.27. (Valor medio) Sean X un espacio normado, U X un abierto y x1 , x2 dos


puntos de U tales que [x1 , x2 ] U. Se tiene

1. Si F : U R es G-diferenciable en todos los puntos de [x1 , x2 ] en la direcci


on x2 x1 ,
entonces existe (x1 , x2 ) tal que

F (x2 ) F (x1 ) = F (, x2 x1 ).

2. Si Y es un e.n. y F : U Y es G-diferenciable en todos los puntos de [x1 , x2 ] en la direcci


on
x2 x1 , entonces existe (x1 , x2 ) tal que

kF (x2 ) F (x1 )kY kF (, x2 x1 )kY .

Prueba: 1. Consideramos la funci


on real de variable real

: t [0, 1] 7 (t) = F (x1 + t(x2 x1 )) R.

Es facil comprobar directamente que C 1 ([0, 1]) y, as, el resultado se obtiene como consecuencia
del teorema del valor medio de funciones reales de variable real.
2. Como consecuencia del Teorema de Hahn-Banach, dado F (x2 ) F (x1 ) Y , existe y Y 0 ,
con ky kY 0 = 1, tal que

hy , F (x2 ) F (x1 )iY 0 ,Y = kF (x2 ) F (x1 )kY .

El resultado se obtiene sin m as que aplicar el teorema del valor medio a la funcion real de variable
real (t) = hy , F (x1 + t(x2 x1 )iY 0 ,Y definida en [0, 1].

Como consecuencia de este resultado podemos obtener un criterio de derivabilidad en el sentido


de Frechet:

Proposicion 1.28. Sean X e Y dos espacios normados, U X un abierto y F : U Y un


operador. Supongamos que F es G-derivable en U y la aplicaci
on x U F (x) L(X, Y ) es
continua en U. Entonces, F es derivable Frechet en U.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 17

Prueba: Fijemos x0 U y probemos que F es F-derivable en x0 . Para ello, consideremos 0 > 0


tal que B(x0 , 0 ) U .
En primer lugar, observese que el operador F puede ser escrito:

F (x0 + h) = F (x0 ) + F (x0 )h + o(h), h B0 B(0, 0 )

con
o(h) = F (x0 + h) F (x0 ) F (x0 )h.
Veamos que o(h) satisface (1.2). Como F (x) es continua en U, fijado > 0, existe (0, 0 ) tal
que
kF (x0 + h) F (x0 )kL(X,Y ) h X con khk .
Si h X y khk , entonces el segmento [x0 , x0 + h] B(x0 , 0 ) U y podemos aplicar el
on F () F (x0 )(), deduciendo la existencia de (x0 , x0 + h) tal que
Teorema 1.27 a la aplicaci

kF (x0 + h) F (x0 ) F (x0 )(h)kY ko(h)kY kF () F (x0 )kkhk khk.

De esta desigualdad obtenemos que F es derivable Frechet en x0 . Esto prueba el resultado.

Pasemos a definir el concepto de derivada segunda de una aplicacion:


Definicion 1.29. Sean X e Y dos espacios normados, U X un abierto y F : U Y un operador.
Dados x0 U y h X, se dice que F es dos veces G-diferenciable en x0 en la direcci on h, si existe
0 > 0 tal que F es G-diferenciable en el intervalo abierto (x0 0 h, x0 + 0 h) U y en la direcci
on
h, y existe el lmite
F (x0 + h, h) F (x0 , h)
2 F (x0 , h, h) = lm .
0
Al elemento F 2 (x0 , h, h) Y as definido lo denominaremos la G-diferencial segunda de F en el
punto x0 en la direcci on h.
Ejemplo 1.6. Sean X e Y dos espacios normados y B : X X Y una aplicacion bilineal y
continua. Consideremos F (x) = B(x, x); entonces, se tiene que F es dos veces G-diferenciable en
on h X y se tiene:
X en cualquier direcci

2 F (x0 ; h, h) = 2B(h, h).

Observaci on 1.5. No es difcil comprobar que si F : U Y , con U X un abierto y X e Y dos


espacios normados, es dos veces G-diferenciable en x0 U en la direccion h X, entonces, tambien
es dos veces G-diferenciable en x0 y en la direccion h X para cualquier R. Ademas

2 F (x0 ; h, h) = 2 2 F (x0 ; h, h).

Es posible dar un resultado m as general que el Teorema 1.27. Con ayuda del concepto de
G-diferencial segunda de un operador F , se tiene:
Teorema 1.30. Sean X e Y dos espacios normados, U X un abierto y F : U Y un operador.
Dados x1 , x2 U tales que [x1 , x2 ] U, supongamos que F es dos veces G-diferenciable en todo
on x2 x1 . Entonces,
punto de [x1 , x2 ] en la direcci
1. Si Y = R, existe (x1 , x2 ) tal que
1
F (x2 ) = F (x1 ) + F (x1 , x2 x1 ) + 2 F (, x2 x1 , x2 x1 ).
2

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
18 1.5. C
alculo diferencial

2. En el caso general (Y un e.n. cualquiera), existe (x1 , x2 ) tal que


1
kF (x2 ) F (x1 ) F (x1 , x2 x1 )kY k 2 F (, x2 x1 , x2 x1 )kY .
2

Ejercicio 1.1. Prueba el Teorema 1.30.

Vamos a continuaci on a caracterizar el caracter convexo de un funcional J definido en un


abierto de un espacio de Banach. En esa caracterizacion vamos a utilizar los conceptos de G-
diferenciabilidad del funcional J. En este sentido, generalizaremos resultados bien conocidos en el
caso en el que X = RN . Se tiene:
Proposicion 1.31. Sean X un espacio normado, X un abierto, U un subconjunto
convexo no vaco y J : R un funcional. Supongamos que J es G-diferenciable en . Entonces,
1. J es convexo en U si y s
olo si se verifica

(1.3) J(x2 ) J(x1 ) J(x1 , x2 x1 ) x1 , x2 U.

2. Del mismo modo, J es estrictamente convexo en U si y s


olo si

(1.4) J(x2 ) J(x1 ) > J(x1 , x2 x1 ) x1 , x2 U, x1 6= x2 .

Prueba: 1. Fijemos x1 , x2 U. Si J es convexo en U, entonces, dado (0, 1), se tiene

J(x1 + (x2 x1 )) J(x1 ) J(x2 ) + (1 )J(x1 ) J(x1 )


= J(x2 ) J(x1 ).

Tomando lmite cuando 0+ obtenemos la desigualdad (1.3)
Recprocamente, supongamos que (1.3) es cierta. Veamos que J es convexo en U. Sean x1 , x2 U
y [0, 1], entonces, se tiene:
(
J(x1 ) J(x2 + (x1 x2 )) + J(x2 + (x1 x2 ), (1 )(x1 x2 )) y
J(x2 ) J(x2 + (x1 x2 )) + J(x2 + (x1 x2 ), (x2 x1 )).

Multiplicando las desigualdades anteriores respectivamente por y 1 y utilizando las propie-


dades de la G-diferencial (car
acter homogeneo respecto de la direccion h), se prueba

J(x1 + (1 )x2 ) J(x1 ) + (1 )J(x2 )

y por tanto F es convexa en U.


2. El razonamiento anterior sirve para probar que (1.4) implica la convexidad estricta del fun-
cional J en U.
Veamos el recproco. Supongamos J es estrictamente convexa en U. En particular, J satisfa-
ce (1.3). As, si x1 , x2 U con x1 6= x2 y (0, 1), entonces, se tiene

J(x1 + (x2 x1 )) J(x1 ) (1.3) J(x1 , (x2 x1 ))


J(x2 ) J(x1 ) > = J(x1 , x2 x1 ).

Tenemos as la prueba del resultado.
Hay otra manera de caracterizar los funcionales convexos en un convexo mediante la G-diferencial.
En concreto, se tiene:

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 19

Proposici
on 1.32. En las hip on 1.31, J es convexa en U si y s
otesis de la Proposici olo si

(1.5) J(x2 , x2 x1 ) J(x1 , x2 x1 ) 0, x1 , x2 U.

Prueba: Supongamos que J es convexa en U y sean x1 , x2 U. Aplicando (1.3) sucesivamente a


(x1 , x2 ) y a (x2 , x1 ), se tiene
(
J(x2 ) J(x1 ) J(x1 , x2 x1 ) y
J(x1 ) J(x2 ) J(x2 , x1 x2 ).

Sumando estas desigualdades y teniendo en cuenta la homogeneidad de la G-diferencial respecto


de la direccion, se obtiene (1.5).
Supongamos ahora que se tiene (1.5) y sean x1 , x2 U y [0, 1]. Consideremos la funcion real
de variable real : t [0, 1] 7 (t) = J(x1 + t(x2 x1 )). No es difcil comprobar que C 1 ([0, 1])
y 0 (t) = J(x1 + t(x2 x1 ), x2 x1 ), para cada t [0, 1]. Usando (1.5) es tambien sencillo
deducir que la funci on 0 es creciente en [0, 1] (es decir, si 0 s < t 1, entonces 0 (s) 0 (t)).
Deducimos por tanto que es convexa en el intervalo [0, 1] y as, () (1) + (1 )(0) i.e.,
J((1 )x1 + x2 ) (1 )J(x1 ) + J(x2 ). Tenemos as acabada la prueba.
Veamos por u ltimo que podemos caracterizar la convexidad de un funcional utilizando la G-
diferencial segunda del funcional. Se tiene:
Proposicion 1.33. Sean X un espacio normado, X un abierto, U un subconjunto
convexo y J : R un funcional. Supongamos que J es dos veces G-diferenciable en . Entonces,
1. J es convexa en U si y s
olo si se satisface

(1.6) 2 J(x1 , x2 x1 , x2 x1 ) 0, x1 , x2 U.

2. Si se tiene

(1.7) 2 J(x1 , x2 x1 , x2 x1 ) > 0, x1 , x2 U con x1 6= x2 ,

entonces F es estrictamente convexa en U.


Prueba: Supongamos que J satisface (1.6) (resp., J satisface (1.7)) y veamos que J es convexa
(resp., estrictamente convexa en U). Sean x1 , x2 U (resp., x1 , x2 U, con x1 6= x2 ). Si aplicamos
el Teorema 1.30 obtenemos la existencia de (x1 , x2 ) tal que se tiene
1
J(x2 ) J(x1 ) J(x1 , x2 x1 ) = 2 J(, x2 x1 , x2 x1 ).
2
Observese que = x1 + (x2 x1 ), con (0, 1). As,
1 1 1
2 J(, x2 x1 , x2 x1 ) = 2 J(, (x1 ), (x1 )) = 2 2 J(, x1 , x1 ),

on 1.31 demuestra que J es convexa (resp., estrictamente convexa) en U.
que junto a la Proposici
Veamos ahora que si J es convexa en U, entonces se tiene (1.6). Sean x1 , x2 U y as,
J(x1 + (x2 x1 ), x2 x1 ) J(x1 , x2 x1 )
2 J(x1 , x2 x1 , x2 x1 ) = lm
0+
J(x1 + (x2 x1 ), (x2 x1 )) J(x1 , (x2 x1 ))
= lm 0.
0+ 2
Esta u
ltima desigualdad prueba el resultado.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
20 1.5. C
alculo diferencial

Observaci on 1.6. Observese que la condicion (1.7) no es una condicion necesaria para que J sea
estrictamente convexa en U. Basta considerar el funcional (funcion) definida en X = R dada por
J(t) = t4 que es, evidentemente, estrictamente convexa en R y no satisface (1.7).

Ejemplo 1.7. Consideremos X un espacio normado y una forma bilineal a : X X R. Si


definimos el funcional J : X R dado por J(x) = a(x, x), podemos utilizar el resultado anterior
(pues J es dos veces G-diferenciable en X) y deducir que J es convexa en X si y solo si la forma
bilineal es semidefinida positiva en X, es decir, si y solo si

a(x, x) 0, x X.

Si a es definida positiva en X, es decir, a(x, x) > 0, para cualquier x 6= 0, entonces J es estrictamente


convexa en X.
De hecho en este caso, se tiene que J es estrictamente convexa si y solo si a es definida positiva
en X. Efectivamente, la equivalencia es facil de establecer si se tiene en cuenta la Proposici on 1.31
y la igualdad
J(x2 ) J(x1 ) J(x1 , x2 x1 ) = a(x2 x1 , x2 x1 ),
valida para cualesquiera x1 , x2 X.

Pasamos a continuacion a dar un bloque de resultados que relacionan la diferenciabilidad de un


funcional con la existencia de mnimos de ese funcional. Vamos a cambiar ligeramente la notaci on
y vamos a utilizar V en lugar de X para designar un espacio normado con norma k k. El primero
de los resultados da una condici
on necesaria de mnimo relativo de un funcional:

Teorema 1.34 (Condici on necesaria de extremo relativo). Sea V un espacio normado, V


un subconjunto y J : R un funcional. Supongamos que J alcanza un mnimo relativo en
u int y que J es G-diferenciable en u. Entonces

(1.8) J(u, h) = 0, h V (Ecuaci


on de Euler).

Prueba: Como u int y J alcanza en u un mnimo relativo, deducimos que existe 0 > 0 tal que
B(u; 0 ) y J(u) J(v), para cualquier v B(u; 0 ). Sea h V con h 6= 0 y supongamos que
(0, 0 ). Entonces,

J(u, h/khk) = lm J(u + h/khk) J(u) 0



0+
J(u h/khk) J(u)
0.

J(u, h/khk) = lm

0+

En consecuencia, J(u; h/khk) = 0 para cualquier h V con h 6= 0. Utilizando una vez mas que la
G-diferencial es homogenea respecto de h deducimos el resultado.

Observacion 1.7. El resultado anterior deja de ser cierto si no imponemos la hipotesis u int .
Efectivamente, basta considerar el funcional J(x) = x definido en = [0, 1] V R.

En el caso de tener un conjunto convexo, la condicion necesaria de extremo relativo cambia


ligeramente:

Teorema 1.35 (Condici on necesaria y suficiente de mnimo relativo en convexos). Sea


V un espacio normado, V un abierto, U un subconjunto convexo no vaco y J : R
un funcional. Supongamos que J es G-diferenciable en u U. Se tiene:

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 21

1. Si u es un mnimo relativo de J en U entonces,

(1.9) J(u, v u) 0 v U.

2. Supongamos que J es convexo en U y que u U satisface (1.9). Entonces, u es un mnimo


global de J en U.
Prueba:
1. Como u es un mnimo relativo de J en U, existe 0 > 0 tal que

J(u) J(v), v U B(u; 0 ).

Por otro lado, fijado v U, existe 1 (0, 1) tal que u + (v u) B(u; 0 ), para (0, 1 ).
Evidentemente, al ser U un conjunto convexo, u + (v u) U y podemos escribir
J(u + (v u)) J(u)
J(u, v u) = lm 0.
0+
2. Supongamos ahora que J es convexo en U y que se tiene (1.9) para u U. Veamos que u es un
mnimo global de J en U. Efectivamente, sea v U; como J es convexo en U se tiene (ver (1.3))

J(v) J(u) + J(u, v u)

que junto a (1.9) proporciona que u es un mnimo global de J en U.


Es posible generalizar el resultado anterior al caso en el que J no es G-diferenciable en U, pero
J es la suma de un funcional G-diferenciable y de otro que no lo es:
Ejercicio 1.2. Sean V un espacio normado, V un abierto, U un convexo no vaco
y J1 , J2 : R dos funcionales convexos en U. Supongamos que J1 es G-diferenciable en .
Pruebese que u U es un mnimo de J1 + J2 en U si y solo si

J1 (u, v u) + J2 (v) J2 (u) 0, v U.

Observaci on 1.8. La condici


on (1.9) puede ser reescrita de forma equivalente en determinados
casos particulares. As,
1. Si u int U, entonces la condici
on (1.9) equivale a la ecuacion de Euler (1.8).

2. Si U V es una variedad afn, es decir, si U = u0 + W con u0 V y W V un subespacio


vectorial, entonces (1.9) equivale a la condicion

J(u, w) = 0, w W.

3. En el caso particular en el que U W es un subespacio vectorial, no es difcil comprobar


que (1.9) equivale a
J(u, v) = 0, v W.
Si W = V volvemos a obtener la ecuacion de Euler (1.8).

4. Supongamos que U es un cono convexo de V , es decir, U es un convexo que satisface la


propiedad: si v U y [0, ), entonces v U. Supongamos tambien que J es G-
derivable en u U. En este caso tambien es facil comprobar que la condicion (1.9) equivale
a:
J(u, u) = 0 y J(u, w) 0, w U.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
22 1.6. Aplicaciones

5. Veamos que igualdad obtenemos en los casos 2 y 3 cuando J es G-derivable en u y el subespacio


W viene dado como la interseccion de hiperplanos, es decir,
W = {v V : hai , viV 0 ,V = 0, i : 1 i M } Z,
donde ai V 0 (1 i M ) y Z = span {ai : 1 i M } V 0 .
Supongamos por comodidad que V es un espacio de Banach reflexivo. Observese que tanto
en los casos 2 y 3, podemos escribir
 
u U y J(u) W Z Z Z.

que, teniendo en cuenta la expresion de W , se traduce en:


M
X
u U y J(u) + i ai = 0,
i=1

con i R, con 1 i M . Los n


umeros reales i son los denominados multiplicadores de
Lagrange.
Estudiaremos m as adelante problemas de mnimos con restricciones, donde la restriccion viene
dada por condiciones de igualdad y desigualdad. En estos casos obtendremos condiciones
necesarias de mnimo del mismo tipo de las obtenidas anteriormente.
Como resumen de todos los conceptos anteriores, se tiene:
OPTIMIZACION CONVEXA: Supongamos que V es un espacio normado, U V es un
subconjunto convexo no vaco y J : U R es un funcional convexo. Planteemos el problema de
mnimos:
(
Minimizar J(v),
(1.10)
Sujeto a v U.

Entonces,

1. Existencia: Supongamos ademas que V es un espacio de Banach reflexivo, U es cerrado, J


es s.c.i. en U y que J es coercitivo cuando U es no acotado. Entonces, existe u U soluci
on
del problema de mnimos (1.10), es decir, J tiene un mnimo global u en U.
2. Unicidad: Si J es estrictamente convexo en U, el problema de mnimos (1.10) a lo m
as tiene
una soluci
on.
3. Caracterizaci on: Supongamos ademas que J es G-diferenciable en V , con un abierto
tal que U . Entonces, u U es solucion del problema de mnimos (1.10) si y solo si
J(u, v u) 0, v U.
En este caso, J es convexo en U si y solo si
J(v) J(w) + J(w, v w), w, v U.

1.6. Aplicaciones
Analicemos en esta secci
on dos sencillas aplicaciones de los anteriores conceptos. En ellas ob-
tendremos resultados sobre problemas de mnimo ya conocidos.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 23

1.6.1. Primera Aplicaci


on: Minimizaci
on de un funcional cuadr
atico
En primer lugar estudiaremos el problema de mnimo asociado a un funcional cuadratico. Para
ello consideremos un espacio de Hilbert V e introduzcamos el funcional (funcional cuadr atico)
J : V R dado por

1
(1.11) J(v) = a(v, v) hL, vi, v V,
2
donde a(, ) : V V R es una forma bilineal, continua y simetrica y L : V R es una forma
lineal y continua en V , es decir, L V 0 . Evidentemente, existen constantes C1 , C2 > 0 (de hecho
C2 = kLkV 0 ) tales que (
|a(v, w)| C1 kvkkwk, v, w V,
|hL, vi| C2 kvk, v V.
Supongamos que la forma bilineal a(, ) es coercitiva en V , i.e., existe > 0 tal que

(1.12) a(v, v) kvk2 , v V.

Aplicando los resultados anteriores, obtenemos

El funcional J es F-derivable en V (ver Ejemplos 1.4 y 1.5) y en este caso J 0 (v) L(V, R) = V 0
esta dada por
hJ 0 (v), wiV 0 ,V = a(v, w) hL, wi, u, w V,
1
(hJ 0 (v), wiV 0 ,V = (a(v, w) + a(w, v)) hL, wi, u, w V
2
si a(, ) no es simetrica). Del Ejemplo 1.6 deducimos tambien que J es dos veces G-diferenciable
en V en cualquier direcci on h (de hecho, J es dos veces F-derivable en V ) y

2 J(v; h, h) = a(h, h), v, h V.

De la Proposici
on 1.33 (ver tambien el Ejemplo 1.7) y de la condicion (1.12) obtenemos que
J es estrictamente convexo en V . Efectivamente, se tiene a(v, v) > 0 para cualquier v V
con v 6= 0.

Ademas el funcional J es coercitivo en V . Efectivamente, podemos acotar

1 1

J(v) = a(v, v) hL, vi kvk2 kLkV 0 kvk kvk2 kLk2V 0 kvk2

2 2 2 4
1
= kvk2 kLk2V 0 .


4
De aqu obtenemos la propiedad.
Fijemos ahora U V un subconjunto cerrado convexo no vaco y consideremos el problema de
mnimos

Minimizar J(v) = 1 a(v, v) hL, vi
(1.13) 2
Sujeto a v U.

Del Corolario 1.19, la Proposici


on 1.20 y el Teorema 1.35, deducimos el resultado

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
24 1.6. Aplicaciones

nico u U soluci
Teorema 1.36. En las condiciones anteriores, existe un u on del problema (1.13).
as u U es soluci
Adem on de (1.13) si y s
olo si

a(u, v u) hL, v uiV 0 ,V 0, v U.

Observaci on 1.9. En el caso en el que U V , la condicion necesaria y suficiente de mnimo para


el problema (1.13) es
a(u, v) = hL, vi, v V.
Observese que en este caso, el Teorema 1.36 es el Teorema de Lax-Milgram.
Ejemplo 1.8. Consideremos el caso finito-dimensional. Sea V RN , con N 1, y denotemos (, )
el producto escalar eucldeo en RN . Consideremos tambien A L(RN ), una matriz sim
etrica y
definida positiva, y b RN . Con estos datos, hagamos

a(v, w) = (Av, w) = v T Aw y hL, vi = (b, v), v, w RN .

En este caso es f acil comprobar que la forma bilineal a(, ) y la forma lineal L son continuas y,
ademas, a satisface (1.12). Aplicando el Teorema 1.36 deducimos que el problema de mnimos (1.13)
(planteado en un conjunto cerrado, convexo no vaco U RN ) admite una u nica solucion u RN
y esta esta caracterizada por
(Au b, v u) 0, v U.
Cuando U RN , la caracterizaci
on de u se reescribe (ver Observacion 1.9)

Au = b,

es decir, el problema de mnimos (1.13) equivale a la resolucion de un sistema lineal con matriz de
coeficientes A y segundo miembro b.

1.6.2. Segunda Aplicaci


on: Teorema de la Proyecci
on
Como segunda aplicacion de los conceptos recordados en este captulo, consideremos el problema
de la proyeccion de un elemento u0 de un espacio de Hilbert V (con producto escalar denotado por
(, )) sobre un conjunto U V cerrado, convexo y no vaco. Para ello, consideremos el problema

e U tal que
(
Hallar u
(1.14)
ke
u u0 k = nf kv u0 k.
vU

Observese que este problema puede ser reescrito como



Minimizar J(v) = 1 kv u k2
0
2
Sujeto a v U.

e + 1 ku0 k2 , donde el nuevo funcional


El funcional J puede tambien escribirse como J(v) = J(v) 2
Je esta dado por (1.11) con

a(v, w) = (v, w) y hL, vi = (u0 , v), v V.

Es facil comprobar que a y L satisfacen las condiciones de la Seccion 1.6.1. En particular, a(, )
es una forma bilineal, continua y coercitiva en U (satisface (1.12) para = 1). Podemos aplicar
por tanto el Teorema 1.36 y deducir:

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 1. Repaso de Conceptos Conocidos 25

Teorema 1.37 (Teorema de la Proyecci on). Sean V un espacio de Hilbert, U V un sub-


conjunto convexo, cerrado y no vaco y u0 V . Entonces, existe un u e U soluci
nico u on del
problema (1.14). Ademas, u
e est
a caracterizado por ser la soluci
on de
(
e U tal que
Hallar u
u u0 , v u
(e e) 0, v U.

Observaci on 1.10. La soluci e U del problema (1.14) se denomina la proyecci


on u on de u0
sobre U. La condici on necesaria y suficiente proporcionada por el Teorema 1.37 tiene una clara
interpretacion geometrica cuando V = RN .
Cuando el conjunto U es una variedad afn cerrada, es decir, cuando U = U0 + W con U0 V y
W V un subespacio vectorial cerrado, la condicion necesaria y suficiente se escribe: u
e U0 + W
y
u u0 , w) = 0, w W,
(e
e u0 W = {v V : (v, w) = 0
es decir, u w W }.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
26 1.6. Aplicaciones

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Captulo 2

Metodos de Tipo Gradiente Para


Problemas sin Restricciones

En lo que sigue supondremos que V es un espacio de Hilbert equipado con un producto escalar
denotado (, ) y con norma asociada k k. Utilizaremos el Teorema de Riesz para identificar V con
su dual V 0 . Recordemos que esa identificacion viene dada mediante el producto escalar de V: Dado
f V 0 , existe un u
nico elemento uf V tal que kuf k = kf kV 0 y

hf, vi = (uf , v), v V.

2.1. Funcionales elpticos


Comenzamos generalizando el concepto de funcional cuadratico en un espacio de Hilbert. Ve-
remos que esta generalizacion est
a bien adaptada al estudio de metodos de aproximacion para los
mnimos de funcionales. As,

Definicion 2.1. Sea V un espacio de Hilbert y U V un subconjunto convexo no vaco. Diremos


que J : U V R es un funcional elptico (o tambien fuertemente convexo o -convexo) en U
si J es continuo en U y existe > 0 tal que, para cualesquiera u, v U y [0, 1], se tiene

(1 )
(2.1) J((1 )u + v) (1 )J(u) + J(v) ku vk2 .
2
La constante positiva es denominada constante de elipticidad de J asociada a U.

Ejercicio 2.1. Sean V un espacio de Hilbert, V un abierto, U un subconjunto convexo


no vaco y J1 , J2 : R dos funcionales continuos en . Supongamos que J1 es elptico en U, con
constante de elipticidad > 0, y J2 es convexo en U. Pruebese que J = J1 + J2 es tambien un
funcional elptico en U y que es una constante de elipticidad de J en U.

Es evidente que si J es un funcional elptico en U, entonces J es estrictamente convexo en U.


Tambien se tiene que J es coercitivo en U. Efectivamente,

Proposicion 2.2. Supongamos que J es un funcional elptico en U con constante de elipticidad .


Entonces, existen > 0 y R, dos constantes, tales que

J(v) kvk2 , v U.

27
28 2.1. Funcionales elpticos

Prueba: Como J es un funcional continuo y convexo en U, se tiene que el conjunto

Epi (J) = {(, v) R U : J(v)}

es un subconjunto cerrado (pues J es continuo en U), convexo (pues J es convexo en U) y no


vaco del espacio de Hilbert R V . Tomemos v0 U y 0 R tales que 0 < J(v0 ). Como
(0 , v0 ) 6 Epi (J), podemos aplicar el teorema de separacion de un punto y un convexo, deduciendo
la existencia de una constante R y de una forma lineal L e V 0 tal que

+ hL,
e vi > 0 + hL,
e v0 i, (, v) Epi (J).

No es difcil comprobar que > 0 (puesto que podemos tomar arbitrariamente grande). Sin m
as
que considerar (J(v), v) Epi (J) y dividir por , la desigualdad anterior se transforma en

(2.2) J(v) hL, vi + C,

para una cierta constante C y con L = L/ e V 0.


Probemos ya el resultado. Para v U, (2.1) y (2.2) implican
 
1 1 1
(J(v) + J(v0 )) J (v + v0 ) + kv v0 k2 hL, v + v0 i + kv v0 k2 + C,
2 2 8 2 8

y de aqu,

J(v) kvk2 (v, v0 ) + hL, vi + C1 ,
4 2
con C1 = (/4)kv0 k2 +hL, v0 iJ(v0 )+2C. Aplicando la desigualdad de Cauchy-Schwarz, deducimos

J(v) kvk2 (kLkV 0 + kv0 k/2) kvk + C1 kvk2 ,
4 8
para cierta constante .
Podemos ahora establecer un resultado de existencia y unicidad de mnimo para funcionales
elpticos sobre un convexo cerrado no vaco. Se tiene:

Teorema 2.3. Sean V un espacio de Hilbert, U V un subconjunto cerrado convexo no vaco y


J : U R un funcional elptico en U (de constante > 0). Entonces, existe un u
nico u U tal
que
J(u) = nf J(v).
vU

Adem
as, se tiene
4
(2.3) kv uk2 (J(v) J(u)) , v U,

on minimizante de J en U converge hacia u.
de donde se deduce que cualquier sucesi

Prueba: La existencia y unicidad de mnimo de J en U se deduce del Corolario 1.19 y de las


Proposiciones 1.20 y 2.2. Por otro lado, si v U, aplicando (2.1) para = 1/2 obtenemos,
 
2 1 1 1
ku vk (J(u) + J(v)) J (u + v) (J(v) J(u)) ,
8 2 2 2

pues J((u + v)/2) J(u). Tenemos as la prueba del resultado.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 29

Observacion 2.1. El Teorema 2.3 establece un resultado de existencia y unicidad de mnimo de


un funcional elptico J en un convexo cerrado U. Si ademas el funcional es G-diferenciable en U,
podemos aplicar el Teorema 1.35 y deducir que u es el mnimo de J en U si y solo si u U y

J(u, v u) 0, v U.

Pasemos a continuaci on a caracterizar los funcionales elpticos en un convexo utilizando la


G-diferencial. Se tiene:
Teorema 2.4. Sean V un espacio de Hilbert, V un abierto, U un subconjunto convexo no
vaco y J : R un funcional continuo. Supongamos que J es G-diferenciable en . Entonces,
son equivalentes
J es elptico en U (con constante > 0 asociada).


(2.4) J(v) J(u) + J(u, v u) + kv uk2 , u, v U.
2

(2.5) J(v, v u) J(u, v u) kv uk2 , u, v U.

Prueba: Supongamos que J es un funcional elptico en U y sean u, v U. Aplicando (2.1) con


(0, 1), obtenemos
J(u + (v u)) J(u)
J(v) J(u) (1 )kv uk2 .
2
Tomando lmite cuando 0+ , deducimos (2.4).
Supongamos ahora que se tiene (2.4) y sean u, v U. Deducimos (2.5) escribiendo (2.4) alter-
nativamente para (u, v) y (v, u), sumando las desigualdades obtenidas y teniendo en cuenta que la
G-diferencial es homogenea respecto a la direccion.
ltimo, supongamos que se tiene (2.5) y consideremos u, v U y (0, 1). Para t [0, 1],
Por u
introducimos la funci on (t) = J(u + t(v u)). Es facil comprobar que es derivable en el intervalo
[0, 1] y 0 (t) = J(u + t(v u), v u). De (2.5),

0 (t) 0 (s) (t s)kv uk2 para t, s [0, 1] con t s.

Integrando esta desigualdad respecto de t en el intervalo [, 1] y respecto a s en el intervalo [0, ],


obtenemos

(1) + (1 )(0) () (1 )kv uk2 ,
2
es decir, J es elptico en U.
Ejemplo 2.1. Supongamos que V es un espacio normado, a : V V R una forma bilineal
continua y L V 0 . Consideramos el funcional cuadratico
1
J(v) = a(v, v) hL, vi, v V.
2
Podemos utilizar la caracterizaci on (2.5) para dar una condicion sobre a(, ) para que el funcional
J sea elptico en V . Es f
acil comprobar la igualdad

J(v, v u) J(u, v u) = a(v u, v u), u, v V,

de donde deducimos que J es elptico en V (con constante de elipticidad ) si y solo si la forma


bilineal a(, ) es coercitiva en V (con constante de coercitividad ).

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
30 2.1. Funcionales elpticos

Ejemplo 2.2. Veamos el caso particular en el que V tiene dimension finita. Para ello, consideramos
V = RN , con N 1, A L(RN ) una matriz de orden N y b RN . Introduzcamos el funcional
cuadratico en RN dado por:
1
J(x) = (Ax, x) (b, x) x RN ,
2
donde mediante (, ) estamos denotando el producto eucldeo en RN . Entonces, J es elptico en
RN si y solo si A es definida positiva y la constante de elipticidad del funcional coincide con la
constante que da el car acter definido positivo de la matriz A.
Ejemplo 2.3. Veamos otro caso particular del Ejemplo 2.1. Consideremos RN un abierto
acotado y recordemos que1

H 1 () = {v L2 () : i v L2 () para todo i : 1 i N },

donde mediante i v estamos denotando la derivada generalizada de v respecto de xi . Sabemos que


H 1 () es un espacio de Hilbert para el producto escalar
Z N Z
X
(v, w)H 1 = v(x)w(x) dx + i v(x)i w(x) dx, v, w H 1 ().
i=1

Denotaremos mediante k kH 1 la norma de H 1 () asociada al producto (, )H 1


Por otro lado, recordemos que H01 () es la adherencia de D() en H 1 (). Por tanto, H01 () es
un subespacio vectorial cerrado de H 1 () y, con el producto escalar de H 1 (), es un espacio de
Hilbert.
En general, H01 () es un subespacio propio de H 1 () (es decir, H01 () ( H 1 ()) y, en particular
si es un abierto acotado se tiene H01 () 6 H 1 (). Evidentemente, D() es un subespacio
vectorial denso en H01 (). Recordemos tambien que si RN es un abierto acotado en alguna
direccion, entonces, la seminorma de H 1 () dada por
N
X
kvk2H 1 = ki vk2L2 .
0
i=1

es de hecho una norma en H01 () equivalente a la usual de H 1 () (desigualdad de Poincare).


Finalmente, recordemos que H 1 () es el espacio dual topologico de H01 ().
En H01 () consideramos las formas bilineal y lineal en H01 ()
N Z

X
i v(x)i w(x) dx v, w H01 (),

a(v, w) =


i=1
Z
v H01 (),

hL, vi =
f (x)v(x) dx

con f L2 () dada. Entonces es f


acil comprobar que podemos aplicar el ejemplo (2.1) al funcional
1
J(v) = a(v, v) hL, vi, v H01 (),
2
pues, de la desigualdad de Poincare, deducimos que la forma bilineal es coercitiva en H01 () y el
funcional J es elptico en H01 ().
1
Para una definici
on m
as precisa, vease la asignatura Ecuaciones en Derivadas Parciales y An
alisis Funcional.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 31

En el caso en el que J sea dos veces G-diferenciable, podemos caracterizar la elipticidad de J


en U usando esa G-diferencial segunda:
Proposici on 2.5. Sean V un espacio de Hilbert, V un abierto, U un subconjunto convexo
no vaco y J : R un funcional continuo. Supongamos que J es dos veces G-diferenciable en .
Entonces, J es elptico en U (con constante > 0 asociada) si y s
olo si
2 J(u, v u, v u) kv uk2 , u, v U.
Ejercicio 2.2. Pruebese la Proposici
on 2.5

2.2. Metodos del gradiente para problemas de mnimo sin restric-


ciones
En esta secci
on comenzaremos a presentar y a analizar algunos algoritmos que permitiran apro-
ximar la solucion del problema de mnimos
(
Minimizar J(v),
(2.6)
Sujeto a v V,
donde V es un espacio de Hilbert y J : V R es un funcional convexo. Observese que estamos
tomando U V , por tanto, se trata de un problema sin restricciones.
Presentaremos metodos o algoritmos de tipo iterativo: partiendo de un vector inicial u0 V ,
on {un }n0 V que, bajo ciertas condiciones, convergera hacia la soluci
construiremos una sucesi on
de nuestro problema de mnimos. Para construir el vector un+1 a partir del vector un utilizaremos
una idea muy sencilla mediante la cual transformaremos el problema de mnimos original en un
problema de mnimos unidimensional:
1. dado n 0, daremos una direcci
on dn V , con dn 6= 0 (direcci
on de descenso) en el punto
un ,
2. buscaremos el mnimo del funcional J sobre la recta que pasa por un con direccion dn , es
decir, calcularemos n R tal que
J(un + n dn ) = nf J(un + dn ).
R

3. haremos un+1 = un + n dn .
Esta es la estructura general de un llamado metodo de descenso. El problema surge en como
elegir la mejor direccion de descenso, es decir, la direccion dn V que haga que la diferencia
J(un ) J(un+1 ) sea lo mayor posible. Veamos como podemos elegir esa direccion optima (al menos
localmente optima):
Supongamos que J C 1 (V ), es decir, supongamos que J es F-diferenciable en V con F-derivada
continua. Si hacemos wn = n dn , entonces un+1 = un + wn y
J(un+1 ) = J(un ) + (J 0 (un ), wn ) + kwn ko(wn ) con lm o(w) = 0,
kwk0

donde mediante J 0 (v) estamos denotando la F-derivada de J en v. Recordemos que, con la identi-
ficacion V V 0 , J 0 (un ) V . De aqu deducimos
J(un ) J(un+1 ) = (J 0 (un ), wn ) kwn ko(wn ),
Gracias a la desigualdad de Cauchy-Schwarz, se deduce |(J 0 (un ), wn )| kJ 0 (un )kkwn k y la igualdad
se alcanza cuando J 0 (un ) y wn son proporcionales. Esto nos conduce a tomar wn = J 0 (un ), es
decir, tomaremos como direcci on de descenso en la etapa n + 1 la del gradiente de J en un .

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
32 2.2. M
etodos del gradiente para problemas de mnimo sin restricciones

2.2.1.
Algoritmo del Gradiente con Paso Optimo (AGPO)
Supongamos que J C 1 (V ). Con las consideraciones anteriores planteamos el Metodo del

Gradiente con Paso Optimo:
1. Elegir u0 V .
Dados n 0 y un V :

2. Calcular J 0 (un ) V .

3. Calcular n R tal que J(un n J 0 (un )) = nf J(un J 0 (un )).


R

4. Tomar un+1 = un n J 0 (un ), hacer n = n + 1 y volver a 2.


Observaci on 2.2. De manera general, un metodo iterativo en el que el punto un+1 venga dado por
la igualdad un+1 = un en J 0 (un ), con en R, es denominado metodo del gradiente. El algoritmo
anterior es denominado metodo del gradiente con paso optimo por razones evidentes. Veremos otros
metodos del gradiente que simplifican el anteriormente propuesto.
Respecto a la convergencia de este metodo, se tiene:
Teorema 2.6. Supongamos que J : V R es un funcional elptico en V , con constante > 0,
y F-derivable en V con derivada continua. Supongamos adem as que J 0 : V V es globalmente
Lipschitziana en los acotados de V , es decir, para cualquier M > 0 existe LM 0 tal que

(2.7) kJ 0 (v) J 0 (w)k LM kv wk, v, w B(0; M ).

Entonces, el algoritmo (AGPO) es globalmente convergente: para cualquier u0 V , la sucesion


{un }n0 dada por el (AGPO) esta bien definida y un u en V , siendo u V la u
nica soluci
on
del problema de mnimos (2.6).
Prueba: Bajo las hip otesis del enunciado podemos aplicar el Teorema 2.3 (con U = V ) y deducir
que (2.6) tiene una u on u V que esta caracterizada por
nica soluci

J 0 (u) = 0.

Esta igualdad nos permite suponer que J 0 (un ) 6= 0 para todo n 0, pues en caso contrario
tendramos que un u y el metodo sera convergente en un n umero finito de etapas. Veamos ya la
prueba del resultado:
Etapa 1. En esta primera etapa comprobaremos que el algoritmo esta bien definido. Supongamos
dado n 0 y un V , con J 0 (un ) 6= 0, y calculemos un+1 . Consideremos la funcion fn : R R
dada por
fn () = J(un J 0 (un )).
Claramente, fn C 1 (R) y fn0 () = (J 0 (un J 0 (un )), J 0 (un )). Veamos que fn es elptica en R.
Efectivamente, si , R y [0, 1], tenemos
0 0
 



fn ((1 ) + ) = J (1 ) u n J (un ) + un J (un )
(1 )J un J 0 (un ) + J un J 0 (un )

 



(1 )
k( )J 0 (un )k2


2
(1 ) 0


= (1 )fn () + fn () kJ (un )k2 | |2 ,


2

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 33

de donde colegimos que fn es elptica en R con constante de elipticidad kJ 0 (un )k2 . Aplicando el
Teorema 2.3 obtenemos que fn tiene un u nico mnimo en R que esta caracterizado por fn0 (n ) = 0.
Tenemos asegurado que el algoritmo est a bien definido.
Puesto que fn0 (n ) = 0, deducimos,

J 0 (un+1 ), J 0 (un ) = 0, n 0,

(2.8)

(dos direcciones de descenso consecutivas son ortogonales).


Etapa 2. En esta etapa y como consecuencia de la igualdad (2.8) deduciremos algunas propiedades
de la sucesion. Estas propiedades son comunes a todos los algoritmos de descenso y explota el hecho
de que J 0 (un+1 ) es ortogonal a la direcci
on de descenso. En primer lugar, como consecuencia de la
igualdad (2.8), se tiene

J(un ) J(un+1 ) J 0 (un+1 ), un un+1 + kun un+1 k2

2
0 0


= n J (un+1 ), J (un ) + kun un+1 k2 = kun un+1 k2 .
2 2
Tenemos de este modo que la sucesi on {J(un )}n0 es una sucesi on decreciente que, evidente-
mente, esta acotada inferiormente por J(u). Por tanto, {J(un )}n0 es convergente. Esta propiedad
junto a la u
ltima desigualdad muestra la segunda propiedad de la sucesion:

(2.9) lm kun+1 un k2 = 0.

Veamos ya la u ltima propiedad de la sucesion {un }n0 . Gracias a la Proposicion 2.2, sabemos
que el funcional J es coercitivo en V . Como {J(un )}n0 es convergente, necesariamente {un }n1
esta acotada. As, existe M > 0 tal que

(2.10) kun k M, n 0


Etapa 3. Probemos la convergencia de la sucesion. Esta se va a deducir de la combinacion de las
propiedades anteriores (v
alidas en cualquier algoritmo de descenso) y de una propiedad particular
del (AGPO). Es la siguiente:

kJ 0 (un )k2 = (J 0 (un ), J 0 (un )) = (J 0 (un ), J 0 (un ) J 0 (un+1 )) kJ 0 (un )kkJ 0 (un ) J 0 (un+1 )k,

es decir,
kJ 0 (un )k kJ 0 (un ) J 0 (un+1 )k.
Utilizamos ahora (2.7) y (2.10) para obtener

kJ 0 (un )k kJ 0 (un ) J 0 (un+1 )k LM kun un+1 k,

con LM 0 la constante de Lipschitz asociada. De (2.9) obtenemos que lm kJ 0 (un )k = 0. Utilizando


de nuevo la hip
otesis de elipticidad del funcional J y, en concreto, (2.5),

kun uk2 (J 0 (un ) J 0 (u), un u) = (J 0 (un ), un u) kJ 0 (un )kkun uk,

es decir,
1 0
(2.11) kun uk kJ (un )k 0.

Tenemos de este modo la prueba del resultado.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
34 2.2. M
etodos del gradiente para problemas de mnimo sin restricciones

Observaci on 2.3. En el caso finito-dimensional V RN , con N 1, es posible demostrar el


Teorema 2.6 sin imponer la condici on (2.7). Efectivamente, razonando como antes, se tiene (2.10)
y (2.9). Por otro lado, tambien se tiene que la sucesion {un }n1 RN esta acotada, es decir, existe
M > 0 tal que {un }n1 B(0; M ). Como J 0 (v) es continua en RN , tenemos que es uniformemente
continua sobre el compacto B(0; M ). Utilizando esta u ltima propiedad junto a (2.10) y (2.9)
deducimos que lm kJ 0 (un )k = 0. Basta ahora razonar como en la prueba del Teorema 2.6 para
concluir la convergencia de un hacia u y la desigualdad (2.11).

Observacion 2.4. 1. Es interesante resaltar que la desigualdad (2.11) tiene un gran interes
desde el punto de vista pr
actico: proporciona una estimacion del error cometido en la etapa n
del algoritmo. Sin embargo, no nos proporciona una estimacion de la velocidad de convergencia
del algoritmo.

2. En el caso finito-dimensional es posible probar un resultado analogo al Teorema 2.6 bajo


as generales: J C 1 (RN ), estrictamente convexo y coercitivo en V (ver [Cea]
hipotesis m
p. 91).

Ejemplo. Veamos en que consiste el (AGPO) en el caso de un funcional cuadratico en RN . Para


ello consideramos A L(RN ), una matriz cuadrada de orden N sim etrica y definida positiva,
N
y b R . Definimos,
1
J(x) = (Ax, x) (b, x), x RN .
2
Es facil comprobar que J satisface las condiciones del Teorema 2.6. As, el (AGPO) proporciona
una sucesi on {xn }n0 RN que converge hacia el mnimo global de J en RN , es decir, hacia la
u
nica soluci b RN del sistema lineal Ax = b.
on x
Calculemos la sucesion {xn }n0 : La derivada de J viene dada por J 0 (x) = Ax b. Calcularemos
el paso optimo n utilizando (2.8), es decir,

0 = J 0 (xn+1 ), J 0 (xn ) = A xn n J 0 (xn ) b, J 0 (xn ) .


  

De aqu obtenemos
kgn k2
n = , con gn = J 0 (xn ) = Axn b.
(Agn , gn )
De esta manera, el metodo queda del siguiente modo:

1. Elegir x0 RN y > 0.
Dados n 0 y xn RN :

2. Calcular gn = Axn b.

3. Si kgn k < parar el algoritmo y tomar x


b ' xn . Si kgn k pasar al punto siguiente.

kgn k2
4. Calcular n = y xn+1 = xn n gn . Hacer n = n + 1 y volver a 2.
(Agn , gn )

2.2.2. Algoritmos del Gradiente con Paso Fijo (AGPF) y Variable (AGPV)
Se puede simplificar el (AGPO) dando a priori el valor del paso en cada etapa n en lugar de
calcularlo resolviendo un problema de mnimos unidimensional. As, supongamos dada una sucesi
on
{e
n }n0 R y planteemos el llamado Algoritmo del Gradiente con Paso Variable (AGPV):

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 35

1. Elegir u0 V .
Dados n 0 y un V :

2. Calcular J 0 (un ) V .

3. Tomar un+1 = un en J 0 (un ), hacer n = n + 1 y volver a 2.

Como paso particular del metodo anterior esta el Algoritmo del Gradiente con Paso Fijo que
on constante en R, para todo n 0:
consiste en tomar una sucesi

1. Elegir > 0 y u0 V .
Dados n 0 y un V :

2. Calcular J 0 (un ) V .

3. Tomar un+1 = un J 0 (un ), hacer n = n + 1 y volver a 2.

Respecto a la convergencia de estos metodos, se tiene:

Teorema 2.7. Supongamos que J : V R es un funcional elptico en V , con constante > 0,


as que J 0 : V V es globalmente
y F-derivable en V con derivada continua. Supongamos adem
Lipschitziana en V , es decir, existe L 0 tal que

kJ 0 (v) J 0 (w)k Lkv wk, v, w V.

Supongamos adem
as que existen a, b > 0 tales que
2
0 < a en b < , n 0.
L2
Entonces, el algoritmo (AGPV) es convergente con convergencia geometrica, es decir, existe =
(, L, a, b) [0, 1) tal que, para cualquier u0 V , se tiene:

kun uk n ku0 uk, n 0,

siendo u V la u
nica soluci
on del problema de mnimos (2.6).

Prueba: Bajo las condiciones del enunciado se tiene que el funcional J admite un u nico mnimo
on de Euler J 0 (u) = 0 en V . Por tanto, podemos escribir
u V que satisface la ecuaci

un+1 u = un u en J 0 (un ) J 0 (u) ,




otesis sobre J 0 y (2.5), deducimos


de donde, teniendo en cuenta la hip
(
kun+1 uk2 = kun uk2 + e2n kJ 0 (un ) J 0 (u)k2 2e
n J 0 (un ) J 0 (u), un u


kun uk2 + L2 e2n kun uk2 2e


n kun uk2 P (e
n )kun uk2 ,

siendo P el polinomio dado por P () = L2 2 2+1. Es facil comprobar que P (0) = P (2/L2 ) = 1
y que mn[0,2/L2 ] P () = P (/L2 ) = 1 2 /L2 [0, 1) (pues, como se comprueba facilmente,
L). q
Por otro lado, si hacemos = ax[a,b] P () [0, 1), entonces kun+1 uk2 2 kun uk2 .
m
De aqu se concluye el resultado.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
36 2.2. M
etodos del gradiente para problemas de mnimo sin restricciones

Observaci on 2.5. El Teorema 2.3 da, en particular, un resultado de convergencia para el (AGPF).
Para ello basta elegir (0, 2/L2 ). Teniendo en cuenta la expresion del polinomio P deducimos
que la elecci optima del paso es /L2 .
on

Es posible aplicar el Teorema 2.7 cuando J es un funcional cuadratico elptico en RN . Consi-


deremos
1
J(x) = (Ax, x) (b, x) x RN ,
2
donde A L(RN ) es una matriz simetrica definida positiva y b RN . Es facil comprobar que
las mejores constantes y L asociadas a J son, respectivamente, 1 y N (el primer y el u
ltimo
autovalor de A). As, el (AGPV) es convergente si

21
0 < a en b < , n 0.
2N

Analizando la prueba del teorema anterior, veamos que es posible mejorar la acotacion anterior.
En efecto, sea x RN el mnimo de J en RN . Sabemos que Ax = b y, as,

xn+1 x = xn x n A(xn x) = (I n A) (xn x) ,

de donde,
kxn+1 xk kI n Ak2 kxn xk, n 0,
donde k k2 representa la norma espectral. Si hacemos f () = kI Ak2 , como I A es simetrica,
entonces,
f () = max{|1 1 |, |1 N |}.
Viendo la gr
afica de la funci
on f es facil comprobar que si

2
0 < a en b < ,
N

n ) m
entonces f (e ax{f (a), f (b)} e (0, 1). Finalmente,

e n xk en+1 kx0 xk,


kxn+1 xk kx n 0.

Obtenemos de este modo la convergencia del (AGPV) con una cota superior para n (2/N ) que
es mejor que la que proporciona el Teorema 2.7 (21 /2N ). Tambien analizando la grafica de f ,
optimo de en el (AGPF) es 2/(1 + N ) que proporciona el siguiente
obtenemos que el valor
valor para :
e
 
2 N 1
e f = (0, 1).
1 + N 1 + N

Es posible probar un resultado de convergencia local del (AGPV) bajo hipotesis mas generales
que las exigidas en el Teorema 2.7. En concreto, se tiene:

Teorema 2.8. Supongamos que J : V R es un funcional elptico en V , con constante > 0,


y F-derivable en V con derivada continua. Supongamos adem as que J 0 : V V es globalmente
Lipschitziana en los acotados de V , es decir, para todo R > 0, existe LR 0 tal que

kJ 0 (v) J 0 (w)k LR kv wk, v, w B(0; R).

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 37

Entonces, dado R > 0 y a, b (0, 2/L2R ), existe R = R (, R, a, b) [0, 1) tal que si u0 B(u; R)
y
2
0 < a en b < 2 , n 0,
LR

se tiene {un }n0 B(u; R) y


n
kun uk R ku0 uk, n 0,

(u V la u
nica soluci
on del problema de mnimos (2.6)).

Prueba: La prueba es muy parecida a la del Teorema 2.7. En las hipotesis del enunciado, si fijamos
R > 0 y consideramos el polinomio

PR () = L2R 2 2 + 1
q
y R = max[a,b] PR (), entonces, es facil comprobar que R [0, 1). La prueba se obtiene
facilmente si aplicamos un razonamiento de induccion.

2.3. Metodos del gradiente conjugado para problemas sin restric-


ciones
En la secci
on anterior hemos estudiados distintos algoritmos de gradiente. Estos utlizan como
direccion de descenso la direcci
on del gradiente que, como vimos, proporciona localmente la mejor
direccion de descenso. Sin embargo, globalmente esta no tiene porque ser la mejor. Veamos un
ejemplo sencillo que muestra este hecho:
Ejemplo. Consideremos el funcional cuadratico elptico en R2 :

1
1 x21 + 2 x22 , con 0 < 1 < 2 ,

J(x1 , x2 ) =
2

que, evidentemente, corresponde a la matriz definida positiva A = diag (1 , 2 ) L(R2 ) y a b 0.


Tambien esta claro que J alcanza su mnimo global en el punto x 0. Supongamos que aplicamos
el (AGPO) a este funcional partiendo de un punto x0 R2 . Entonces,

Si alguna componente de x0 es nula, el (AGPO) converge en una u


nica iteracion.

Si las dos componentes de x0 son no nulas, entonces el metodo nunca converge en un n


umero
finito de estapas.

Veamos este u ltimo punto. Para ello, veremos (por induccion) que si xn = (x1,n , x2,n ) satisface
x1,n 6= 0 y x2,n 6= 0, entonces, si xn+1 = (x1,n+1 , x2,n+1 ), tambien se tiene x1,n+1 6= 0 y x2,n+1 6= 0.
Efectivamente, si hacemos gn = J 0 (xn ) = (1 x1,n , 2 x2,n ), entonces vimos que xn+1 = xn n gn
kgn k2
con n = . Obtenemos por tanto,
(Agn , gn )

22 (2 1 )x1,n x22,n 12 (1 2 )x2,n x21,n


x1,n+1 = 6= 0 y x2,n+1 = 6= 0.
13 x21,n + 23 x22,n 13 x21,n + 23 x22,n

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
38 2.3. M
etodos del gradiente conjugado para problemas sin restricciones

2.3.1. El algoritmo del gradiente conjugado para un funcional cuadr


atico elpti-
N
co en R
El objetivo de esta seccion es proporcionar un algoritmo de descenso que, en el caso de un funcio-
nal cuadratico elptico en RN , alcance el mnimo en un n
umero finito de iteraciones. Consideremos
el funcional
1
J(x) = (Ax, x) (b, x),
2
con A L(RN ), una matriz simetrica definida positiva, y b RN . Supongamos que hemos calculado
los vectores x0 , x1 , ..., xn RN y que no hemos obtenido el mnimo x de J, es decir, supongamos
que J 0 (xl ) 6= 0, para 0 l n. Introduzcamos el espacio vectorial

Gn = hJ 0 (x0 ), J 0 (x1 ), , J 0 (xn )i.

As, buscamos xn+1 xn + Gn tal que

J(xn+1 ) = mn J(x).
xxn +Gn

Esta claro que el anterior problema de mnimos esta bien planteado (es decir, tiene una u nica
N
solucion) pues xn + Gn es un convexo cerrado no vaco y J es elptico en R (y, en particular, en
xn + Gn ).
El algoritmo que se propone calcula los puntos xl+1 , con 0 l n, resolviendo los problemas
de minimizaci on
xl+1 xl + Gl , J(xl+1 ) = mn J(x), 0 l n.
xxl +Gl

No es difcil comprobar que xl+1 est


a caracterizado por

J 0 (xl+1 ), J 0 (xi ) = 0,

(2.12) xl+1 xl + Gl y 0 i l n,

de donde deducimos que los gradientes J 0 (xl ) con 1 l k + 1 son dos a dos ortogonales (n
otese
la diferencia con el (AGPO) donde s olo los gradientes consecutivos eran ortogonales; ver (2.8)).
A la vista de lo expuesto previamente deducimos:

El conjunto {J 0 (xl ) : 0 l n} es linealmente independiente. Efectivamente, (2.12) junto a


otesis J 0 (xl ) 6= 0 para 0 l n hecha al inicio demuestran lo anterior.
la hip

El algoritmo converge, a lo sumo, en N iteraciones.

Vamos seguidamente a transformar el anterior algoritmo en un algoritmo de descenso, es decir,


en cada etapa l con 0 l n, vamos a elegir una direccion de descenso dl Gl tal que

(2.13) J(xl+1 ) = nf J(xl dl ).


R

Esta claro que si l = xl+1 xl Gl , entonces,


l
X
l = xl+1 xl = i,l J 0 (xi ), 0 l n,
i=0

y podemos tomar como direcci on de descenso dl = l l con l R y l 6= 0 (0 l n), a


determinar (de hecho, 1/l es la solucion del problema de mnimos unidimensional (2.13)).

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 39

Veamos algunas propiedades del conjunto {l : 0 l n}. En primer lugar,

J 0 (xl+1 ) = J 0 (xl + l ) = A(xl + l ) b = J 0 (xl ) + Al , l : 0 l n,

que junto a (2.12) proporciona

0 = J 0 (xl+1 ), J 0 (xl ) = kJ 0 (xl )k2 + Al , J 0 (xl ) ,


 
0 l n.

Como hemos supuesto que J 0 (xi ) 6= 0 para 0 i n, de la identidad anterior obtenemos que
l 6= 0 para 0 l n. Uilizando de nuevo (2.12),

0 = J 0 (xl+1 ), J 0 (xi ) = Al , J 0 (xi ) ,


 
0 i < l n,

y de aqu,

(2.14) (Al , i ) = 0, 0 i < l n.

Definicion 2.9. Dada A L(RN ) una matriz simetrica y definida positiva y un conjunto de
vectores {wl RN : 0 l n}, se dice que son conjugados respecto de la matriz A si se tiene

wl 6= 0, 0 l k, y (Awl , wi ) = (wl , Awi ) = 0, 0 i < l n.

De (2.14) obtenemos que las direcciones de descenso {l : 0 l n} son direcciones conjugadas


respecto de la matriz A. Tambien de (2.14), no es difcil deducir que el conjunto {l : 0 l n} es
tambien linealmente independiente. Como el conjunto {J 0 (xl ) : 0 l n} es ortogonal (ver (2.12)),
de la identidad

0,0 0,1 0,n
0 1,1 1,n

(0 | 1 | | n ) = J 0 (x0 ) | J 0 (x1 ) | | J 0 (xn ) . . ,
0 0 .. ..

0 0 n,n

se tiene que l,l 6= 0, para todo 0 l n. Podemos por tanto elegir

l1
X i,l l1
1 X
dl = l = J 0 (xl ) + J 0 (xi ) = J 0 (xl ) + i,l J 0 (xi ),
l,l l,l
i=0 i=0

con 0 l n.
Veremos que, para 0 i < l n, el calculo de los coeficientes i,l (y por tanto de la direcci
on
de descenso dl ) es muy sencillo. Para ello utilizamos (2.14) y obtenemos,

0 = (Adl , i ) = (dl , Ai ) = dl , J 0 (xi+1 ) J 0 (xi )




l1
!
X
0 0 0 0
= J (xl ) +

m,l J (xm ), J (xi+1 ) J (xi ) ,
m=0

con 0 i < l n. La aplicaci on de esta igualdad proporciona las formulas


(
kJ 0 (xl )k2 l1,l kJ 0 (xl1 )k2 = 0 para i = l 1
i+1,l kJ 0 (xi+1 )k2 i,l kJ 0 (xi )k2 = 0 para i : 0 i l 2,

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
40 2.3. M
etodos del gradiente conjugado para problemas sin restricciones

es decir,
kJ 0 (xl )k2
i,l = , i : 0 i < l n.
kJ 0 (xi )k2
Volviendo a la expresi on de dl ,

l1

0
X kJ 0 (xl )k2 0
d = J (x ) + J (xi )
l l
kJ 0 (xi )k2


i=0
l2
!
kJ 0 (xl )k2 X kJ 0 (xl1 )k2 kJ 0 (xl )k2
= J 0 (xl ) + 0 J 0 (xl1 ) + J 0 (xi ) = J 0 (xl ) +


dl1 .
kJ (xl1 )k2 kJ 0 (xi )k2 kJ 0 (xl1 )k2


i=0

Esta u
ltima igualdad proporciona un procedimiento de calculo muy simple de las sucesivas
direcciones de descenso del algoritmo:
0
d0 = J (u0 ),
(2.15) kJ 0 (xl )k2
dl = J 0 (ul ) + dl1 , l : 0 l n.
kJ 0 (xl1 )k2

Para completar el algoritmo, hay que determinar el paso optimo asociado a la direccion de descenso
dl , es decir, hay que determinar l R tal que J(ul l dl ) = nf R J(ul dl ). No es difcil
comprobar que l viene dado por
(J 0 (ul ), dl )
l = .
(Adl , dl )
Tenemos los elementos para plantear el Algoritmo del Gradiente Conjugado para un funcional
cuadratico elptico (AGCCE):

1. Elegir x0 RN y > 0, y tomar d0 = J 0 (x0 ) = Ax0 b.


Dados n 0, xn RN y dn RN :
(J 0 (xn ), dn )
2. Calcular n = y xn+1 = xn n dn .
(Adn , dn )
3. Hacer gn+1 = J 0 (xn+1 ). Si kgn+1 k < parar el algoritmo y tomar x
b ' xn+1 . Si kgn+1 k
pasar al punto siguiente.
kJ 0 (xn+1 )k2
4. Calcular dn+1 = gn+1 + dn . Hacer n = n + 1 y volver a 2.
kJ 0 (xn )k2
Hemos probado:

atico elptico en RN
Teorema 2.10. El algoritmo del gradiente conjugado para un funcional cuadr
converge, a lo sumo, en N etapas.

Es posible aplicar este algoritmo al caso de un funcional J : RN R elptico no necesa-


riamente cuadratico. En este caso no tenemos asegurada la convergencia en un n umero finito de
etapas, ni tan siquiera la convergencia del algoritmo. En este caso, el algoritmo (AGCCE) queda
del siguiente modo:

1. Elegir x0 RN y > 0, y tomar d0 = J 0 (x0 ).


Dados n 0, xn RN y dn RN :

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 41

2. Calcular n R tal que J(xn n dn ) = nf J(xn dn ) y tomar xn+1 = xn n dn .


R

3. Calcular J 0 (xn+1 ) RN . Si kJ 0 (xn+1 )k < parar el algoritmo y tomar x


b ' xn+1 . Si
0
kJ (xn+1 )k pasar al punto siguiente.

kJ 0 (xn+1 )k2
4. Calcular dn+1 = J 0 (xn+1 ) + dn . Hacer n = n + 1 y volver a 2.
kJ 0 (xn )k2

Estudiaremos la convergencia del anterior algoritmo en la siguiente seccion.

2.3.2. Algoritmo del Gradiente Conjugado Gen


erico (AGCG)
Supongamos que V es un espacio de Hilbert y que J : V R es un funcional F-derivable en
V . De manera general, un algoritmo de gradiente conjugado generico es un algoritmo de descenso
donde las direcciones de descenso dn V satisfacen

J 0 (un ), dn > 0,

n 0,

donde {un }n0 V es la sucesi


on que genera el algoritmo.
El algoritmo (AGCG) tiene la forma:

1. Elegir u0 V y > 0.
Dados n 0 y un V :

2. Calcular J 0 (un ) V . Si kJ 0 (un )k < parar el algoritmo y tomar u ' un . Si kJ 0 (un )k ,


elegir dn V tal que (J 0 (un ), dn ) > 0 y pasar al punto siguiente.

3. Calcular n R tal que J(un n dn ) = nf J un J 0 (un ) .



R

4. Tomar un+1 = un n dn . Hacer n = n + 1 y volver a 2.

Veremos un resultado de convergencia global del anterior algoritmo para funcionales elpticos
definidos en un espacio de Hilbert V . Se tiene:

Teorema 2.11. Supongamos que J : V R es un funcional elptico en V , con constante > 0,


y F-derivable en V con derivada continua. Supongamos adem as que J 0 : V V es globalmente
Lipschitziana en los acotados de V , es decir, para cualquier M > 0 existe LM 0 tal que

kJ 0 (v) J 0 (w)k LM kv wk, v, w B(0; M ).

Supongamos adem as que se satisface la llamada condici


on de Polak para las direcciones de
descenso {dn }n0 V :

dn 6= 0 y existe > 0 tal que J 0 (un ), dn kJ 0 (un )kkdn k,



(2.16) n 0.

Entonces, el algoritmo (AGCG) es globalmente convergente: para cualquier u0 V , la sucesi on


{un }n0 dada por el (AGCG) est a bien definida y un u en V , siendo u V la u
nica soluci
on
del problema de mnimos (2.6). Ademas, se tiene la estimaci
on de error (2.11).

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
42 2.3. M
etodos del gradiente conjugado para problemas sin restricciones

Prueba: La demostraci on del resultado sigue los pasos de la demostracion del Teorema 2.6. De
nuevo, de las hip otesis del enunciado, podemos aplicar el Teorema 2.3 y deducir que el proble-
ma (2.6) admite una u on u V caracterizada por J 0 (u) = 0. De esta manera podemos
nica soluci
0
suponer que J (un ) 6= 0, para n N, pues en caso contrario, el algoritmo converge en un numero
finito de etapas. Veamos la prueba:
Etapa 1. El algoritmo est
a bien definido. Efectivamente, si consideramos la funcion

fn () = J(un dn ), R,

es facil comprobar que fn C 1 (R) y que es elptica en R (pues dn 6= 0). Tenemos as asegurada la
optimo n R que ademas satisface f 0 (n ) = 0, es decir,
existencia del paso

J 0 (un+1 ), dn = 0,

(2.17) n 0.

Etapa 2. Esta etapa es an


aloga a la del Teorema 2.6. De hecho, de (2.17) deducimos

J(un ) J(un+1 ) J 0 (un+1 ), un un+1 + kun un+1 k2

2
0


= n J (un+1 ), dn + kun un+1 k2 = kun un+1 k2 .
2 2
Razonando como en el Teorema 2.6 obtenemos,

lm kun+1 un k2 = 0,

y la existencia de M > 0 tal que


kun k M, n 0.

Etapa 3. En esta etapa intentamos probar una desigualdad parecida a (2.10). Combinando la
condicion de Polak (2.16) y la igualdad (2.17), obtenemos

1 0  1 0  1
kJ 0 (un )kkdn k J (un ), dn = J (un ) J 0 (un+1 ), dn kJ 0 (un ) J 0 (un+1 )kkdn k.

De aqu deducimos,

1 0 LM
kJ 0 (un )k kJ (un ) J 0 (un+1 )k kun un+1 k.

Con estas desigualdades, basta seguir el razonamiento de la prueba de la convergencia del


algoritmo (AGPO) hecha en el Teorema 2.6 para concluir la demostracion.

Observaci on 2.6. Es posible generalizar el Teorema 2.11 cambiando la condicion de Polak (2.16)
por otra condicion m as general, la llamada condicion de Zoutendijk: Existe una sucesi on
{tn }n0 (0, ) tal que
X
t2n = y J 0 (un ), dn tn kJ 0 (un )kkdn k.


n0

Para ver una prueba de este resultado, vease [9] y [5]. Evidentemente, la condicion de Polak implica
la condicion de Zoutendijk.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 43

Como ya vimos, en el (AGCCE) la direccion de descenso es calculada usando la formula dn =


J 0 (un )
+ n dn1 , con
kJ 0 (un )k2
n = , n 0.
kJ 0 (un1 )k2
Recordemos tambien que, al aplicar el (AGCCE), los gradientes generados son ortogonales dos a
dos. Esto hace que tambien se tenga la formula

kJ 0 (un )k2 (J 0 (un ) J 0 (un1 ), J 0 (un ))


n = = , n 0.
kJ 0 (un1 )k2 kJ 0 (un1 )k2

Utilizando las expresiones anteriores, vamos a obtener dos algoritmos (distintos cuando J es un
funcional elptico definido en V , un espacio de Hilbert) que se engloban dentro de los algoritmos
de gradiente conjugado.
Empezamos por el llamado algoritmo del gradiente conjugado de Polak-Rivi` ere (1969) (AGCPR):

1. Elegir u0 V y > 0, y tomar d0 = J 0 (u0 ).


Dados n 0, un V y dn V :

2. Calcular n R tal que J(un n dn ) = nf J(un dn ) y tomar un+1 = un n dn .


R

3. Calcular J 0 (un+1 ) V . Si kJ 0 (un+1 )k < parar el algoritmo y tomar u ' un+1 . Si kJ 0 (un+1 )k
pasar al punto siguiente.

4. Calcular
(J 0 (un+1 ) J 0 (un ), J 0 (un+1 ))
dn+1 = J 0 (un+1 ) + dn .
kJ 0 (un )k2
Hacer n = n + 1 y volver a 2.

Veremos que el algoritmo (AGCPR) es un caso particular de algoritmo del gradiente conjugado
generico. Respecto de la convergencia del algoritmo, se tiene:

Teorema 2.12. Supongamos que J : V R es un funcional elptico en V , con constante > 0, y


J C 2 (V ). Supongamos adem as que J 0 : V V es globalmente Lipschitziana en los acotados de
V , es decir, para cualquier M > 0 existe LM 0 tal que

kJ 0 (v) J 0 (w)k LM kv wk, v, w B(0; M ).

Entonces, el algoritmo (AGCPR) es globalmente convergente: para cualquier u0 V , la sucesi on


{un }n0 dada por el (AGCPR) est a bien definida y un u en V , siendo u V la unica soluci
on
del problema de mnimos (2.6). De nuevo, tambien se tiene la estimaci
on de error (2.11).

Prueba: Vamos a obtener la prueba como consecuencia del Teorema 2.11. Observese que basta
comprobar que la direccion de descenso dn satisface la condicion de Polak (2.16).
En primer lugar, si dn1 6= 0, es f
acil comprobar que un V esta bien definido y satisface

J 0 (un ), dn1 = 0.

(2.18)

Si J 0 (un ) = 0, entonces u = un , siendo u el u


nico mnimo de J en V . Tenemos de este modo la
convergencia del algoritmo (AGCPR). Supondremos por tanto que J 0 (un ) 6= 0 y comprobaremos
en este caso la condici on de Polak.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
44 2.3. M
etodos del gradiente conjugado para problemas sin restricciones

Se tiene que dn = J 0 (un ) + n dn1 , con n dado por

(J 0 (un ) J 0 (un1 ), J 0 (un ))


n = .
kJ 0 (un1 )k2

Utilizando (2.18), es evidente que dn 6= 0. Esto asegura que el algoritmo esta bien definido y que
la sucesion generada {un }n0 V esta acotada (ver etapas 1 y 2 de la prueba del Teorema 2.11),
i.e., existe M > 0 tal que
kun k M, n 0.
on inferior de (J 0 (un ), dn ). Supongamos que hemos demostrado la
Comprobemos ya la acotaci
acotacion:

(2.19) |n |kdn1 k C0 kJ 0 (un )k,

para C0 > 0 una constante. Entonces

kdn k kJ 0 (un )k + |n |kdn1 k (C0 + 1)kJ 0 (un )k

y, usando (2.18), tambien obtenemos


1
J 0 (un ), dn = kJ 0 (un )k2 kJ 0 (un )kkdn k,

C0 + 1
es decir, conseguimos (2.16) para = 1/(C0 + 1) > 0. Tendramos as la prueba del resultado.
Centremonos en la prueba de (2.19). Probaremos esta desigualdad en dos etapas:
Etapa 1: En esta etapa obtendremos una expresion distinta de n . Si introducimos la funci on f :
[0, 1] V dada por f (t) = J 0 (un1 tn1 dn1 ), entonces es facil comprobar que f C 1 ([0, 1]; V ),
con f 0 (t) = n1 J 00 (un1 tn1 dn1 )(dn1 ) y que se tiene la igualdad
Z 1
J 0 (u ) J 0 (u J 00 (un1 tn1 dn1 )(dn1 ) dt =
n n1 ) = f (0) f (1) = n1
(2.20) 0
00
= n1 Jn1 dn1 ,
00
donde Jn1 L(V, V ) est
a dado por
Z 1
00
Jn1 = J 00 (un1 tn1 dn1 ) dt.
0

Multiplicando la igualdad anterior por dn1 y teniendo en cuenta (2.18), deducimos

(J 0 (un1 ), dn1 ) kJ 0 (un1 )k2


n1 = 00 d
 = 00 d
.
Jn1 n1 , dn1 Jn1 n1 , dn1

Esta u
ltima igualdad, la igualdad (2.20) y la expresion de n , proporciona
00 d 0

Jn1 n1 , J (un )
n = 00 d
 .
Jn1 n1 , dn1

Etapa 2: Acotaci on de n . Supongamos que hemos probado la existencia de una constante C > 0
00
tal que kJn1 kL(V,V ) C. Entonces, podemos acotar el numerador de n del siguiente modo:
00
Jn1 dn1 , J 0 (un ) Ckdn1 kkJ 0 (un )k.


Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 2. M
etodos de Tipo Gradiente Para Problemas sin Restricciones 45

Por otro lado


Z 1
00
J 00 (un1 tn1 dn1 )dn1 , dn1 dt kdn1 k2 .
 
Jn1 dn1 , dn1 =
0

En esta u
ltima desigualdad hemos tenido en cuenta el caracter elptico del funcional J en V y, en
concreto, la Proposici
on 2.5. Se tiene as la prueba de la desigualdad (2.19), para C0 = C/, y del
teorema.
Etapa 3: Finalicemos la prueba mostrando la acotacion de Jn1 00 en L(V, V ). Para ello probaremos
que J esta uniformente acotada (respecto de la norma de L(V, V )) en los acotados de V . Observese
00

que esto es suficiente pues sabemos que la sucesion un satisface {un }n0 B(0; M ) y, as, para
todo t [0, T ] se tiene un1 tn1 dn1 [un1 , un ] B(0; M ).
Sea R > 0 y fijemos v B(0; R) y w V tal que kwk 1. Entonces, si || 1,
1
kJ 00 (v)wk = lm kJ 0 (v + w) J 0 (v)k LR+1 kwk,
0

donde LR+1 es la constante de Lipschitz de J 0 en B(0; R + 1). Tomando supremo cuando kwk 1
obtenemos el resultado. Esto finaliza la prueba.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
46 2.3. M
etodos del gradiente conjugado para problemas sin restricciones

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Captulo 3

M
etodos Para Problemas de
Optimizaci
on con Restricciones

En este captulo vamos a interesarnos por los llamados problemas de optimizacion con restriccio-
nes. De manera general estos problemas pueden ser formulados del siguiente modo: Consideramos
un espacio de Hilbert V , un subconjunto U V y un funcional J : U R. Con estos datos,
planteamos el problema:
(
Minimizar J(v)
(3.1)
Sujeto a v U.

En los captulos precedentes hemos estudiado el problema de existencia y unicidad de soluci on


del problema de mnimo con restricciones (3.1). En este captulo nos interesaremos por proporcionar
metodos numericos que aproximen la/las soluciones del problema (3.1).

3.1. M
etodo del Gradiente con Proyecci
on
Empezamos esta secci
on recordando el Teorema de la Proyeccion en espacios de Hilbert:

Teorema 3.1. (Teorema de la Proyecci on) Sean V un espacio de Hilbert y U V un subcon-


junto cerrado, convexo y no vaco de V . Entonces, dado w V , existe un u
nico elemento P w V
tal que
P w U y kw P wk = nf kw vk.
vU

as, el elemento P w satisface: P w U y


Adem

(P w w, v P w) 0, v U.

Recprocamente, si u satisface

uU y (u w, v u) 0, v U,

entonces, u = P w.

Para una prueba de este resultado, vease por ejemplo [3].

47
48 3.1. M
etodo del Gradiente con Proyecci
on

Mediante el anterior resultado, tenemos la existencia de una aplicacion (operador de proyecci


on)
definido del siguiente modo:
w V 7 P w U,
con P w U la u on del problema kw P wk = nf vU kw vk. Es posible probar que el
nica soluci
operador P satisface la propiedad ([3]):

kP w1 P w2 k kw1 w2 k, w1 , w2 V.

Ademas, en general, P es un operador no lineal. Cuando U es un subespacio vectorial de V , entonces


P es lineal y P w est
a caracterizado por

Pw U y P w w U .

Consideraremos el problema (3.1) en el caso en el que V es un espacio de Hilbert, V es


un abierto, U es un subconjunto cerrado, convexo y no vaco, y J : R es un funcional.
Recordemos que, gracias al Teorema 1.35, se tiene que si J es un funcional convexo en U y J es
G-derivable en , entonces, u es solucion del problema de mnimos (3.1) si y solo si

uU y J 0 (u), v u 0, v U.


Es facil comprobar que esta u


ltima condicion equivale a

uU y u u J 0 (u) , v u 0, v U, con > 0.


  

Gracias al Teorema de la Proyecci


on, la condicion anterior equivale a

u = P u J 0 (u) ,


con > 0.
Del razonamiento anterior deducimos que la b usqueda de un mnimo de J en el convexo cerrado
no vaco U equivale a la b
usqueda de un punto fijo de la aplicacion

g : v U 7 g(v) = P v J 0 (v) U,


siendo P el operador de proyeccion asociado a U. Es natural definir como metodo de aproximaci on


de la soluci
on u del problema de mnimos (3.1) el metodo de las aproximaciones sucesivas aplicado
al operador g. En particular este metodo construye la sucesion aproximante de la forma:

u0 U dado, un+1 = g(un ) = P un J 0 (un ) U, n 0.




Evidentemente, si U V , entonces P Id y el algoritmo anterior es simplemente el (AGPF)


aplicado a un problema de mnimos sin restricciones. Es posible generalizar el anterior algoritmo
tomando pasos n variables. De esta forma obtenemos el algoritmo del gradiente con proyecci on y
paso variable (AGPPV): Dada la sucesion {n }n0

1. Elegir u0 U.
Dados n 0 y un U:

2. Calcular J 0 (un ) V .

3. Tomar un+1 = P (un n J 0 (un )) U, hacer n = n + 1 y volver a 2.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 49

Respecto a la convergencia del algoritmo, se tiene:

Teorema 3.2. Sea V un espacio de Hilbert, V un abierto y U un convexo cerrado no


vaco. Supongamos que J : R es un funcional F-derivable en con derivada continua y elptico
en U, con constante > 0. Supongamos adem as que J 0 : V es globalmente Lipschitziana en
U, es decir, existe L 0 tal que

kJ 0 (v) J 0 (w)k Lkv wk, v, w U.

Supongamos adem
as que existen a, b > 0 tales que
2
0 < a n b < , n 0.
L2
Entonces, el algoritmo (AGPPV) es globalmente convergente con convergencia geometrica, es decir,
existe = (, L, a, b) [0, 1) tal que, para cualquier u0 U, se tiene:

kun uk n ku0 uk, n 0,

siendo u V la u
nica soluci
on del problema de mnimos (3.1).

Prueba: Bajo las condiciones del enunciado, podemos aplicar el Teorema 2.3 y deducir la existencia
de un unico mnimo u U de J en U. Ademas este mnimo u esta caracterizado por la inecuaci
on
variacional
J 0 (u), v u 0, v U,


es decir, u = P (u n J 0 (u)).
De esta ultima igualdad y de las propiedades de P obtenemos:

kun+1 uk2 = kP un n J 0 (un ) P u n J 0 (u) k2


 


kun u n J 0 (un ) J 0 (u) k2


2 2 0 0 2 0 0



ku n uk + n kJ (un ) J (u)k 2n J (un ) J (u), un u
kun uk2 + L2 2n kun uk2 2n kun uk2 Q(n )kun uk2 ,

siendo Q el polinomio dado por Q() = L2 2 2+1. Ahora es facil terminar la prueba razonando
como en la prueba del Teorema 2.7.

Observaci on 3.1. En el caso de un funcional cuadratico elptico en RN , es decir, cuando el


funcional J est
a dado por:
1
J(x) = (Ax, x) (b, x), x RN ,
2
(A L(RN ) es una matriz simetrica y definida positiva y b RN ), es posible demostrar un
resultado analogo al probado en el caso del problema de mnimos sin restricciones (Captulo 2): El
Teorema 3.2 sigue siendo valido para el funcional J si se tiene:
 
2
{n }n0 [a, b] 0, ,
N

donde N es el mayor autovalor de la matriz A. Recordemos que el intervalo que proporciona el


enunciado del Teorema 3.2 es (0, 21 /2N ), donde 1 es el menor de los autovalores de A.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
50 3.2. M
etodos de Penalizaci
on

Los metodos del gradiente con proyeccion proporcionan, en teora, metodos que aproximan la
solucion de un problema de optimizacion convexa. Sin embargo, no nos podemos dejar enga nar por
el Teorema 3.2: en general, es imposible aplicar el metodo pues es imposible conocer explcitamente
on P asociado a un convexo cerrado no vaco U.
el operador de proyecci
Veamos a continuacion un ejemplo sencillo donde s es posible aplicar el (AGPPV):

Ejemplo 3.1. Consideremos V = RN y U dado por


N
Y
U= [ai , bi ],
i=1

donde ai , bi son tales que ai < bi con i : 1 i N (en el caso ai = o bi = hay


que tomar el correspondiente extremo abierto). No es difcil comprobar que U RN es un convexo
cerrado no vaco y que el operador de proyeccion P esta dado por (1 i N ):

ai si xi < ai ,
(P x)i = mn {m
ax {xi , ai } , bi } = wi si ai xi bi ,
bi si bi < xi .

En el caso particular U = RN + = {x R
N : x 0, 1 i N }, el operador est
i a dado por
(P x)i = m N
ax{0, xi }, con x R e i : 1 i N .
Consideramos ahora el problema (3.1) para U = RN atico y elptico en RN :
+ y un funcional cuadr

1
J(x) = (Ax, x) (b, x) ,
2

(A es una matriz simetrica y definida positiva y b RN ). En este caso, el (AGPPV) calcula el


punto xn+1 = (xn+1
i )1iN U a partir de xn = (xni )1iN mediante las relaciones:

xn+1
i ax {xni n (Axn b)i , 0} ,
= m i : 1 i N.

Ademas, la sucesi nico mnimo del funcional J en U.


on as generada converge hacia u el u

3.2. M
etodos de Penalizaci
on
En esta secci
on vamos a analizar los llamados metodos de penalizaci
on. Estos metodos consisten,
grosso modo, en la sustituci
on del problema de mnimos con restricciones (3.1) por otro problema
sin restricciones donde se ha a
nadido una funcion (la funcion de penalizacion) que fuerza a que
el mnimo del problema sin restricciones se alcance cercadel conjunto U y que, en el lmite, se
acerque al mnimo del problema con restricciones.
Comencemos definiendo el concepto de funci
on de penalizaci
on:

on 3.3. Sea U V un subconjunto convexo cerrado no vaco. Se dice que : V R es


Definici
una funci on para el conjunto U si satisface las propiedades:
on de penalizaci
(
(v) 0, v V
olo si v U.
(v) = 0 si y s

Con esta definici


on estamos en condiciones de probar:

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 51

Teorema 3.4. Sean V un espacio de Hilbert, U V un subconjunto convexo cerrado no vaco


y J : V R un funcional elptico en V con constante de elipticidad > 0. Supongamos que
: V R es una funci on para U tal que es convexa y continua en V . Entonces,
on de penalizaci
para cada > 0, el problema de mnimos sin restricciones

Minimizar J (v) = J(v) + 1 (v)


Sujeto a v V,

admite una u nica soluci as se tiene, lm0 u = u en V , siendo u U la u


on u V . Adem nica
soluci
on del problema de mnimos (3.1).

Prueba: Bajo las hip otesis del enunciado, tenemos que el problema (3.1) admite una u nica
solucion u U (ver Teorema 2.3). Por otro lado, el funcional J es tambien un funcional elptico
en V con constante de elipticidad > 0. Efectivamente, J es un funcional continuo y, para
cualesquiera w, v V y [0, 1], se tiene

1


J ((1 )w + v) = J((1 )w + v) + ((1 )w + v)



1 (1 )

(1 )J(w) + J(v) + (w) + (v) kw vk2

2
(1 )


= (1 )J (w) + J (v) kw vk2 .


2
Aplicando de nuevo el Teorema 2.3 obtenemos que existe un u nico u V tal que J (u ) =
nf vV J (v).
Observese que tanto J como J son funcionales elpticos en V . En particular, J y J son
funcionales continuos, estrictamente convexos y coercitivos en V (Proposicion 2.2). As, J y J
son tambien funcionales debilmente secuencialmente semicontinuos inferiormente en V . A le
podemos aplicar el mismo razonamiento: es continuo y convexo en V , por tanto, es d.s.c.i. en
V . Utilizaremos estas propiedades m
as adelante.
Se tiene,
1
(3.2) J(u ) J(u ) + (u ) J (u ) J (u) = J(u),

on {u }>0 esta acotada en V (J es un funcional coercitivo en V ).
lo que proporciona que la sucesi
Como V es reflexivo, existe una subsucesion {u0 }0 >0 y un elemento u0 V tal que

u0 * u0 debil en V.

Veamos que u0 U. Efectivamente, de (3.2), J0 (u0 ) J0 (u) = J(u), es decir,


 
0 0
0 (u0 ) (J(u) J(u0 )) J(u) mn J(v) ,
vV

de donde l0m (u0 ) = 0. Como es d.s.c.i. en V , entonces,


0

0 (u0 ) lm
0
inf (u0 ) = 0,
0

es decir, (u0 ) = 0, lo que equivale a u0 U.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
52 3.2. M
etodos de Penalizaci
on

Utilizando de nuevo (3.2) y la s.c.i. debil de J en V , colegimos


u0 U y J(u0 ) lm
0
inf J(u0 ) J(u),
0

de donde concluimos que u0 u y lm


0
inf J(u0 ) = J(u). Tomando lm sup en (3.2), se tiene
0 0 0

lm sup J(u0 ) J(u) = lm


0
inf J(u0 ),
0 0 0

es decir, existe l0m J(u0 ) = J(u). Tomando de nuevo l0m en (3.2), deducimos tambien que existe
0 0
el lmite y l0m J0 (u0 ) = J(u).
0
Para finalizar, probemos que u0 u en V . Efectivamente, como J es un funcional elptico en
V , podemos utilizar la desigualdad (2.1) con = 1/2, y escribir,
 
2 1 1
ku0 uk (J0 (u0 ) + J0 (u)) J0 (u0 + u)


8 2 2
1 1

(J0 (u) J0 (u0 )) (J(u) J0 (u0 )) .
2 2
Sin mas que tomar lmite deducimos el resultado.
La unicidad de soluci
on del problema (3.1) permite demostrar que, en realidad, es toda la familia
{u }>0 la que converge hacia el elemento u. Esto finaliza la prueba.
Observaci on 3.2. Observese que el problema penalizado tiene muy buenas propiedades: Si J
es elptico en V , hemos visto que J tambien lo es. Ademas, si J y son F-derivables en V ,
tambien lo es J . De este modo, podemos aplicar al problema penalizado (que es un problema sin
restricciones) los algoritmos del gradiente o del gradiente conjugado vistos en el tema anterior y
construir sucesiones que aproximen la solucion u . Eligiendo suficientemente peque
no, tendramos
tambien una aproximaci on de la solucion u del problema (3.1).
Como en el caso del metodo del gradiente con proyeccion, la dificultad en la aplicaci on de
on radica en la construccion de . De manera general, dado U V un
los metodos de penalizaci
subconjunto convexo cerrado no vaco, no es facil construir una funcion de penalizacion asociada
al conjunto U. Veamos un ejemplo sencillo donde es posible construir una funcion de penalizaci on:
Ejemplo 3.2. Como ejemplo, consideremos un conjunto de restricciones que viene de un problema
de programaci on convexa en RN : Supongamos dadas las funciones continuas i : RN R, con
i : 1 i m. Supongamos tambien que i son convexas en RN para todo i : 1 i m. Con estos
datos, consideremos el conjunto U dado por
U = {x RN : i (x) 0, i : 1 i m}.
Supondremos que U 6= . Entonces, es facil comprobar que la funcion dada por
m
X
(x) = max{i (x), 0}
i=1

es una funci on para el conjunto U.


on de penalizaci
Observaci on 3.3. El ejemplo anterior tambien muestra que la aplicacion real de los metodos
de penalizaci
on es limitada: aunque en este caso es posible construir una funcion de penalizaci on
asociada a U, esta, en general, no es derivable lo que hace que no sea posible aplicar los metodos
de optimizaci
on desarrollados en el captulo anterior.
Pasemos a continuaci
on a desarrollar otro tipo de metodos para el problema con restriccio-
nes (3.1).

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 53

3.3. M
etodos de dualidad. M
etodo de Uzawa
En esta seccion consideraremos un problema general de programacion no lineal. Se trata de
nuevo del problema de optimizacion con restricciones (3.1) en el caso particular en el que el conjunto
de restricciones ser
a dado por

(3.3) U = {v : i (v) 0, 1 i m},

donde m 1 es un entero, es un subconjunto abierto de un espacio de Hilbert V y i son


funcionales definidos en , es decir, i : R, con i : 1 i m.
El problema en consideraci
on es un problema de mnimos con restricciones de desigualdad. Para
tratarlo, vamos, en primer lugar, a generalizar el Teorema de los multiplicadores de Lagrange (que,
recordemos, trata el problema de minimizacion con restricciones de igualdad) al caso en el que U
esta dado mediante m restricciones de desigualdad.

3.3.1. Relaciones de Kuhn-Tucker


Supondremos que U est a dado por (3.3) ( V es un abierto) y que i : R son funciones
continuas en , para cualquer i : 1 i m. Dado v U, introducimos el denominado conjunto de
restricciones efectivas en v:

I(v) = {i : 1 i m y i (v) = 0}.

Con esta notaci


on y siguiendo [4], definimos:

Definicion 3.5. Se dice que las restricciones i son cualificadas en v U si, para todo i I(v),
e V tal que
se tiene que i es F-derivable en v y, o bien, i son afines, o bien, existe w
)
(0i (v), w)
e 0,
0
i I(v).
(i (v), w)
e < 0 si i no es afn

No vamos a entrar en el significado geometrico de la condicion de cualificacion de las restricciones


en un punto v U, pero en cualquier caso, esta condicion no se da en ciertos casos:

Ejemplo 3.3. Consideremos el caso V = = R2 , m = 2 y 1 y 2 dadas por

1 (x1 , x2 ) = (x1 + x2 ) y 2 (x1 , x2 ) = x1 (x21 + x22 ) 2(x21 x22 ), (x1 , x2 ) R2 .

Tomando v = 0, tenemos que I(v) = {1, 2} y es facil comprobar que las restricciones no son
cualificadas en este punto (en concreto, 2 no satisface la definicion anterior).

Observaci on 3.4. Gracias a la hip otesis de continuidad que estamos imponiendo sobre las res-
tricciones i , se tiene que v int U si y solo si I(v) = . En este caso se tiene la condicion de
cualificacion de las restricciones en el punto v.
Por otro lado, si los funcionales i son afines para cualquier i con 1 i m, entonces tambien
se tiene la condici on sobre las restricciones en cualquier punto v U.
on de cualificaci

Estamos en condiciones de enunciar uno de los resultados mas importantes en Optimizacion: las
relaciones de Kuhn-Tucker. Estas proporcionan una condicion necesaria de mnimo en Programacion
no lineal:

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
54 3.3. M
etodos de dualidad. M
etodo de Uzawa

Teorema 3.6 (Kuhn-Tucker). Sean V un espacio de Hilbert, V un abierto, J, i : R,


con 1 i m, m + 1-funcionales continuos en y u U, con U dado por (3.3). Supongamos que
J y i son F-derivables en u, para cualquier i I(u), y que las restricciones son cualificadas en el
punto u. Entonces, si u es un mnimo local de J respecto del conjunto U, existen n umeros reales
i (u), con i I(u), tales que
X
(3.4) J 0 (u) + i (u)0i (u) = 0 en V 0 , con i (u) 0, i I(u).
iI(u)

La prueba de este resultado usa de manera esencial el denominado Lema de Farkas-Mirkonski.


No vamos a presentar la prueba de estos resultados en este curso, pero esta puede ser consultada,
por ejemplo, en [4] y [1].
Las relaciones (3.4) son llamadas relaciones de Kuhn-Tucker. Juegan el mismo papel que los
multiplicadores de Lagrange en el caso de problemas de mnimos con restricciones de igualdad.
Teniendo en cuenta las desigualdades i (u) 0, validas para i : 1 i m pues u U, las
relaciones (3.4) se pueden reescribir de manera equivalente como
m
X
0
i (u)0i (u) = 0 en V 0 ,



J (u) +

i=1
(3.5) m
X
i (u) 0, i : 1 i m, i (u)i (u) = 0.



i=1

Por analoga con el Teorema de los multiplicadores de Lagrange, el vector (u) dado por (u) =
(i (u))1im Rm + es denominado multiplicador de Lagrange generalizado asociado al m nimo
relativo u de J en U dado por (3.3).

Observaci
on 3.5. 1. Los multiplicadores i (u) que aparecen en (3.5) no estan determinados
nica, salvo que el conjunto {0i (u) : 1 i m} V sea un conjunto linealmente
de manera u
independiente.

2. Si I(u) = , entonces u int U. Evidentemente, en este caso, (3.5) equivale a la condici on


J 0 (u) = 0 en V y i (u) = 0 para todo i : 1 i m, es decir, equivale a la necesaria cl
asica
de mnimo en un abierto J 0 (u) = 0 en V 0 (ver Teorema 1.34).

En general, el Teorema 3.6 es de difcil aplicacion en la practica. En primer lugar, es difcil


comprobar si en el mnimo u (que, evidentemente, es desconocido) las restricciones son cualificadas.
En segundo lugar, las propias relaciones (3.5) son difciles de tratar debido a las desigualdades que
contienen. En tercer lugar, las relaciones (3.5) son solo necesarias y, en general, proporcionan puntos
que no corresponden a mnimos locales del funcional J relativos a U. Veremos que en el caso de
un problema de programaci on convexa el Teorema 3.6 puede ser reescrito de manera mas sencilla.
Tambien veremos que las relaciones (3.5) proporcionan tambien una condicion suficiente para la
obtencion de un mnimo (global) de J relativo a U.
Supongamos que V es un abierto convexo y que los funcionales i son convexos en para
todo i : 1 i m (de donde deducimos que U es tambien convexo). Comenzamos simplificando
el concepto de cualificaci
on de las restricciones (que ahora es independiente del punto):

Definicion 3.7. Se dice que las restricciones i : R, con 1 i N , son cualificadas si existe
ve U que satisface i (e
v ) < 0 para aquellas restricciones i que no son afines.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 55

on se reduce a pedir U 6= en el caso en el que todas las restricciones


Observese que esta definici
i sean afines. En el caso general estamos exigiendo una condicion algo mas fuerte que la condici on
U 6= .
En estas condiciones se tiene:
Teorema 3.8 (Condici on necesaria y suficiente de mnimo en programaci on convexa).
Sean V un espacio de Hilbert, V un abierto convexo, J, i : R, con 1 i m, m + 1-
funcionales continuos en tales que i son convexos en para cualesquiera i : 1 i m, y u U,
con U dado por (3.3). Supongamos que J y i son F-derivables en u, para cualquier i : 1 i m.
Entonces,
1. Si u es un mnimo local del funcional J respecto del conjunto U (dado por (3.3)) y si las
on 3.7), entonces existen i (u) R,
restricciones son cualificadas (en el sentido de la Definici
con 1 i m, tales que se tienen las relaciones de Kuhn-Tucker (3.5).
2. De manera recproca, si J es convexo en y se tienen las relaciones de Kuhn-Tucker en el
punto u U, entonces J tiene en el punto u un mnimo global respecto del conjunto U.
Prueba:
1. Para la prueba de este punto basta con comprobar que las restricciones son cualificadas en u U
y aplicar el Teorema 3.6. Efectivamente, consideremos ve U proporcionado por la Definicion 3.7.
Si u 6= ve, tomamos w e = ve u. Utilizando el caracter convexo de los funcionales i , se tiene que
para i I(u),

0
 0
 0,
e = i (u) + i (u), ve u i (e
i (u), w v)
< 0 si i no es afn,
es decir, las restricciones son cualificadas en u.
Por otro lado, si u = ve, entonces I(u) solo contiene ndices i para los que i es afn. As,
deducimos tambien que las restricciones son cualificadas en u. En ambos casos podemos aplicar el
Teorema 3.6 y deducir el primer punto.
2. Sea v U (que es un conjunto convexo). Gracias a la convexidad de los datos y a las relaciones
de Kuhn-Tucker (3.5) satisfechas por u, podemos escribir:

Xm m
X
i (i (v) i (u))



J(u) J(u)
i i (v) = J(u)

i=1 i=1
m
X
i 0i (u), v u = J(u) + J 0 (u), v u J(v).
 
J(u)




i=1

Deducimos que u es un mnimo global de J en U. Esto finaliza la prueba del resultado.


Ejercicio 3.1. Sean A L(RN ) una matriz simetrica definida positiva, B L(RN ; Rm ), con
m N , una matriz tal que rango B = m, b RN y c Rm . Consideramos el problema de mnimo
 
1
mn (Ax, x)RN (b, x)RN .
xRN , Bxc 2

Compruebese que es posible aplicar los Teoremas 3.6 y 3.8 y deducir que el problema de mnimo
tiene una u nica soluci b RN . Adem
on x b RN es solucion del anterior problema de mnimo si
as, x
m
y solo si existe p R tal que x
b satisface

x b + B p = 0,
Ab p 0, x c)Rm = 0.
(p, Bb

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
56 3.3. M
etodos de dualidad. M
etodo de Uzawa

Observacion 3.6. Como aplicaci on del teorema anterior obtenemos lo siguiente: supongamos
que los datos del problema (3.1) son convexos y que conocemos el multiplicador (u) Rm +.
Introduzcamos el funcional
m
X
Ju : v RN 7 Ju (v) = J(v) + i (u)i (v).
i=1

As, si se satisfacen las condiciones del Teorema 3.8 2, se tiene la siguiente cadena de equivalencias:

on de (3.1) (U dado por (3.3)) (3.5) J0u (u) = 0 Ju (u) = nf Ju (v).


u es soluci
vV

Como conclusi on, conocido el multiplicador de Lagrange i (u) (1 i m) asociado al problema


de mnimos con restricciones (3.1) (con U dado por (3.3)), hemos reformulado este de manera
equivalente como un problema de mnimos sin restricciones para el funcional Ju (v). Nuestro objetivo
sera, por tanto, el c
alculo del multiplicador (u) para luego calcular u resolviendo el correspondiente
problema sin restricciones para el funcional Ju (v).

3.3.2. Lagrangianos y puntos de silla. Introducci


on a la dualidad
En esta subseccion daremos una breve introduccion a la teora de la dualidad para los problemas
de optimizacion. Despues aplicaremos esta teora al problema de programacion convexa (3.1).
Supongamos que V y Q son dos espacios vectoriales y L : U M R (el lagrangiano) es un
funcional definido en un subconjunto U M de V Q. Entonces
on 3.9. Se dice que (u, ) U M es un punto de silla de L en U M si se tiene
Definici

(3.6) L(u, ) L(u, ) L(v, ), (v, ) U M.

Para cada v U y M , introducimos los funcionales

J : v U 7 J(v) = sup L(v, ) (, ],



M
(3.7)
G : M 7 G() = nf L(v, ) [, ).
vU

Podemos de este modo introducir el llamado problema primal asociado al lagrangiano L

nf J(v)
vU

y el llamado problema dual


sup G().
M

Utilizaremos los problemas primal y dual para determinar cada una de las componentes de
los puntos de silla del lagrangiano L. De hecho, veremos que estos dos problemas determinan
unvocamente los puntos de silla de L. Se tiene:
Proposicion 3.10. En las condiciones anteriores, el punto (u, ) U M es un punto de silla
de L en U M si y s
olo si

(3.8) J(u) = mn J(v) = L(u, ) = max G() = G(),


vU M

con G y J dados por (3.7).

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 57

Prueba: Supongamos que (u, ) es un punto de silla de L en U M . Utilizando la desigualdad


izquierda de (3.6) deducimos:

L(u, ) J(u) = sup L(u, ) L(u, ),


M

es decir, J(u) = L(u, ). Utilizando ahora la desigualdad derecha de (3.6), tenemos

J(v) = sup L(v, ) L(v, ) L(u, ) = J(u),


M

es decir, J(u) = mnvU J(v). Un razonamiento analogo permite probar la igualdad contraria.
Veamos el recproco. Por un lado, de la definicion de J(u) tenemos

L(u, ) J(u), M.

on de G y de (3.8), tambien se tiene


Por otro lado, de la definici

J(u) = G() L(u, ).

Combinando ambas desigualdades deducimos la desigualdad izquierda de (3.6). Un razonamiento


analogo permite completar la prueba.
Observaci on 3.7. De la igualdad (3.8) deducimos que si L admite un punto de silla (u, ) en
U M , entonces se tiene
nf sup L(v, ) = sup nf L(v, ).
vU M M vU

No es difcil comprobar que la desigualdad

sup nf L(v, ) nf sup L(v, ),


M vU vU M

es valida independientemente de la existencia del punto de silla. Efectivamente, si (e e) U M ,


v,
entonces,
nf L(v,
e) L(e e) sup L(e
v, v , ).
vU M

De esta desigualdad se deduce directamente la desigualdad buscada.

Volvemos en este punto al problema de programacion no lineal formulado al inicio de la Sec-


cion 3.3. Por comodidad supondremos que se tiene V y, as,

(3.9) U = {v V : i (v) 0, 1 i m},

donde m 1 es un entero, V es un espacio de Hilbert y i : V R, con i : 1 i m, son m-


funcionales. Supongamos tambien que J : V R es un funcional dado y planteemos el problema
de mnimos (3.1) para U dado por (3.9).
Vamos en primer lugar a relacionar la existencia de mnimo para el funcional J en U con
la existencia de punto de silla para el llamado Lagrangiano asociado al problema (3.1) (U dado
por (3.9)): Definimos (U V y M Rm + ):
m
X
(3.10) L : (v, ) V Rm
+ L(v, ) = J(v) + i i (v) R.
i=1

Se tiene:

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
58 3.3. M
etodos de dualidad. M
etodo de Uzawa

Teorema 3.11. En las condiciones anteriores, se tiene:

1. Si (u, ) V Rm+ es un punto de silla del Lagrangiano L en V R+ , entonces, u U y es


m

una solucion del problema de mnimo (3.1) para U (dado por (3.9)).

2. Supongamos que J y i , con 1 i m, son convexas en V y F-derivables en u U.


Supongamos adem as que las restricciones i son cualificadas en el sentido de la Definici
on 3.7.
on de (3.1) (con U dado por (3.9)), existe R+ tal que (u, ) es
Entonces, si u es soluci m

un punto de silla para el lagrangiano L en V Rm +.

Prueba: 1. Al ser (u, ) V Rm+ un punto de silla del Lagrangiano L en V R+ , se satisface la


m
m
desigualdad (3.6) en V R+ . La desigualdad de la izquierda equivale a
m
X
(i i ) i (u) 0, Rm
+.
i=1

Tomando en esta desigualdad, alternativamente, 0 y = 2 se tiene


m
X
i i (u) = 0.
i=1

Por otro lado, tomando = + i ei tambien se tiene i (u) 0, para cualquier i : 1 i m, es


decir, u U.
Sea v U. Utilizando las propiedades anteriores y la desigualdad derecha de (3.6), obtenemos

J(u) = L(u, ) L(v, ) J(v),

es decir, u U es soluci
on del problema de mnimo (3.1). Se tiene de este modo la prueba del
primer punto.
2. Estamos en condiciones de aplicar el Teorema 3.8 1, deduciendo la existencia de Rm
+ tal
m
que se satisfacen las relaciones de Kuhn-Tucker (3.5). As, si R+ ,
m
X
L(u, ) = J(u) + i i (u) J(u) = L(u, ), Rm
+.
i=1

Por otro lado, de (3.5) deducimos que la funcion convexa en V L(, ) tiene un mnimo global
en el punto u. De aqu, L(u, ) L(v, ), para cualquier v V . Uniendo las dos desigualdades
obtenemos que (u, ) es un punto de silla de L en V Rm
+ . Esto termina la prueba del resultado.

Observaci on 3.8. El resultado anterior establece una clara relacion entre las soluciones u del
problema de mnimo con restricciones (3.1) (con U dado por (3.9)) y los puntos de silla del Lagran-
giano L dado por (3.10). Observese que la segunda componente Rm + del punto de silla es el
correspondiente multiplicador de Lagrange asociado a u. Como comentamos en la Observaci on 3.5,
este multiplicador no esta determinado de manera u nica, incluso si el problema de mnimo (3.1)
admite una u on u U.
nica soluci

3.3.3. M
etodo de Uzawa para un funcional elptico
El Teorema 3.11 muestra una estrategia para el calculo de la solucion del problema de mni-
mos (3.1) planteado en U (U dado por (3.9)). Esta estrategia utiliza tambien la Proposicion 3.10,

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 59

proposicion que permite calcular las componentes del punto de silla mediante los problemas primal
y dual
nf J(v) y sup G(),
vU M

con J y G dadas por (3.7), y U = V y M = Rm


+ . As
, podemos resolver el problema dual

(3.11) sup G(),


Rm
+

lo que proporciona Rm+ , y despues calcular la primera componente (y solucion del problema de
programacion) del punto de silla utilizando la desigualdad derecha de (3.6):

uV y L(u, ) L(v, ), v V,

con L, dado por (3.10), el lagrangiano asociado a J. Observese que este u ltimo problema es un
problema de mnimos sin restricciones.
Observese que el problema dual es un problema con restricciones planteado en Rm (espacio
de dimension finita). El conjunto de restricciones (Rm+ ) es un conjunto convexo cerrado no vac
o.
Ademas, conocemos el operador de proyeccion asociado (ver Ejemplo (3.1)). Esto permite utilizar
el algoritmo del gradiente con proyeccion si el funcional G fuese F-derivable en Rm
+ . Veremos que,
bajo ciertas condiciones sobre los datos, esto es posible.
Supondremos:
Hipotesis (H): Supongamos que V es un espacio de Hilbert, J, i : V R son (m+1)-funcionales
continuos en V (m 1). Supongamos ademas que los funcionales i son convexos en V (para todo
i : 1 i m) y que J es elptico en V (con constante de elipticidad > 0). Finalmente,
supongamos que J es F-derivable en V y que las restricciones son cualificadas (en el sentido de la
Definicion 3.7.
Es facil comprobar que bajo las hipotesis (H), el problema de mnimo (3.1) (con U dado por (3.9))
admite una u on u U. Supongamos por un momento que las restricciones i (1 i m)
nica soluci
son tambien F-derivables en V . Podemos aplicar el Teorema 3.11, deduciendo que u tiene asociada
al menos un Rm + tal que (u, ) es un punto de silla del lagrangiano L en V R+ , L dado
m

por (3.10), es decir,


L(v, ) = J(v) + (v), (v, ) V Rm +,

y (v) = (i (v))1im Rm (mediante x y estamos denotando el producto escalar eucldeo entre


los vectores x, y Rm ). Aplicando la Proposicion 3.10 tenemos que u esta caracterizada por ser la
(
unica) solucion del problema primal (problema de mnimos sin restricciones) y por ser solucion
m
del problema dual (problema con restricciones planteado en R+ ).
De manera generica, un metodo de dualidad es un metodo numerico aplicado al problema dual
asociado al lagrangiano. Como dijimos antes, estudiaremos el metodo de Uzawa que no es mas que
el Algoritmo del Gradiente con Proyecci on y Paso Fijo aplicado al problema dual (3.11)
Veamos que, al menos formalmente, G es F-derivable en Rm m
+ . Para R+ fijo, es f
acil comprobar
que L(, ) es un funcional elptico en V (con la misma constante de elipticidad > 0). De esta
manera, se tiene que el problema de mnimo que define el funcional dual G (ver (3.7))

G() = nf L(v, )
vV

admite una u on u V caracterizada por


nica soluci

J 0 (u ) + 0 (u ) = 0 en V,

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
60 3.3. M
etodos de dualidad. M
etodo de Uzawa

es decir, G() = L(u , ) = J(u ) + (u ). Derivando respecto de (formalmente)

G0 () = (u ) + J 0 (u ) + 0 (u ) u0 (u ).


El calculo anterior permite calcular (formalmente) el gradiente del funcional G() en cada punto
Rm + . Podemos as introducir el algoritmo de Uzawa (Algoritmo del Gradiente con Proyecci on
y Paso Fijo aplicado al problema dual (3.11)). Recordemos que el operador de proyeccion de Rm +
esta dado por:
(P+ x)i = max{xi , 0}, x Rm .

Algoritmo de Uzawa:

1. Elegir 0 Rm
+ y > 0.
Dados n 0 y n Rm
+:

2. Calcular un V tal que L(un , n ) = mn L(v, n ).


vV

3. Tomar n+1 = P+ (n + (un )) Rm


+ , hacer n = n + 1 y volver a 2.

Observaci on 3.9. Observese que, en la aplicacion del metodo de Uzawa, en cada etapa n se va
calculando la soluci
on del problema de mnimo sin restricciones

mn L(v, n ) = J(v) + n (v),


vV

con solucion un V . A partir del c


alculo de un se calcula el correspondiente n+1 . Veremos que,
aunque el metodo de Uzawa es un metodo construido para aproximar la segunda componente del
punto de silla del lagrangiano L dado por (3.10), en realidad proporciona una aproximacion de la
primera componente u del punto de silla, es decir, de la solucion del problema (3.1).
Por otro lado, observese tambien que en la formulacion del algoritmo de Uzawa no usamos
explcitamente que las funciones de restriccion i son F-derivables en V . De hecho, probaremos la
convergencia del algoritmo sin imponer esta hipotesis.

Respecto de la convergencia del metodo, se tiene:

Teorema 3.12. Supongamos que se satisfecen las hip otesis (H). Supongamos adem as que los fun-
cionales i , con 1 i m, son globalmente lipschitzianos en V , es decir, existe L > 0 tal que

(3.12) |(v) (w)| Lkv wk, v, w V.

Entonces, si
2
0<<,
L2
el metodo de Uzawa converge globalmente, es decir, para cualquier 0 Rm on {un }n0
+ , la sucesi
proporcionada por el algoritmo de Uzawa converge hacia la solucion u U del problema (3.1) (U
dado por (3.9)).

Prueba: En primer lugar, J es un funcional elptico y las restricciones i son continuas y convexas
en V . Por otro lado, las restricciones son cualificadas. Deducimos que el conjunto U es un convexo
cerrado no vaco y que el problema (3.1), con U dado por (3.9), admite una u nica solucion u U.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 3. M
etodos Para Problemas de Optimizaci
on con Restricciones 61

Por otro lado, fijado Rm+ , se tiene que el funcional L(v, ) = J(v) + (v) es el
ptico en V
nico u V solucion del problema
(con constante de elipticidad ). As, existe un u
L(u , ) = nf L(v, ).
vV

Esto demuestra que el Algoritmo de Uzawa esta bien definido.


Ademas, es posible aplicar el Teorema 3.11 y deducir la existencia de Rm + tal que el par
(u, ) es un punto de silla del lagrangiano L dado por (3.10).
on de punta de silla (Definicion 3.9) deducimos que u U es solucion del problema
De la definici
de mnimo sin restricciones
L(u, ) = nf L(v, ).
vV
Usando el Ejercicio 1.2, obtenemos que u se caracteriza por ser solucion de la inecuacion
(3.13) hJ 0 (u), v ui + ((v) (u)) 0, v V.
Razonando del mismo modo deducimos tambien que un se caracteriza por ser la solucion de la
inecuacion
(3.14) hJ 0 (un ), v un i + n ((v) (un )) 0, v V.
Tomando v = un en (3.13), v = u en (3.13) y sumando ambas expresiones deducimos
hJ 0 (u) J 0 (un ), un ui + ( n ) ((un ) (u)) 0.
De esta u
ltima expresi
on y de la caracterizacion de funcional elptico dada en el Teorema 2.4,
obtenemos
(3.15) (n ) ((un ) (u)) kun uk2 .
on de punto de silla para deducir que Rm
Utilizamos de nuevo la definici + est
a caracterizado
por ser solucion de
L(u, ) = sup L(u, ),
Rm
+

es decir, ( ) (u) 0 para todo Rm + o, equivalentemente, ( ) ( ( + (u))) 0


para todo Rm + , con > 0 fijo. Usando la caracterizacion del operador de proyeccion P+ (ver
Teorema 3.1) , esta u ltima desigualdad equivale a
= P+ ( + (u)).
on de n+1 = P+ (n + (un )) Rm
Esta desigualdad junto a la definici + y (3.12), implican

|n+1 | = |P+ (n + ((un ) (u)))| |n + ((un ) (u)) |.


Usando (3.15) llegamos a
(
|n+1 |2 |n |2 + 2 |(un ) (u)|2 2kun uk2
|n |2 + (L2 2)kun uk2 .

Llamando = 2 L2 > 0 y rn = |n |2 , deducimos




kun uk2 rn rn+1 ,


on {rn }n1 R+ es monotona decreciente, por tanto lm (rn rn+1 ) = 0 y, as,
es decir, la sucesi
lm kun uk = 0.
esto termina la prueba del teorema.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
62 3.3. M
etodos de dualidad. M
etodo de Uzawa

Observaci on 3.10. El algoritmo de Uzawa nos permite aproximar la solucion u del problema
de optimizacion con restricciones (3.1) (con U dado por (3.9)) por una sucesion de problemas de
optimizacion sin restricciones (etapa 2 del algoritmo de Uzawa). En cada etapa n del algoritmo
tambien se calcula directamente n+1 = P+ (n + (un )) Rm + . Como dijimos m as arriba, el
Teorema 3.12 solo asegura la convergencia de la sucesion {un }n1 V . Observese que este teorema
no dice nada sobre la convergencia de la sucesion {n }n1 Rm+ . Es f
acil comprobar que en el caso
en el que el lagrangiano L (ver (3.10)) tiene un u nico punto de silla (u, ) (o equivalentemente,
es u
nico), entonces tambien se tiene
lm |n | = 0.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Captulo 4

Control de sistemas lineales


gobernados por ecuaciones
diferenciales sencillas

4.1. Planteamiento general de un problema de control


optimo
El objetivo central de la Teora de Control es proporcionar estrategias para conducir un cierto
proceso hacia un objetivo deseado.
En la industria moderna donde la nocion de rendimiento es preponderante, se persigue conce-
bir, realizar y optimizar buscando la mejora de los metodos existentes. Los dominios de aplicaci on
de la teora de control son multiples: aeroespacial, automobilstico, robotico, aeronautico, internet,
comunicaciones en general, medico, qumico, etc. Por ejemplo, la colocacion de un satelite en una
orbita adecuada, la reduccion del ruido de los vehculos de transporte, la estabilizacion de estruc-
turas, etc, son muestras de problemas de control. Desde un punto de vista matematico, un sistema
de control es un sistema din amico dependiendo de un parametro llamado control que generalmente
viene sujeto a ciertas restricciones.
Lo que se pretende es conducir el estado (variable que nos interesa) al objetivo prefijado
mediante la elecci on de un mecanismo de control adecuado. Imaginemos un proceso regido por
la ecuacion yv = f (v) donde y es el estado y v es el control. Se pretende actuar con v sobre el
proceso para llevar yv a un yd deseado. Concretamente, en un problema de control intervienen los
siguientes elementos (ver [6]):

on v que se mueve en un conjunto Uad de un espacio U. El


1. Un control a nuestra disposici
conjunto Uad es el llamado conjunto de controles admisibles.

2. El estado yv del sistema que se quiere controlar. Para cada v Uad , el estado yv se determina
resolviendo la ecuacion de estado
yv = f (v),

donde f es una funci on dada dependiente de v y es el operador (conocido) que representa


el sistema a controlar ( es el modelo del sistema). En este tema estudiaremos el caso en el
que la ecuacion de estado viene dada por un sistema diferencial ordinario o por una EDP.

3. La observaci
on z(v) que es una funcion del estado yv .

63
64 4.2. Control
optimo de e.d.o.

4. La funcion coste J(v) que esta definida a partir de una funcion positiva que esta definida
sobre el espacio de las observaciones por

J(v) = (z(v)).

Nuestro objetivo es resolver el problema de mnimos (problema del Calculo de Variaciones)

nf J(v),
vUad

es decir, calcular u Uad (control o


ptimo) tal que J(u) J(v), para cualquier v Uad .


Dentro de la Teora de Control Optimo pretendemos dar respuesta a las siguientes cuestiones:

(i) Existencia de soluci


on del problema de control optimo precedente.

(ii) Obtenci
on de condiciones necesarias (o necesarias y suficientes) para la/las soluciones del
problema de control
optimo (condiciones de optimalidad ).

(iii) Estudio de la estructura y de las propiedades de las soluciones de las condiciones de optima-
lidad.

(iv) Obtenci
on de algoritmos constructivos para la aproximacion de la/las soluciones del problema
de minimizaci
on precedente.

Debido al caracter introductorio de este tema, aqu solo nos dedicaremos al estudio de las dos
primeras cuestiones en dos situaciones sencillas: cuando el sistema de estado esta gobernado por un
sistema diferencial ordinario lineal y cuando el sistema esta gobernado por una EDP elptica lineal.
Por otro lado, s
olo consideraremos funcionales coste J sencillos: solo estudiaremos funcionales que
se pueden reescribir como un funcional cuadratico elptico en un espacio de Hilbert. Evidentemente,
el estudio de las cuatro cuestiones anteriores depende fuertemente del modelo y del funcional J
considerados.

4.2. Control
optimo de ecuaciones diferenciales ordinarias lineales
Comenzamos nuestro estudio de algunos problemas de control optimo de sistemas gobernados
por ecuaciones, con el caso m as sencillo: sistemas gobernados por un sistema diferencial ordinario
lineal con coeficientes constantes. Para ello, sean n, m 1 dos n
umeros naturales y T > 0 un n
umero
real (tiempo final de observaci on). Consideremos A L(Rn ) y B L(Rm ; Rn ) dos matrices. Para
cada v L2 (0, T ; Rm ) e y0 Rn consideramos el sistema diferencial ordinario lineal (ecuacion de
estado)
(
yt = Ay + Bv en (0, T )
(4.1)
y(0) = y0 .

En el anterior sistema v es un control distribuido, es decir, un control que act


ua sobre la ecuaci on a
traves del segundo miembro de esta. Observese que para cada v L2 (0, T ; Rm ) y cada dato inicial
y0 Rn , la ecuaci on de estado (4.1) admite una u nica solucion yv C 0 ([0, T ]; Rn ), con yv,t
L2 (0, T ; Rn ), que depende de manera lineal y continua de v y de y0 . De hecho, la solucion puede
ser calculada a partir de una matriz fundamental F (t) asociada al sistema homogeneo mediante la
formula de Duhamel.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 4. Control
optimo de sistemas lineales 65

En nuestro caso particular, podemos calcular una matriz fundamental como F (t) = etA , con
t R. As, la soluci
on de (4.1) viene dada mediante la expresion
Z t
tA
yv (t) = e y0 + e(ts)A Bv(s) ds, t R.
0

Supongamos que tenemos una matriz C L(Rn ; R` ) (matriz de observacion), con ` 1 un


n
umero natural, y consideremos (observaci
on)

zv = Cyv L2 (0, T ; R` ).

Con los datos anteriores introducimos la funci


on coste
1
(4.2) J(v) = kCyv zd k2L2 (0,T ;R` ) + kv vd k2L2 (0,T ;Rm ) ,
2 2
donde 0, zd L2 (0, T ; R` ) y vd L2 (0, T ; Rm ) estan dados e yv es la solucion del sistema de
estado (4.1). Por otro lado, fijemos Uad L2 (0, T ; Rm ) un subconjunto cerrado, convexo y no vaco
(conjunto de controles admisibles). Con estos datos, planteamos el problema de minimizacion:
(
Minimizar J(v)
(4.3)
Sujeto a v Uad .

Observaci on 4.1. Minimizando el coste J, pretendemos calcular un control v en el conjunto de


controles admisibles que este lo mas cerca de un valor prefijado vd y que haga que la observaci
on
del estado asociado tambien este cerca de un valor deseado zd . Observese que el segundo sumando
de (4.2) esta teniendo en cuenta cu
anto cuesta controlar nuestro sistema de estado (4.1). Mediante
el valor [0, ) estamos ponderando el coste del control optimo frente a la aproximacion de
la observacion del estado al valor deseado zd . Por ultimo, si 0 estamos buscando un control
tal que la correspondiente observaci on del estado asociado este lo mas cerca posible de un valor
deseado zd , sin tener en cuenta el propio coste del control.
Comencemos estudiando el problema de la existencia y unicidad de control optimo. Se tiene:
Teorema 4.1. Bajo las condiciones anteriores, supongamos que Uad L2 (0, T ; Rm ) es un sub-
conjunto cerrado, convexo y no vaco y fijemos (0, ). Entonces, el problema de control
opti-
mo (4.3) tiene una u on u Uad .
nica soluci
Prueba: Veremos que el coste J es un funcional elptico en el espacio de Hilbert L2 (0, T ; Rm ),
con constante de elipticidad > 0. Aplicando directamente el Teorema 2.3 con V L2 (0, T ; Rm )
obtendremos la prueba.
Observese que la soluci
on del sistema de estado (4.1) asociada a v e y0 puede ser escrita como
yv = Y0 + 0 v, donde Y0 es la solucion de (4.1) asociada a y0 Rn y v 0 (i.e., Y0 (t) = etA y0 , con
t R) y 0 es el operador definido

(4.4) v L2 (0, T ; Rm ) 7 0 v yev L2 (0, T ; Rn ),

on de (4.1) correspondiente a y0 0 y v L2 (0, T ; Rm ). Evidentemente,


donde yev es la soluci

0 L(L2 (0, T ; Rm ); L2 (0, T ; Rn )).

Si ahora hacemos = C0 L(L2 (0, T ; Rm ); L2 (0, T ; R` )), entonces el funcional J puede ser
escrito como
1
J(v) = a(v, v) hL, vi + C0 ,
2

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
66 4.2. Control
optimo de e.d.o.

con a(, ) la forma bilineal, continua y simetrica en L2 (0, T ; Rm ) dada por

a(v, w) = (v, w)L2 (0,T ;R` ) + (v, w)L2 (0,T ;Rm ) , v, w L2 (0, T ; Rm ),

L es la forma lineal y continua en L2 (0, T ; Rm ) dada por

hL, vi = (zd CY0 , v)L2 (0,T ;R` ) + (vd , v)L2 (0,T ;Rm ) , v L2 (0, T ; Rm ),

y, finalmente, C0 R es la constante dada por


1
C0 = kzd CY0 k2L2 (0,T ;R` ) + kvd k2L2 (0,T ;Rm ) .
2 2
Por u
ltimo, se tiene

a(v, v) = kvk2L2 (0,T ;R` ) + kvk2L2 (0,T ;Rm ) kvk2L2 (0,T ;Rm ) , v L2 (0, T ; Rm ),

de donde deducimos que J es un funcional cuadratico y elptico (con constante asociada > 0) en
el espacio de Hilbert L2 (0, T ; Rm ) (vease el Ejemplo 2.1). Tenemos as la prueba del resultado.

Observaci on 4.2. En la prueba anterior hemos utilizado de manera fundamental que la constante
en (4.2) es positiva. Siguiendo el razonamiento anterior, si = 0, el funcional J sigue siendo
un funcional cuadr atico que verifica a(v, v) 0, para cualquier v L2 (0, T ; Rm ). Esta u
ltima
2 2 m
propiedad garantiza que el funcional J es continuo y convexo en L (0, T ; L (R )), pero de estas
propiedades no podemos deducir la existencia y/o unicidad de solucion para el problema de control
optimo (4.3).

Ejercicio 4.1. En las condiciones del Teorema 4.1, supongamos que 0. Demuestrese que el
conjunto
Ue = {u Uad : u es solucion del problema de control optimo (4.3)}

es un conjunto convexo y cerrado (posiblemente vaco) de L2 (0, T ; Rm ).

Nuestro proximo objetivo ser a proporcionar condiciones equivalentes al problema de control


optimo (4.3) planteado, i.e., ser
a proporcionar las denominadas condiciones de optimalidad. Para
ello, consideremos el llamado sistema adjunto asociado a (4.1):
(
t = A + f en (0, T )
(4.5)
(T ) = 0,

donde f L2 (0, T ; Rn ) y donde mediante A estamos denotando la matriz traspuesta de A. Es


facil comprobar que el anterior sistema tiene una u nica solucion y que esta depende de manera
lineal y continua respecto de f . Ademas, si yv es la solucion de (4.1) asociada a v L2 (0, T ; Rn ) e
y0 0, se tiene la igualdad

d
(yv (t), (t))Rn = (Bv(t), (t))Rn (yv (t), f (t))Rn = (v(t), B (t))Rm (yv (t), f (t))Rn ,
dt
e integrado entre 0 y T ,
Z T Z T
0= (v(t), B (t))Rm dt (yv (t), f (t))Rn dt = (v, B )L2 (0,T ;Rm ) (yv , f )L2 (0,T ;Rn ) .
0 0

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 4. Control
optimo de sistemas lineales 67

Utilizando el operador 0 (ver (4.4)) la igualdad anterior se escribe

(0 v, f )L2 (0,T ;Rn ) (v, B )L2 (0,T ;Rm ) , f L2 (0, T ; Rn ), v L2 (0, T ; Rm ),

es decir, el operador adjunto de 0 , 0 L(L2 (0, T ; Rm ); L2 (0, T ; Rn )), esta dado por la igualdad
0 f = B , con soluci
on del problema adjunto (4.5).

Pasemos a continuaci
on a dar las condiciones de optimalidad del problema de control opti-
mo (4.3). Se tiene:
Teorema 4.2. Bajo las condiciones del Teorema 4.1, la u nica soluci
on del problema de control
optimo (4.3), u Uad , est
a caracterizada por ser soluci
on de la inecuaci
on variacional

(4.6) (B u + (u vd ), v u)L2 (0,T ;Rm ) 0, v Uad ,

donde yu y u son las soluciones de los problemas de Cauchy

(4.7) yu,t = Ayu + Bu en (0, T ), yu (0) = y0 ,

(4.8) u,t = A u + C [Cyu zd ] en (0, T ), u (T ) = 0.

Prueba: Recordemos que J es un funcional cuadratico y elptico en L2 (0, T ; Rm ) y Uad es un


nica solucion u Uad del
subconjunto cerrado, convexo, no vaco de L2 (0, T ; Rm ). Por tanto, la u
problema (4.3) est
a caracterizada por

u Uad y a(u, v u) hL, v ui 0, v Uad ,

donde las formas a(, ) y L est


an dadas en la prueba del Teorema 4.1. Utilizando los operadores

0 y 0 podemos escribir

a(v, w) hL, wi = (C0 v, C0 w)L2 (0,T ;R` ) + (v, w)L2 (0,T ;Rm )
(zd CY0 , C0 w)L2 (0,T ;R` ) (vd , w)L2 (0,T ;Rm )
= (0 C [C (0 v + Y0 ) zd ] + (v vd ), w)L2 (0,T ;Rm ) ,

para cualesquiera v, w L2 (0, T ; Rm ).


As, las condiciones de optimalidad se reescriben como: u Uad y

(4.9) (0 C [C (0 u + Y0 ) zd ] + (u vd ), v u)L2 (0,T ;Rm ) 0, v Uad .

Utilizando las expresiones de 0 y 0 , se tiene que yu = Y0 + 0 u es la solucion del sistema de


estado (4.1) correspondiente a u Uad e y0 Rn , es decir, yu es la solucion de (4.7). Por otro lado, si
hacemos f C [Cyu zd ] y consideramos la correspondiente solucion u del sistema adjunto (4.5),
on de (4.8), se tiene que 0 C [C (0 u + Y0 ) zd ] = B u . De la desigualdad (4.9)
es decir, la soluci
deducimos que u satisface la inecuaci on (4.6). Esto finaliza la prueba del resultado.
Observaci on 4.3. En el caso en el que Uad L2 (0, T ; Rn ) (y, por tanto, (4.3) es un problema de
optimizacion sin restricciones) podemos escribir de manera equivalente la inecuacion (4.6) como la
ecuacion
B u (t) + u(t) = vd (t), p.c.t. t (0, T ),
donde u junto con yu son, resp., las soluciones de (4.8) y de (4.7).

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
68 4.3. Control
optimo de EDP elpticas

Observaci on 4.4. En realidad, la caracterizacion del control optimo u dada en el Teorema 4.2
sigue siendo valida en el caso [0, ). Efectivamente, en este caso el funcional J dado en (4.2)
sigue siendo un funcional cuadr atico convexo (posiblemente no elptico) en L2 (0, T ; Rm ). Por tanto,
la caracterizaci
on de las posibles soluciones de (4.3) continua siendo
u Uad y a(u, v u) hL, v ui 0, v Uad .
De aqu se obtiene el resultado general.
Observaci on 4.5. En esta secci on hemos considerado el caso de un s.d.o. de coeficientes cons-
tantes (A L(Rn ) y B L(Rm ; Rm )). Por otro lado, tambien hemos considerado una matriz de
observacion constante (C L(Rn ; R` )). Es importante resaltar que los resultados presentados en
los Teoremas 4.1 y 4.2 siguen siendo validos cuando consideramos matrices de coeficientes variables,
es decir, cuando
A C 0 ([0, T ]; L(Rn )), B C 0 ([0, T ]; L(Rm ; Rn )) y C C 0 ([0, T ]; L(Rn ; R` )).
Observaci on 4.6. En el problema de control optimo estudiado en esta seccion para el sistema de
estado dado por (4.1), hemos considerado una observacion definida a traves de una matriz C
L(Rn ; R` ). Evidentemente hay otras posibles elecciones de operadores de observacion. Destacamos
el caso en el que C es el operador definido del siguiente modo:
C : w C 0 ([0, T ]; Rn ) 7 w(T ) Rn .
Es facil comprobar que C es un operador lineal y continuo entre C 0 ([0, T ]; Rn ) y Rn , i.e., C
L(C 0 ([0, T ]; Rn ); Rn ). As, podemos definir el funcional coste:
1 1 1 1
J (v) = |Cyv yd |2Rn + kvk2L2 (0,T ;Rm ) = |yv (T ) yd |2Rn + kvk2L2 (0,T ;Rm ) ,
2 2 2 2
donde yv C 0 ([0, T ]; Rn ) es la solucion de (4.1) asociada a v L2 (0, T ; Rn ) e y0 Rn , yd Rn
es el estado final deseado y es un n umero real positivo. Mediante | |Rn estamos denotando la
norma euclidea en RN . Este problema de control optimo entra dentro de los llamados problemas
de controlabilidad exacta para el sistema (4.1).
Ejercicio 4.2. En las condiciones de la anterior observacion, fijemos Uad un convexo cerrado no
vaco de L2 (0, T ; Rm ). Pruebese que el problema de control optimo
(
Minimizar J (v)
Sujeto a v Uad .
con yv la soluci nica solucion u Uad . Obtengase el sistema
on de (4.1) asociada a v, tiene una u
de optimalidad asociado al anterior problema de control optimo.

4.3. Control de sistemas gobernados por ecuaciones en derivadas


parciales elpticas
Pasamos a continuaci on a estudiar algunos problemas de control optimo de sistemas gobernados
por EDP elpticas. Para ello, fijemos RN (N 1), un abierto conexo y acotado con frontera
de clase C 2 , y consideremos el sistema

XN


i (aij (x)j y) + c(x)y = v1 en ,
(4.10) i,j=1


y = 0 sobre ,

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 4. Control
optimo de sistemas lineales 69

donde los coeficientes aij , c L () est


an dados ( 1 i, j N ) y satisfacen

a (x) = aji (x), p.c.t. x , i, j : 1 i, j N,
ij


N
(4.11) X

c(x) 0, ai,j (x)i j ||2RN , p.c.t. x , RN ,

i,j=1

para una constante > 0.


En (4.10), es un subconjunto abierto y 1 representa la funcion caracterstica de , es
on que vale 1 en y 0 en el resto. La funcion v L2 () es un control distribuido, es
decir, la funci
decir, un control que act ua sobre el sistema a traves del segundo miembro de la EDP. Observese
que este control solo se ejerce sobre el conjunto .

Observacion 4.7. Cuando tomamos como coeficientes aij ij (1 i, j N ) y c 0, el problema


de contorno (4.10) se transforma en el problema de Dirichlet para la ecuacion de Laplace:
(
y = v1 en ,
y=0 sobre .

Recordemos (vease [3]) que y es solucion debil de (4.10) si y esta en H01 () y satisface
Z
a0 (y, w) = 1 v(x)w(x) dx, w H01 (),

donde a0 (, ) es la forma bilineal y continua sobre H01 () dada por

N Z
X Z
(4.12) a0 (y, w) = aij (x)j y(x)i w(x) dx + c(x)y(x)w(x) dx, y, w H01 ().
i,j=1

Veamos en primer lugar que el sistema de estado (4.10) esta bien planteado. Se tiene:

Teorema 4.3. Bajo las condiciones anteriores, sean aij , c L () satisfaciendo (4.11). Entonces,
para cada v L2 () el problema (4.10) admite una u on debil yv H01 () que depende
nica soluci
lineal y continuamente de v, es decir, existe una constante positiva C (dependiente de kaij k , kck
y ) tal que
kyv kH01 () CkvkL2 () .

Este resultado es consecuencia directa del Teorema de Lax-Milgram:

Ejercicio 4.3. Pruebese el Teorema 4.3.

Observaci
on 4.8. Como consecuencia del Teorema 4.3, el operador

e 0 : v L2 () 7
e 0 v = yv L2 (),

(con yv la soluci e 0 L(L2 ()) (de hecho,


on de (4.10) asociada a v) esta bien definido y satisface
e 0 L(L2 (); H 1 ()).
tambien se tiene 0

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
70 4.3. Control
optimo de EDP elpticas

Como en la seccion anterior consideramos un operador Ce L(L2 (); H) (operador de obser-


on), con H un espacio de Hilbert con producto escalar (, )H y norma k kH . Un ejemplo de
vaci
operador de observaci
on puede ser
e : w L2 () 7 Cw
C e = w1O L2 () H,

donde O es un subconjunto abierto.


Con los datos anteriores consideramos zd H y vd L2 () e introducimos la funcion coste

(4.13) e = 1 kCy
J(v) e v zd k2 + kv vd k2 2 ,
H L ()
2 2
donde 0 esta dado e yv es la solucion del sistema de estado (4.10) asociada a v L2 (). De
nuevo, fijemos Uad L2 () un subconjunto cerrado, convexo y no vaco (el conjunto de controles
admisibles) y planteemos el problema de control optimo:
(
Minimizar J(v)e
(4.14)
Sujeto a v Uad .
Observaci on 4.9. De nuevo, podemos interpretar el funcional coste (4.13) como lo hicimos en
la Observaci on 4.1: pretendemos calcular un control v en el conjunto de controles admisibles que
este lo mas cerca posible de un valor prefijado vd y que haga que la observacion del estado asociado
tambien este cerca de un valor deseado zd . El segundo sumando de (4.13) tiene en cuenta cu anto
cuesta actuar sobre el sistema de estado (4.10).
Respecto de la existencia y unicidad de control optimo, se tiene:
Teorema 4.4. Bajo las condiciones anteriores, supongamos que Uad L2 () es un subconjunto
cerrado, convexo y no vaco y fijemos (0, ). Entonces, el problema de control
optimo (4.14)
tiene una u on u Uad .
nica soluci
Prueba: La demostraci on del resultado es parecida a la del Teorema 4.1. Veremos que el coste Je es
un funcional cuadratico elptico en el espacio de Hilbert L2 (), con constante de elipticidad > 0.
De nuevo, el resultado ser a consecuencia del Teorema 2.3.
El funcional Je puede ser escrito como

e = 1e
J(v) a(v, v) hL,
e vi + C0 ,
2
a(, ) la forma bilineal, continua y simetrica en L2 () dada por
con e
a(v, w) = (C
e ee 0 v, C
ee 0 w)H + (v, w)L2 () , v, w L2 (),
L es la forma lineal y continua en L2 () dada por
hL,
e vi = (zd , C
ee 0 v)H + (vd , v)L2 () , v L2 (),
y, finalmente, C0 R es la constante dada por
1
C0 = kzd k2H + kvd k2L2 () .
2 2
As,
a(v, v) = kC e 0 vk2 + kvk2 2 2
v L2 (),
L () kvkL2 ( ,
e
e H

de donde deducimos que Je es un funcional cuadratico y elptico (con constante asociada > 0) en
el espacio de Hilbert L2 (). Esto finaliza la prueba.

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 4. Control
optimo de sistemas lineales 71

Observaci on 4.10. De nuevo, para deducir la existencia y unicidad de solucion del problema
de control optimo (4.14) hemos utilizado de manera fundamental que la constante en (4.13) es
positiva. Si = 0, el funcional Je sigue siendo un funcional cuadratico y positivo, pero el problema
de control optimo (4.3) podra no tener solucion o esta podra no ser unica. En cualquier caso,
tambien se tiene la propiedad:

Ejercicio 4.4. En las condiciones del Teorema 4.4, supongamos que 0. Demuestrese que el
conjunto
U
e = {u Uad : u es solucion del problema de control optimo (4.14)}

es un conjunto convexo y cerrado (posiblemente vaco) de L2 ().

Antes de pasar a estudiar las condiciones de optimalidad para el problema (4.14) veamos en
que consiste el operador adjunto a e . Para ello, introducimos el sistema adjunto a (4.10):
e 0,
0

XN


i (aij (x)j ) + c(x) = f en ,
(4.15) i,j=1


= 0 sobre ,

on f L2 () est
donde la funci a dada. Aplicando el Teorema 4.3 se tiene que, para cada f L2 (),
nica solucion H01 () que depende lineal y continuamente
el sistema adjunto (4.15) posee una u
de f .
Multiplicando por la EDP de (4.10), por yv la EDP de (4.15) e integrando por partes, es facil
comprobar la igualdad
Z Z
v(x)1 (x) dx = yv (x)f (x) dx, v, f L2 (),

que, escrita en terminos del operador


e 0 , proporciona la igualdad

(v, 1 )L2 () = (
e 0 v, f )L2 () , v, f L2 ().

De aqu deducimos que el operador adjunto viene dado:

e 0 : f L2 () 7
e 0 f = 1 L2 (),

donde H01 () es la soluci


on de (4.15).
Mediante el operador adjunto podemos deducir las condiciones de optimalidad asociadas al
problema de control optimo (4.14):

Teorema 4.5. Bajo las condiciones del Teorema 4.4, la u nica soluci
on del problema de control
optimo (4.14), u Uad , est
a caracterizada por ser soluci
on de la inecuaci
on variacional

(4.16) (u 1 + (u vd ), v u)L2 () 0, v Uad ,

donde yu y u son las soluciones de los problemas de Cauchy



XN


i (aij (x)j yu ) + c(x)yu = u1 en ,
(4.17) i,j=1


yu = 0 sobre ,

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
72 4.3. Control
optimo de EDP elpticas

y

XN

e [Cy
i (aij (x)j u ) + c(x)u = C e u zd ] en ,
(4.18) i,j=1


u = 0 sobre .

Prueba: Como consecuencia del Teorema 4.4, sabemos que Je es un funcional cuadratico y elptico
en L2 () y Uad es un subconjunto cerrado, convexo, no vaco de L2 (). Por tanto, la u
nica soluci
on
u Uad del problema (4.14) se caracteriza por

u Uad a(u, v u) hL,


y e e v ui 0, v Uad ,

a(, ) y L
donde las formas e e est
an dadas en la prueba del Teorema 4.4. Utilizando los operadores
e 0 L(L ()) y C
2 e L(L2 (); H) y sus adjuntos e L(L2 ()) y Ce L(H; L2 ()) podemos
0
escribir h i
a(v, w) hL,
e e 0 C
e wi = ( e C e 0 v zd + (v vd ), w)L2 () ,
e

para cualesquiera v, w L2 ().


As, las condiciones de optimalidad se reescriben como: u Uad y
h i
(4.19) e 0 C
( e C e 0 u zd + (u vd ), v u)L2 () 0, v Uad .
e

Observese que e 0 u = yu es la solucion de (4.17). Por otro lado, si hacemos f C e [Cy


e u zd ]
y consideramos la correspondiente
h solucioin u del sistema adjunto (4.15), es decir, la soluci
on
de (4.18), se tiene que
e C
e C e 0 u zd = u 1 . De la desigualdad (4.19) deducimos que u
e
0
satisface la inecuaci
on (4.16). Esto finaliza la prueba del resultado.

Observaci on 4.11. De nuevo, cuando el conjunto de controles admisibles es el espacio completo,


i.e., Uad L2 (), la desigualdad (4.16) equivale a la ecuacion

u (x)1 + u(x) = vd (x), p.c.t. x ,

donde u junto con yu son, resp., las soluciones de (4.18) y de (4.17).

Observaci on 4.12. Veamos en que se transforma (4.16)(4.18) cuando tomamos como operador
de observaci e = w1O , con O un subconjunto abierto de . En este caso, H L2 () y es f
on Cw acil
comprobar que Ce es un operador autoadjunto. As, el sistema de optimalidad es: u U y

(u 1 + (u vd ), v u)L2 () 0, v Uad ,

donde el par (yu , u ) es solucion del sistema acoplado



XN




i (aij (x)j yu ) + c(x)yu = u1 en ,



i,j=1
XN


i (aij (x)j u ) + c(x)u = (yu zd )1O en ,



i,j=1

yu = 0, u = 0 sobre .

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Tema 4. Control
optimo de sistemas lineales 73

Observaci on 4.13. Razonando como en la Observacion 4.4 deducimos que la caracterizacion del
control optimo u dada en el Teorema 4.5 sigue siendo valida en el caso [0, ). En el caso = 0
no podemos asegurar la existencia y/o unicidad de solucion del sistema de optimalidad (4.16)
(4.18).

Observaci on 4.14. En esta Secci on s


olo hemos considerado el control optimo (con control distri-
buido) de sistemas gobernados por EDP elpticas con condiciones de contorno de tipo Dirichlet.
Es posible plantear problemas de control optimo para EDP elpticas cuando el control se ejerce
a traves de la frontera sobre la condici
on de contorno (control frontera). Por ejemplo, podramos
haber considerado como sistema de estado el problema de contorno:

XN


i (aij (x)j y) + c(x)y = 0 en ,
i,j=1

y = v1 sobre ,

donde los coeficientes aij L () y c L () satisfacen (4.11). En el problema anterior


es un abierto relativo de la frontera y 1 es la funcion caracterstica sobre . El conjunto de controles
admisibles Uad es ahora un subconjunto convexo, cerrado no vaco de L2 (). Observese que el
control es ejercido sobre el sistema solo en una parte de la frontera: . En este caso, el analisis de
la ecuacion de estado y del problema de control optimo es tecnicamente mas complejo que el caso
de control distribuido estudiado anteriormente.
Por otro lado, tambien es posible considerar en (4.14) otras condiciones de contorno, por ejemplo,
condiciones de tipo Neumann o Robin.
Finalmente, en esta secci on nos hemos limitado a plantear problemas de control optimo para
EDP elpticas. Problemas an alogos pueden ser planteados cuando consideramos EDP parabolicas
(ecuacion del calor) o hiperb olicas (ecuacion de ondas). Para mas informacion, vease [6] y [2].

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
74 4.3. Control
optimo de EDP elpticas

Manuel Gonz
alez Burgos, Dpto. de Ecuaciones Diferenciales y An
alisis Numerico, Universidad de Sevilla
Bibliografa

[1] G. Allaire, A. Craig, Numerical Analysis and Optimization. An Introduction to Mathema-


tical Modelling and Numerical Simulation, Oxford, Londres, 2007.

[2] S. Barnett, Introduction to Mathematical Control Theory, Oxford University Press, London,
1975.

[3] H. Brezis, Analyse Fonctionnelle. Theorie et Applications, Collection Mathematiques Appli-


quees pour la Matrise, Masson, Pars, 1983.

[4] P.G. Ciarlet, Introduction `


a lAnalyse Numerique Matricielle et `
a lOptimisation, Masson,
Paris, 1982.

[5] R. Fletcher, Practical Methods of Optimization, Vol 1, 2, John Wiley and Sons, Chichester,
1980.

[6] J.-L. Lions, Contr


ole Optimal de Syst`emes Gouvernes par des Equations aux Derivees Par-
tielles, Dunod, Paris, 1968.

[7] J.-L. Lions, E. Magenes, Probl`emes aux Limites non Homog`enes et Applications, Tomo 1,
Dunod, Paris, 1968.

[8] D.G. Luenberger, Introduction to Linear and Non-linear Programming, Addison-Wesley,


1973.

[9] E. Polak, Computational Methods in Optimization. An Unified Approach, Academic Press,


San Diego, 1971.

75

You might also like