Professional Documents
Culture Documents
stico
Control o
Prof. John F. Moreno T.
Maestra en Finanzas
Din
amica de portafolios
I
Notacion
hi (t) = n
umero de unidades del activo i que se tienen en el
periodo t.
h(t) = [h1 (t), h2 (t), ..., hN (t)], portafolio que se tiene durante el
periodo t.
En el tiempo t, despu
es de haber observado S(t),
seleccionamos una nuevo portafolio h(t) que se
mantendr
a durante el periodo t.
La condicion de autofinanciamiento
ANALISIS
(1)
i=1
1 La
notaci
on xy = N
i=1 xi yi sera la utilizada para denotar el producto punto
de x y y.
i=1
S(t)h(t) + c(t)t = 0
Si sumamos y restamos el termino S(t t)h(t) en la expresion
anterior tenemos que:
S(t t)h(t) + S(t)h(t) S(t t)h(t) + c(t)t = 0
(2)
Si tomamos la diferencial de It
o de V (t) = h(t)S(t) se tiene que:
dV (t) = h(t)dS(t) + S(t)dh(t) + dS(t)dh(t)
(3)
hi (t)Si (t)
V h (t)
i = 1, 2, ..., N.
donde,
N
ui (t) = 1
i=1
dSi (t)
c(t)dt
Si (t)
Dividendos
i=1
i=1
Control optimo
C
omo seleccionar un estrategia (h, c) que maximice el valor
esperado de su utilidad total en el intervalo [0, T ]?
Z
max E
u0 ,u1 ,c
F(t, ct )dt + (XT )
sujeto a:
para todo t 0
para todo t 0
Definicion
En un problema de control
optimo encontramos:
I
Una funci
on objetivo, que permite determinar la respuesta
del sistema a cada estrategia admisible.
Ejemplos:
1. (Sistema discreto)
X(t + 1) = F(X(t), u(t), (t)) ;
t = 0, 1, 2, . . . , T
2. (Sistema continuo)
dX(t + 1)
= F(X(t), u(t), (t)) ;
dt
0t T
con X(0) = x0 y T .
I
Sistema estocastico
dX(t) = (t, X(t), u(t))dt + (t, X(t), u(t))dW (t)
Sistema determinstico
dX(t) = (t, X(t), u(t))dt
Estrategias admisibles
Una estrategia de control u(t) se especifica mediante restricciones,
y se considera admisible si:
I
Funcion objetivo
V (u, x) =
t=0
V (u, x) =
0
y en el caso estocastico:
Z
V (u, x) = E
0
c(X(t), u(t))dt +CT (X(T ))
1. En un problema de control
optimo se busca optimizar V (u, x)
sobre el conjunto de estrategias admisibles u(t) U, para los
cuales el proceso de estado X(t) sigue las restricciones dadas
por el modelo dinamico y las restricciones adicionales.
2. la funcion V (u,
x) := supu(t)U V (u, x), es llamada funci
on de
valor y u es la ley de control
optimo.
F(t, X
El Problema Formal
Tenemos las funciones:
(t, x, u) : R+ Rn Rk Rn
(t, x, u) : R+ Rn Rk Rnd
Cu
ales son las condiciones para que un proceso de control u
sea admisible?
luego,
Definici
on: Un proceso de control ut es admisible si:
1. u(t, x) U para todo t y todo x.
2. Para todo punto (t, x) la E.D.E
Funci
on objetivo del problema de control
Consideramos el par de funciones:
F : R+ Rn Rk R
: Rn R
A partir de las cuales definimos la funci
on de valor del problema,
J0 : U R, definida por:
J0 (u) = E
Z
0
La ecuaci
on de Hamilton-Jacobi-Bellman
Dado un problema de control
optimo las dos preguntas naturales a
contestar son:
I
F(s, Xsu , us )ds + (Xtu )
sujeto a:
dXsu = (s, Xsu , u(s, Xsu ))ds + (s, Xsu , u(s, Xsu ))dWs
Xt = x
u(s, y) U
(s, y) [t, T ] Rn .
La funci
on de valor (funci
on objetivo) de este problema es:
J : R+ Rn U R
J (t, x, u) = E
Z
t
y la funci
on de valor
optimo es:
V : R+ Rn R
V (t, x) = sup J (t, x, u)
uU
La funcion V C1,2 .
Deduccion de la EDP
;
;
(s, y) [t,t + h] Rn
(s, y) (t + h, T ] Rn
Utilidades esperadas:
I
Estrategia I.
El valor esperado de la utilidad siguiendo esta estrategia es :
V (t, x) = J (t, x, u)
Estrategia II.
En este caso dividimos el intervalo (t, T ] en dos partes, de
(t,t + h) y de [t + h, T ].
El valor esperado de la utilidad en el intervalo (t,t + h) esta
dado por:
Z t+h
u
Ex,t
F(s, Xs , us )ds
t
t+h
u
F(s, Xsu , us )ds +V (t + h, Xt+h
)
Comparaci
on de las utilidades esperadas
Como por definici
on la estrategia I es la optima, se tiene que:
Z t+h
u
u
V (t, x) Ex,t
F(s, Xs , us )ds +V (t + h, Xt+h )
t
Aplicando la formula de It
o se tiene que:
s
V (t + h, Xt+h
) = V (t, x)
Z t+h
V
V
1 2V
u
u
u
0
u
+
(s, Xs )u u ds
(s, Xs ) +
(s, Xs )(s, Xs , us ) +
t
x
2 x2
t
Z t+h
V
(s, Xsu )u dWs
+
x
t
Si definimos el operador:
Au = (t, x)
1
2
+ u u0 2
x 2
x
entonces,
s
V (t + h, Xt+h
) = V (t, x)
Z t+h
Z t+h
V
V
u
u
u
(s, Xs ) + A V (s, Xs ) ds +
(s, Xsu )u dWs
+
t
x
t
t
s
Et,x [V (t +h, Xt+h
)] = V (t, x)+Et,x
Z
t
t+h
V
u
u
u
(s, Xs ) + A V (s, Xs ) ds
t
Z
t
t+h
u
F(s, Xsu , us )ds +V (t + h, Xt+h
)
se tiene que,
Z
Ex,t
t
t+h
F(s, Xsu , us ) +
V
u
u
u
(s, Xs ) + A V (s, Xs ) ds 0
t
Tomando lmite
V
(t, x) + AuV (t, x) 0
t
Ecuaci
on HJB
(t, x) (0, T ) Rn
V (T, x) = (x) x Rn
2. Para cada (t, x) (0, T ) Rn el supremo de la ecuacion HJB
es alcanzado por u = u(t,
x).
Nota:
3. Si u es el optimo entonces:
V
(t, x) + F u (t, x) + AuV (t, x) = 0
t
V (T, x) = (x)
4. Resolver!!
El problema original
Retomando el problema del agente tenemos que:
Z
max E
u0 ,u1 ,c
F(t, ct )dt + (XT )
sujeto a:
para todo t 0
para todo t 0
F(t, ct )dt
V
V
+ sup [F(t, ct ) + w( r)x
t c0,wR
x
+ (rx c)
con V (T, x) = 0 y V (t, 0) = 0.
V 1 2 2 2 2V
+ x w
]=0
x 2
x2
Ejemplo:
Sea F(t, c) = et c , con 0 < < 1, entonces:
V 1 2 2 2 2V
V
+ (rx c)
+ x w
]
x
x 2
x2
V 1 2 2 2 2V
V
+ (rx c)
+ x w
]
x
x 2
x2
V
V 1 2 2 2 2V
+ (rx c)
+ x w
]
x
x 2
x2
c1 et
V
=0
x
(A)
w=
V / x ( r)
x 2V / x2 2
(B)
V
= et h(t)x1
x
2V
= ( 1)et h(t)x2
x2
y reemplazando en las ecuaciones (A) y (B) tenemos:
w =
r
(1 ) 2
c = xh(t)1/1
V
V
+ sup [F(t, ct ) + w( r)x
t c0,wR
x
+ (rx c)
V 1 2 2 2 2V
+ x w
]=0
x 2
x2
n
o
x h0 (t) + Ah(t) Bh(t)/(1) = 0
h(T ) = 0
1 ( r)2
( r)2
+
r
(1 ) 2
2 (1 ) 2
B = 1
donde,
A=
Teorema de separaci
on de fondos
Caso sin activo libre de riesgo
con,
Aw,cV (t, x, s) = xw0
V
V 1 2 0 2V
c
+ x w w 2
x
x 2
x
= Vx .
x 0Vx + x2Vxx w0 = e0
x2Vxx +xVx e0 1
e0 1 e
x
w = 1 [ x2Vxx e xxV
2V ]
xx
e
xVxx
e0 1 e
|e {z
} |{z}
|
{z
}
g
Y (t)
w = g +Y (t)h
Trabajo en clase
ut2 dt + XT2
2 +B(t)