You are on page 1of 101

C alculo estoc astico

David Nualart Universitat de Barcelona

1
1.1

Probabilidades y procesos estoc asticos


Conceptos b asicos del c alculo de probabilidades

Recordemos en primer lugar algunas deniciones generales del c alculo de probabilidades. Un espacio de probabilidad es una terna (, F , P ) formada por: (i) Un conjunto que representa el conjunto de los posibles resultados de una cierta experiencia aleatoria. (ii) Una familia F de subconjuntos de que tiene estructura de - algebra: a) F b) Si A F , su complementario Ac tambi en pertenece a F c) A1 , A2 , . . . F = i=1 Ai F on P : F [0, 1] que cumple: (iii) Una aplicaci a) P () = 0, P () = 1 b) Si A1 , A2 , . . . F son conjuntos disjuntos dos a dos (es decir, Ai Aj = si i = j ), entonces P ( i=1 Ai ) =
i=1

P (Ai )

Los elementos de la - algebra F se denominan sucesos y la aplicaci on P se denomina una probabilidad, de forma que tenemos la siguiente interpretaci on de este modelo: P (F )=probabilidad de que el suceso F se realice Si P (F ) = 1, diremos que el suceso F ocurre con probabilidad uno, o casi seguramente. Las propiedades a) y b) permiten deducir algunas reglas b asicas del c alculo de probabilidades: P (A B ) = P (A) + P (B ) si A B = P (Ac ) = 1 P (A) A B = P (A) P (B ). 2

Ejemplo 1 Lanzamos un dado. = {1, 2, 3, 4, 5, 6} F = P() (F contiene todos los subconjuntos de ) 1 P ({ i }) = , para i = 1, . . . , 6 6 Ejemplo 2 Elegimos un n umero al azar en el intervalo [0, 2]. = [0, 2], F es la - algebra de Borel (generada por los intervalos de [0, 2]). La probabilidad de cualquier intervalo [a, b] [0, 2] ser a P ([a, b]) = ba . 2

Se dice que un espacio de probabilidad (, F , P ) es completo si dado un suceso A de probabilidad cero, todos los subconjuntos de A pertenecen a la - algebra F . Un espacio de probabilidad siempre se puede completar substituyendo la - algebra F por una - algebra mayor formada por los conjuntos de la forma F A, donde F F y A es un subconjunto de un conjunto de F de probabilidad cero. Si U es una familia de subconjuntos de , la m as peque na - algebra que contiene a U es, por denici on, (U ) = {G , G es una - algebra, U G} , y se denomina la - algebra generada por U . Por ejemplo, la - algebra genn erada por los conjuntos abiertos (o por los rect angulos) de R se denomina n la - algebra de Borel de R y la representaremos por BRn . Ejemplo 3 Consideremos una partici on nita P = {A1 , . . . , An } de . La algebra generada por P est a formada por todas las uniones de los elementos de la partici on (2n en total). Una variable aleatoria es una aplicaci on R X ( ) que es F -medible, es decir, X 1 (B ) F , para todo conjunto B de la algebra de Borel de R. 3
X

Una variable aleatoria determina una - algebra {X 1 (B ), B BR } F que se denomina la - algebra generada por X . Una variable aleatoria determina una probabilidad en la - algebra de Borel BR denida por PX = P X 1 , es decir, PX (B ) = P (X 1 (B )) = P ({ : X ( ) B }) La probabilidad PX se denomina la ley o distribuci on de la variable X . Diremos que una variable aleatoria X tiene densidad de probabilidad fX si fX (x) es una funci on positiva, medible respecto de la - algebra de Borel y tal que
b

P (a < X < b) =
a

fX (x)dx,

para todo a < b. Las variables discretas (que toman un conjunto nito o numerable de valores distintos xk ) no tienen densidad y su ley est a determinada por la funci on de probabilidad : pk = P (X = xk ). Ejemplo 4 Una variable aleatoria tiene ley normal N (m, 2 ) si P (a < X < b) = 1 2 2
a b

(xm)2 2 2

dx

para todo par de n umeros reales a < b. Ejemplo 5 Una variable aleatoria tiene ley binomial B (n, p) si P (X = k ) = para k = 0, 1, . . . , n. La distribuci on de una variable aleatoria X puede caracterizarse mediante su funci on de distribuci on denida como la probabilidad acumulada: FX (x) = P (X x) = PX ((, x]) 4 n k p (1 p)nk , k

La funci on FX : R [0, 1] es creciente, continua por la derecha y con l mites iguales a cero en y 1 en +. Si la variable X tiene densidad fX , entonces,
x

FX (x) =

fX (y )dy,

y si la densidad es continua, FX (x) = fX (x). La esperanza matem atica de una variable aleatoria X se dene como la integral de X respecto de la probabilidad P , considerada como una medida en el espacio (, F ). En particular, si X es una variable elemental que toma los valores 1 , . . . , n en los conjuntos A1 , . . . , An , su esperanza valdr a
n

E (X ) =
i=1

i P (Ai ).

El c alculo de la esperanza de una variable aleatoria se efectua integrando la funci on x respecto de la ley de probabilidad de la variable. Es decir, si X es una variable que tiene esperanza (o sea E (|X |) < ) se tiene

E (X ) =

X ( )dP ( ) =

xdPX (x).

M as generalmente, si g : R R es una funci on medible respecto de la algebra de Borel y E (|g (X )|) < , entonces la esperanza de la variable g (X ) se puede calcular integrando la funci on g respecto de la ley de la variable X :

E (g (X )) =

g (X ( ))dP ( ) =

g (x)dPX (x).

La integral g (x)dPX (x) se calcula utilizando la densidad o funci on de probabilidad de la variable X :

g (x)dPX (x) =

g (x)fX (x)dx, fX (x) es la densidad de X X variable discreta k g (xk )P (X = xk ),

Ejemplo 6 Si X es una variable aleatoria con ley normal N (0, 2 ) y es un n umero real, E (exp (X )) = = = e 1 2 2 1 2 2 . e

2 2 2

ex e 22 dx

x2

(x 2 )2 2 2

dx

2 2 2

La varianza de una variable aleatoria X se dene por


2 2 2 2 X = Var(X ) = E ((X E (X )) ) = E (X ) [E (X )] .

La varianza nos mide el grado de dispersi on de los valores de la variable respecto de su esperanza. Por ejemplo, si X es una variable con ley normal N (m, 2 ) se tiene P (m 1.96 X m + 1.96 ) = P (1.96 = (1.96) (1.96) = 0.95, donde es la funci on de distribuci on de la ley N (0, 1). Es decir, la probabilidad de que la variable X tome valores en el intervalo [m 1.96, m + 1.96 ] es igual a 0.95. Diremos que X = (X1 , . . . , Xn ) es un vector aleatorio n-dimensional si sus componentes son variables aleatorias. La esperanza de un vector aleatorio n-dimensional X ser a el vector E (X ) = (E (X1 ), . . . , E (Xn )) La matriz de covarianzas de un vector aleatorio n-dimensional X es, por denici on, la matriz X = (cov(Xi , Xj ))1i,j n , donde cov(Xi , Xj ) = E [(Xi E (Xi )) (Xj E (Xj ))] . Es decir, los elementos de la diagonal de esta matriz son las varianzas de las variables Xj y fuera de la diagonal encontramos las covarianzas entre dos variables Xi y Xj . 6 X m 1.96)

Como en el caso de variables aleatorias se introduce la ley o distribuci on de un vector aleatorio n-dimensional X como la probabilidad denida en la - algebra de Borel BRn por PX (B ) = P (X 1 (B )) = P (X B ). Diremos que un vector aleatorio n-dimensional X tiene una ley normal N = (m, ), donde m Rn , y es una matriz sim etrica y denida positiva, si P (ai Xi bi , i = 1, . . . , n)
bn b1

=
an

a1

(2 det ) 2 e 2

Pn

1 i,j =1 (xi mi )(xj mj )ij

dx1 dxn .

En tal caso, se tiene, m = E (X ) y = X . Si la matrix es una matriz diagonal 2 1 . .. = . . . 0

0 . . . 2 n

entonces la densidad del vector X ser a el producto de n densidades normales unidimensionales:


n

fX (x1 , . . . , xn ) =
i=1

1 2 2 i

(xmi )2 2 2 i

Existen tambi en leyes normales degeneradas, en las que la matriz es singular. En este caso, no existe la densidad de probabilidad, y la ley de X queda determinada por su funci on caracter stica: 1 E eit X = exp it m t t , 2 donde t Rn . En esta f ormula t es un vector l nea (matriz 1 n) y t es un vector columna (matriz n 1). Si X es un vector normal n-dimensional con ley N (m, ) y A es una matriz m n, entonces AX es un vector normal m-dimensional con ley N (Am, AA ). 7

Diremos que una variable tiene media de orden p 1 si E (|X |p ) < . En tal caso, se dene el momento de orden p de la variable aleatoria X como mp = E (X p ). El conjunto de las variables que tienen media de orden p se representa por Lp (, F , P ). Sea X una variable aleatoria con funci on caracter stica X (t) = E (eitX ). Los momentos de la variable aleatoria puede calcularse a partir de las derivadas de la funci on caracter stica en el origen mn = 1 (n) (t)|t=0 . in X

Recordemos algunas desigualdades importantes en el c alculo de probabilidades: Desigualdad de Tchebychev: Si > 0 P (|X | > ) Desigualdad de Schwartz: E (XY ) Desigualdad de H older: E (XY ) [E (|X |p )] p [E (|Y |q )] q , donde p, q > 1 y
1 p
1 1

1 E (|X |p ). p

E (X 2 )E (Y 2 ).

1 q

= 1.

Desigualdad de Jensen: Si : R R es una funci on convexa tal que las variables X y (X ) tienen esperanza, entonces, (E (X )) E ((X )). En particular si (x) = |x|p , con p 1, tendremos |E (X )|p E (|X |p ). 8

Recordemos los diferentes modos de convergencia de una sucesi on de variables aleatorias Xn , n = 1, 2, 3, . . .: Convergencia casi segura: Xn X , si
n c.s.

lim Xn ( ) = X ( ),

para todo / N , donde P (N ) = 0. Convergencia en probabilidad: Xn X , si


n P

lim P (|Xn X | > ) = 0,

para todo > 0. Convergencia en media de orden p 1: Xn X , si


n L Lp

lim E (|Xn X |p ) = 0.

Convergencia en ley: Xn X , si
n

lim FXn (x) = FX (x),

para todo punto x de continuidad de la funci on de distribuci on FX .

La convergencia en media de orden p implica la convergencia en probabilidad ya que, debido a la desigualdad de Tchebychev tendremos P (|Xn X | > ) 1 E (|Xn X |p ). p

La convergencia casi segura implica la convergencia en probabilidad (esto es m as dif cil de demostrar). La convergencia casi segura implica la convergencia en media de orden p 1, si las variables aleatorias Xn est an acotadas por una variable aleatoria integrable Y (teorema de convergencia dominada ): |Xn | Y, E (Y ) < . 9

La convergencia en ley es diferente de los otros tipos de convergencia, ya que lo que nos interesa es la ley de las variables y no sus valores particulares. Un concepto fundamental en probabilidades es el de independencia. Dos sucesos A, B F se dicen independientes si P (A B ) = P (A)P (B ). Si tenemos una colecci on nita o innita de sucesos {Ai , i I }, diremos que los sucesos de la colecci on son independientes si P (Ai1 Aik ) = P (Ai1 ) P (Aik ) para todo conjunto nito de ndices {i1 , . . . , ik } I . Una colecci on de conjuntos de sucesos {Gi , i I } diremos que es independiente si cualquier colecci on de sucesos {Ai , i I } tal que Ai Gi para todo i I , es independiente. Una colecci on de variables aleatorias {Xi , i I } se dice que es independiente si la colecci on de - algebras Xi1 (BRn ), i I lo es. Esto signica que P (Xi1 Bi1 , . . . , Xik Bik ) = P (Xi1 Bi1 ) P (Xik Bik ), para todo conjunto nito de ndices {i1 , . . . , ik } I , donde los Bj son conjuntos de Borel. Si dos variables aleatorias reales X , Y son independientes y tienen esperanza nita, entonces el producto XY tiene esperanza nita y se cumple la relaci on E (XY ) = E (X )E (Y ) . M as generalmente, si las variables X1 , . . . , Xn son independientes, E [g1 (X1 ) gn (Xn )] = E [g1 (X1 )] E [gn (Xn )] , donde las gi son funciones medibles tales que E [|gi (Xi )|] < . Las componentes de un vector aleatorio son independientes s y solo s su densidad o funci on de probabilidad es igual al producto de las densidades o funciones de probabilidad de cada componente.

10

1.2

Procesos estoc asticos

Un proceso estoc astico es una familia de variables aleatorias reales {Xt , t 0} denidas en un espacio de probabilidad (, F , P ). El conjunto de par ametros [0, ) representa el tiempo y en algunos casos supondremos que es un intervalo acotado [0, T ], o el conjunto los n umeros naturales (procesos a tiempo discreto). Per cada , la aplicaci on t Xt ( ) se dnomina una trayectoria del proceso estoc astico. Si jamos un conjunto nito de instantes {0 t1 < < tn } tendremos un vector aleatorio (Xt1 , . . . , Xtn ) : Rn . Las distribuciones de probabilidad Pt1 ,...,tn = P (Xt1 , . . . , Xtn )1 se denominan las distribuciones en dimensi on nita del proceso. El siguiente teorema debido a Kolmogorov asegura la existencia de un proceso estoc astico asociado a una familia de distribuciones en dimensi on nita que satisfagan una condici on de compatibilidad. Teorema 1 Consideremos una familia de probabilidades {Pt1 ,...,tn , 0 t1 < < tn , n 1} tales que: 1. Pt1 ,...,tn es una probabilidad en Rn 2. (Condici on de compatibilidad): Si {0 s1 < < sm } {0 t1 < < tn }, entonces Pt1 ,...,tn 1 = Ps1 ,...,sm donde : Rn Rm es la proyecci on natural asociada a los dos conjuntos de ndices. Entonces, existe un proceso estoc astico {Xt , t 0} que tiene la familia {Pt1 ,...,tn } como distribuciones en dimensi on nita. 11

La media y la autocovarianza de un proceso estoc astico se denen como sigue: mX (t) = E (Xt ) X (s, t) = Cov(Xs , Xt ) = E ((Xs mX (s))(Xt mX (t)). La varianza del proceso X se dene por 2 X (t) = X (t, t) = Var(Xt ). Ejemplo 7 Consideremos el proceso estoc astico Xt = A cos( + t), donde A y son variables aleatorias independientes tales que E (A2 ) < y tiene ley uniforme en [0, 2 ]. En este caso, mX (t) = 0 1 X (s, t) = E (A2 ) cos (t s). 2 Se dice que un proceso estoc astico {Xt , t 0} es gaussiano o normal si sus distribuciones en dimensi on nita son leyes normales multidimensionales. Observamos que en el caso de un proceso gaussiano, la media mX (t) y la autocovarianza X (s, t) determinan las distribuciones en dimensi on nita del proceso. La media mX (t) y la varianza 2 X (t) nos permiten conocer donde se concentran los valores de la variable Xt as como su grado de dispersi on, para cada instante t jo. Por ejemplo, en el caso de un proceso gaussiano, P (mX (t) 2 X (t) Xt mX (t) + 2 X (t)) 0.95.

Notemos que la probabilidad de que las trayectorias del proceso est en comprendidas entre las curvas mX (t) 2 X (t) y mX (t) 2 X (t) es mucho m as dif cil de calcular. 12

Ejemplo 8 Consideremos un proceso gaussiano {Xt , t [0, 1]} tal que las variables aleatorias Xt son independientes y con ley N (0, 2 ). La media y autocovarianza de este proceso son mX (t) = 0 X (s, t) = 1 si s = t 0 si s = t

Se dice que un proceso estoc astico {Xt , t 0} es una versi on de otro proceso {Xt , t 0} si para cada t 0 P {Xt = Xt } = 1. Se dice tambi en que ambos procesos son equivalentes. Dos procesos equivalentes puede tener trayectorias diferentes (v ease el Ejercicio 1.6). Diremos que el proceso {Xt , t 0} es continuo en probabilidad si para todo > 0 y todo t 0 lim P (|Xt Xs | > ) = 0.
st

Consideremos un proceso estoc astico {Xt , t 0} tal que E (|Xt |p ) < , para todo t 0, donde p 1. Diremos que el proceso {Xt , t 0} es continuo en media de orden p si lim E (|Xt Xs |p ) = 0.
st

La continuidad en media de orden p implica la continuidad en probabilidad. Sin embargo, la continuidad en media de orden p no implica necesariamente la continuidad de las trayectorias. Ejemplo 9 El proceso de Poisson {Nt , t 0} es un proceso estoc astico caracterizado por la ssiguientes propiedades: i) Nt = 0, ii) Fijados n instantes 0 t1 < < tn los incrementos Ntn Ntn1 , . . . , Nt2 Nt1 , son variables aleatorias independientes, 13

iii) Si s < t, el incremento Nt Ns tiene una ley de Poisson de par ametro (t s), es decir P (Nt Ns = k ) = e(ts) k = 0, 1, 2, . . . Se puede construir un proceso de Poisson de la forma siguiente. Consideremos una sucesi on {Yn , n 1} de variables aleatorias independientes y con ley geom etrica de par ametro . Es decir, para todo x 0, P (Yn x) = ex . Pongamos T0 = 0 y para n 1, T n = Y1 + + Yn . Entonces, el proceso Nt denido por Nt = n si Tn t < Tn+1 es un proceso de Poisson de par ametro . Por consiguiente, las trayectorias del proceso de Poisson tienen saltos de amplitud 1 y son constantes en cada par de saltos. Los tiempos entre cada par de saltos son variables aleatorias independientes con leyes exponenciales de par ametro . Por tanto, las trayectorias no son continuas, aunque si que los son en media cuadr atica:

[(t s)]k , k!

E (Nt Ns )

=
k=1

(ts) k

[(t s)]k k!
st

= (t s) + [(t s)]2 0. Acotaciones adecuadas de los momentos de los incrementos del proceso, permiten deducir la continuidad de las trayectorias. Este es el contenido del siguiente criterio de continuidad, debido a Kolmogorov.

14

Proposici on 2 (Criterio de continuidad) Supongamos que un proceso estoc astico {Xt , t 0} cumple la condici on siguiente: E (|Xt Xs |p ) cT |t s| (1)

para todo 0 s < t T , donde a > 1 y p > 0. Entonces existe una versi on del proceso estoc astico Xt que tiene trayectorias continuas. Ejemplo 10 El proceso de Poisson no cumple la condici on (1). La condici on (1) nos permide adem as tener informaci on sobre la regularidad de las trayectorias. En efecto, jemos un intervalo de tiempo [0, T ]. Entonces, para cada > 0 existe una variable aleatoria G,T tal que, con probabilidad uno, |Xt ( ) Xs ( )| G,T ( )|t s| p , para todo s, t [0, T ]. Adem as, E (Gp ,T ) < para todo p 1.

(2)

1.3

Movimiento browniano

En 1828 el bot anico ingl es Robert Brown observ o que los granos de polen en suspensi on se mov an de forma irregular. Posteriormente se descubri o que este fen omeno es debido a los choques aleatorios de las part culas de polen con las mol eculas del l quido. En los a nos 20 Norbert Wiener present o un modelo matem atico para este movimiento basado en la teor a de los procesos estoc asticos. La posici on de una part cula en cada instante t 0 es un vector variable aleatorio 3-dimensional Bt . En el caso unidimensional la denici on del movimiento browniano como proceso estoc astico es la siguiente: Denici on 3 Un proceso estoc astico {Bt , t 0} es un movimiento browniano si se cumplen las condiciones siguientes: i) B0 = 0 ii) Fijados n instantes 0 t1 < < tn los incrementos Btn Btn1 , . . . , Bt2 Bt1 , son variables aleatorias independientes 15

iii) Si s < t, el incremento Bt Bs tiene una ley normal N (0, t s) iv) Las trayectorias del proceso son funciones continuas. Observaciones 1) El movimiento browniano es un proceso gaussiano. En efecto, la ley un vector aleatorio (Bt1 , . . . , Btn ) es normal ya que este vector es una transformaci on lineal del vector Bt1 , Bt2 Bt1 , . . . , Btn Btn1 que tiene ley normal ya que tiene las componentes independientes y normales. 2) La media y la autocovarianza del movimiento browniano se calculan facilmente: E (Bt ) = 0 E (Bs Bt ) = E (Bs (Bt Bs + Bs )) 2 = E (Bs (Bt Bs )) + E (Bs ) = s = min(s, t) si s t. Puede comprobarse f acilmente que si un proceso gaussiano tiene media cero y funci on de autocovarianza X (s, t) = min(s, t), entonces cumple las condiciones i), ii) y iii) de la Denici on anterior. astico que cumple las 3) Puede demostrarse que existe un proceso estoc condiciones anteriores. Para ello, se parte de sus distribuciones en dimensi on nita, que son leyes normales N (0, ) donde es la la matriz t1 t1 t1 t1 t2 t2 . . . . . .. . . . . . . t1 t2 tn El teorema de extensi on de Kolmogorov permite construir un proceso estoc astico jadas las distribuciones en dimensi on nita, siempre que sean compatibles, lo que aqu es cierto. Finalmente hay que demostrar que se pueden modicar las variables Bt conjuntos de probabilidad cero de forma que las trayectorias sean continuas. Para ello se aplica el criterio de continuidad de Kolmogorov. Como los incrementos Bt Bs tienen ley normal N (0, t s), para todo n umero entero k tendremos E (Bt Bs )2k = 16 (2k )! (t s)k . 2k k ! (3)

Por lo tanto, elegiendo k = 2, ya podemos asegurar que existe una versi on continua, ya que E (Bt Bs )4 = 3(t s)2 . on de movimiento bronwiano, se supone que el espacio de 4) En la denici probabilidad (, F , P ) es arbitrario. Sin embargo, mediante la aplicaci on C ([0, ), R) B ( ) podemos suponer que el espacio de probabilidad es el conjunto de las funciones continuas C ([0, ), R) con la - algebra de Borel (generada por los conjuntos abiertos relativos a la estructura de espacio m etrico separable y completo) y con una probabilidad igual a la ley del movimiento browniano: P B 1 . En tal caso las variables aleatorias son las evaluaciones (t) y este espacio de probabilidad se denomina espacio can onico. Regularidad de las trayectorias Queremos aplicar la desigualdad (2) al movimiento browniano. Eligiendo p = 2k y utilizando (3), tendremos = k . Por lo tanto, para todo > 0 existe una variable aleatoria G,T tal que |Bt Bs | G,T |t s| 2 ,
1

(4)

para cada s, t [0, T ]. Es decir, las trayectorias del movimiento Browniano son H older continuas de orden 1 para todo > 0. Intuitivamente, esto 2 signica que 1 Bt = Bt+t Bt (t) 2 . En media esta aproximaci on es exacta: E (Bt )2 = t. Variaci on cuadr atica del movimiento browniano Fijemos un intervalo de tiempo [0, t] y consideremos una subdivisi on de este intervalo 0 = t0 < t1 < < tn = t. 17

La norma de la subdivisi on se dene como | | = maxk tk , donde tk = tendremos tk tk1 . Pongamos Bk = Btk Btk1 . Entonces, si tj = jt n
n

|Bk |
k=1

t n

1 2

mientras que

(Bk )2
k=1

t = t. n

(5)

Esas propiedades pueden formularse de manera rigurosa como sigue: En primer lugar, puede demostrarse que las sumas de los cuadrados de los incrementos convergen en media cuadr atica hacia la longitud del intervalo de tiempo considerado:
n 2 n 2

E
k=1

(Bk ) t

= E
k=1 n

(Bk ) tk (Bk )2 tk
2

=
k=1 n

=
k=1 n

4 (tk )2 2 (tk )2 + (tk )2 (tk )2 3t| | 0.


k=1 | |0

= 3

Por otra parte, la variaci on total de las trayectorias del movimiento browniano, denida como
n

V = sup
k=1

|Bk |

es innita con probabilidad uno. En efecto, utilizando la continuidad de las trayectorias del movimiento browniano, tendremos
n n

(Bk ) sup |Bk |


k=1 k k=1

|Bk |
n k=1

V sup |Bk | 0
k

| |0

(6)

si V < , lo cual contradice que hacia t cuando | | 0.

(Bk )2 converja en media cuadr atica

18

Propiedad de autosimilitud Para todo n umero real a > 0, el proceso a1/2 Bat , t 0 es un movimiento browniano. En efecto, este proceso es normal, con media cero y funci on de autocovarianza igual a min(s, t).

Procesos relacionados con el movimiento browniano 1.- El puente browniano : Consideremos el proceso Xt = Bt tB1 , t [0, 1]. Se trata de un proceso normal centrado con funci on de autocovarianza E (Xt Xs ) = min(s, t) st, que verica X0 = 0, X1 = 0. 2.- El movimiento browniano con deriva: Consideremos el proceso Xt = Bt + t, t 0, donde > 0 y R son constantes. Se trata de un proceso normal con media y funci on de autocovarianza E (Xt ) = t, X (s, t) = 2 min(s, t) 3.- Movimiento browniano geom etrico: Es el proceso estoc astico propuesto por Black, Scholes y Merton como modelo para la curva de precios de los activos nancieros. Su denici on es la siguiente Xt = eBt +t , t 0, donde > 0 y R son constantes. Es decir, se trata de la exponencial de un movimiento browniano con deriva lineal.

19

Simulaci on del movimiento browniano El movimiento browniano puede considerarse como el l mite de los paseos aleatorios. Fijemos un intervalo de tiempo [0, T ]. Consideremos n variables aleatorias 1 , . . . , n independientes, id enticamente distribuidas, centradas y de varianza T . Formemos las sumas parciales n Rk = 1 + + k , k = 1, . . . , n. El Teorema Central del L mite nos dice que cuando n tiende a innito, la sucesi on Rn converge en ley hacia la ley N (0, T ). Consideremos ahora el proceso estoc astico continuo Sn (t) construido por interpolaci on lineal a partir de los valores Sn ( kT ) = Rk k = 0, . . . , n. n

T , 2T , 3n ,... Es decir, colocamos las sumas parciales R1 , R2 , . . . en los instantes T n n . Se verica una versi on funcional del Teorema Central del L mite, conocida con el nombre de Principio de Invariancia de Donsker, que nos dice que la sucesi on de procesos estoc asticos Sn (t) convege en ley hacia el movimiento browniano en [0, T ].

Tambi en puede hacerse una simulaci on de las trayectorias brownianas mediante series de Fourier con coecientes aleatorios. La representaci on de Paley-Wiener del movimiento browniano es t 2 Bt = Z 0 + 2

Zn
n=1

sin(nt/2) , t [0, 2 ], n

donde las Zn , n = 0, 1, . . . son variables aleatorias independientes y con ley N (0, 1). La serie converge uniformemente en [0, 2 ], para cada , casi seguramente. Para utilizar esta f ormula en la simulaci on de las trayectorias brownianas debemos elegir el n umero M de funciones trigonom etricas y el n umero N de puntos de discretizaci on de las funciones: tj 2 Z0 + 2
M

Zn
n=1

sin(ntj /2) , n

20

donde tj =

2j , N

j = 0, 1, . . . , N .

1.4

Esperanza condicionada

La probabilidad condicionada de un suceso A por un suceso B (suponiendo P (B ) > 0) se dene como P (A|B ) =
P (AB ) . P (B )

Vemos que A y B son independientes s y solo si P (A|B ) = P (A). La probabilidad condicionada P (A|B ) representa la probabilidad del suceso A suponiendo que sabemos que B ha ocurrido. La aplicaci on A P (A|B ) dene una nueva probabilidad en la - algebra F que se concentra en el conjunto B . Se puede calcular entonces la esperanza condicionada por B de una variable aleatoria integrable X : E (X |B ) = 1 E (X 1B ), P (B )

donde 1B representa la funci on indicatriz del suceso B denida por 1B ( ) = 1 si B 0 si /B

Un concepto m as complicado es el condicionamiento por una - algebra de sucesos. Consideremos una -` algebra B F y una variable aleatoria integrable X . Una variable aleatoria Z se denomina la esperanza condicionada de la variable X respecto de B , (escribiremos Z = E (X |B )), si cumple las dos propiedades siguientes: Z es medible respecto de B . Para todo suceso A B E (Z 1A ) = E (X 1A ) . 21

Puede demostrarse que la esperanza condicionada existe y es u nica casi seguramente, de manera que si Z fuese otra variable con las mismas propiedades, entonces Z = Z , P -casi seguramente. En el caso particular en que la - algebra B est a generada per una partici on nita {B1 , ..., Bm }, entonces E (X |B ) es una variable aleatoria elemental que en cada conjunto Bj toma el valor constante E (X |Bj ), es decir,
m

E (X |B ) =
j =1

E X 1Bj 1Bj . P (Bj )

Reglas para el c alculo de esperanzas condicionadas: Regla 1 La esperanza condicionada es lineal: E (aX + bY |B ) = aE (X |B ) + bE (Y |B ) Regla 2 La variable y su esperanza condicionada tienen la misma esperanza: E (E (X |B )) = E (X ) Esta propiedad es una consecuencia inmediata de la denici on, tomando A = . Regla 3 Si la variable aleatoria X y la - algebra B son independientes, entonces E (X |B ) = E (X ). En efecto, para todo suceso A B tendremos E (X 1A ) = E (X )E (1A ) = E (E (X )1A ). Regla 4 Si X es B -medible, entonces E (X |B ) = X . Regla 5 Si Z es una variable aleatoria acotada y B -medible, entonces E (ZX |B ) = ZE (X |B ). Es decir, las variables aleatorias B -medibles se comportan como constantes y pueden sacarse fuera de la esperanza condicionada. Regla 6 Si C B , entonces E (E (X |B )|C ) = E (E (X |C )|B ) = E (X |C ) 22

Regla 7 Consideremos dos variables aleatorias X y Z , tales que Z es B medible y X es independiente de B . Consideremos una funci on h(x, z ) tal que h(X, Z ) es integrable. Entonces, se tiene E (h(X, Z )|B ) = E (h(X, z )) |z=Z Es decir, primero calculamos la esperanza E (h(X, z )) para un valor arbitrario z de la variable Z y luego substituimos z por Z . La esperanza condicionada tiene propiedades similares a la esperanza ordinaria. Por ejempo se cumple la siguiente propiedad de monoton a: X Y E (X |B ) E (Y |B ), que implica la desigualdad |E (X |B ) | E (|X | |B ). Tambi en se cumple la desigualdad de Jensen: Si es una funci on convexa tal que E (|(X )|) < , entonces (E (X |B )) E ((X )|B ). (7) En particular, si tomamos (x) = |x|p con p 1, se obtiene |E (X |B )|p E (|X |p |B ), por lo tanto, tomando esperanzas, deducimos que si E (|X |p ) < , entonces, E (|E (X |B )|p ) < , y E (|E (X |B )|p ) E (|X |p ). Si la - algebra B est a generada por las variables aleatorias Y1 , . . . , Ym , entonces, la esperanza condicionada se representa por E (X |Y1 , . . . , Ym ) y es una cierta funci on g (Y1 , . . . , Ym ) de estas variables. En particular, si las variables X, Y1 , . . . , Ym tienen una ley conjunta con densidad f (x, y1 , . . . , ym ), entonces, la esperanza condicionada se puede calcular como la esperanza de la densidad condicionada: f (x|y1 , . . . , ym ) = es decir, E (X |Y1 , . . . , Ym ) =

f (x, y1 , . . . , ym )
+

f (x, y1 , . . . , ym )dy1 dym


+

xf (x|Y1 , . . . , Ym )dx. 23

En el caso en que la - algebra B est e generada por un conjunto innito de variables aleatorias {Yj }, escribiremos tambi en E (X |B ) = E (X | {Yj }), pero el c alculo no se puede efectuar mediante una f ormula como la anterior y necesitaremos utilizar las reglas que hemos introducido antes. Ejemplo 11 Consideremos un proceso de movimiento browniano {Bt , t 0}. Para cada instante t, denimos la - algebra Ft generada por las variables aleatorias {Bs , s t}. La - algebra Ft contiene la historia del movimiento browniano hasta el instante t. Esto quiere decir que: i) Los sucesos F de Ft ser an conocidos (se sabr a si han ocurrido o no) en el instante t. algebra ii) El valor de una variable aleatoria X ( ) medible respecto de la - Ft ser a una funci on de la trayectoria del movimiento browniano {Bs ( ), s [0, t]} . Observemos que Fs Ft si s t, es decir, la familia de - algebras {Ft , t 0} es creciente. Diremos que {Ft , t 0} es una ltraci on en el espacio de probabilidad (, F , P ). Queremos calcular E (Bt |Fs ) = E (Bt |Br , r s). Si s t, la variable Bt es Fs -medible, y por la Regla 4 obtenemos E (Bt |Fs ) = Bt . Si s < t, por la propiedad de linealidad (Regla 1): E (Bt |Fs ) = E (Bt Bs + Bs |Fs ) = E (Bt Bs |Fs ) + E ( Bs |Fs ). Como Bt Bs es independiente de Fs , la Regla 3 nos da E (Bt Bs |Fs ) = E (Bt Bs ) = 0, y, por lo tanto, obtenemos E (Bt |Fs ) = Bs . 24 (8)

El conjunto de las variables aleatorias Z que son medibles respecto de una - algebra B y que son de cuadrado integrable (E (Z 2 ) < ), lo representaremos por L2 (, B , P ). Puede demostrarse que L2 (, F , P ) es un espacio de Hilbert con el producto escalar Z, Y = E (ZY ), y que L2 (, B , P ) es un subespacio cerrado de L2 (, F , P ). En este contexto, si X es una variable tal que E (X 2 ) < , la esperanza condicionada E (X |B ) es la variable del espacio L2 (, B , P ) m as pr oxima a X en media cuadr atica: E (X E (X |B ))2 =
Z L2 (,B,P )

min

E (X Z )2 .

(9)

Es decir, E (X |B ) es la proyecci on de X en el subespacio L2 (, B , P ). Desde el punto de vista de la teor a de la estimaci on, la esperanza condicionada E (X |B ) es el mejor predictor de la variable X a partir de la - algebra B (estimador optimo). Demostraci on de (9): Sea X una variable tal que E (X 2 ) < . La desigualdad de Jensen para la esperanza condicionada (7) implica que E (X |B )
tambi en es de cuadrado integrable ya que

E (E (X |B ))2 E E (X 2 |B ) = E (X 2 ).
La regla 5 nos permite demostrar que la diferencia X E (X |B ) es ortogonal a L2 (, B , P ). En efecto, si Z es una variable de L2 (, B , P ) tendremos

E [(X E (X |B ))Z ] = E (XZ ) E (E (X |B )Z ) = E (XZ ) E (E (XZ |B )) = 0.


Finalmente, esta ortogonalidad implica que

E (X Y )2 = E (X E (X |B ))2 + E (E (X |B ) Z )2 ,
de lo que se deduce (9).

Ejercicios

25

1.1 Supongamos que {Hi , i I } es una familia de - algebras en un conjunto . Demostrar que H = {Hi , i I } es tambi en una - algebra. 1.2 Supongamos que X es una variable aleatoria real tal que M = E [exp(k |X |)] < para un cierto k > 0. Probar que P (|X | > ) M ek , para todo 0. 1.3 Sea (, F , P ) un espacio de probabilidad y consideremos una sucesi on de sucesos A1 , A2 , . . . tales que

P (Ak ) < .
k=1

Demostrar el lema de Borel-Cantelli:


P ( m=1 k=m Ak ) = 0,

es decir, la probabilidad que ocurran innitos sucesos de la sucesi on es nula. ormula 1.4 Sea Z una variable aleatoria con ley N (0, 2 ). A partir de la f E (eZ ) = e 2
1 2 2

y desarrollando en serie de potencias la funci on exponencial deducir que para todo k 1 (2k )! 2k , 2k k ! E (Z 2k1 ) = 0. E (Z 2k ) = 1.5 Sea Z una variable aleatoria con ley de Poisson de par ametro . Comprobar que la funci on caracter stica de Z vale Z (t) = exp eit 1 .

Como aplicaci on calcular E (Z 2 ), Var(Z ) y E (Z 3 ). 26

1.6 Sea (, F , P ) = ([0, ), B[0,) , ), donde es una probabilidad en [0, ) con funci on de distribuci on continua. Consideremos en este espacio de probabilidad los procesos estoc asticos Xt ( ) = Yt ( ) = 0. Comprobar que estos procesos tienen las mismas distribuciones en dimensi on nita, pero las trayectorias del proceso X son todas discontinuas. 1.7 Sea Bt un movimiento browniano. Fijemos un instante t0 0. Demostrar que el proceso Bt = Bt0 +t Bt0 , t 0 es tambi en un movimiento browniano. 1.8 Sea Bt un movimiento browniano 2-dimensional. Calcular P (|Bt | < ) donde > 0. 1.9 Sea Bt un movimiento browniano n-dimensional. Consideremos una matriz U cuadrada de dimensi on n, ortogonal (es decir, U U = I ). Demostrar que el proceso Bt = U Bt es tambi en un movimiento browniano. 1.10 Calcular la media y la autocovarianza del movimiento browniano geom etrico. Es un proceso gaussiano? 1 si t = 0 si t =

27

Integraci on estoc astica

Supongamos que {Bt , t 0} es un movimiento browniano denido en un espacio de probabilidad (, F , P ). Consideremos la familia creciente {Ft , t 0} de - algebras generadas por este proceso. Supondremos adem as que Ft contiene los conjuntos de probabilidad cero. Esto signica que Ft es la m nima - algebra que contiene los conjuntos de la forma {Bs A} N donde s [0, t], A pertenece a la - algebra de Borel BR , y N es un conjunto de probabilidad cero. Diremos que un proceso estoc astico {ut , u 0} es adaptado (a la familia de - algebras Ft ) si para cada t la variable aleatoria ut es Ft -medible. La inclusi on de los sucesos de probabilidad cero en cada - algebra Ft tiene las siguientes consecuencias interesantes: a) Toda versi on de un proceso adaptado es tambi en adaptado. b) La familia de - algebras es continua por la derecha, es decir, para todo t0 s>t Fs = Ft . Demostraci on de b): Consideremos las - algebras F t = {Br Bt , r s}. Si B s>t Fs , la - algebra generada por B y por Ft , es independiente de 1 t+ n F para todo n. Por tanto, (B, Ft ) ser a independiente de F t , y tendemos E (1B |Ft ) = E (1B |Ft F t ) = 1B ,
de lo que se deduce 1B Ft .

La - algebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto implica que las variables aleatorias F0 -medibles ser an constantes, casi seguramente. Nuestro objetivo es la denici on de integrales estoc asticas de la forma
T 0

ut dBt .

Una posibilidad consiste en utilizar la denici on de integral de Riemann Stieltjes: 28

Consideremos una partici on del intervalo [0, T ]: n : 0 = t0 < t1 < < tn1 < tn = T as como una partici on intermedia: n : ti si leqti+1 , i = 0, . . . , n 1.

Dadas dos funciones f y g en el intervalo [0, T ], la integral de Riemann T Stieltjes 0 f dg se dene como el l mite
n n n

lim

f (si1 )gi
i=1

cuando supi (ti ti1 ) 0, suponiendo que este l mite existe y es independiente de la sucesi on de particiones n y de sus particiones intermedias n , con la notaci on gi = g (ti ) g (ti1 ). T Se sabe que la integral de Riemann Stieltjes 0 f dg existe si la funci on f es continua y la funci on g tiene variaci on total acotada, es decir: sup
i

|gi | < .

Como las trayectorias del movimiento browniano tienen variaci on total innita (v ease (6)) no podemos utilizar este criterio para asegurar que la T integral de Riemann-Stieltjes 0 ut ( )dBt ( ) existe para cada , si u es un proceso arbitrario con trayectorias continuas. Obsevemos, si embargo, que si las trayectorias del proceso u son diferenciables con derivadas acotadas, entonces, la integral de Riemann StieltT jes 0 ut ( )dBt ( ) existe y puede calcularse mediante una integraci on por partes:
T 0

ut dBt = uT BT

T 0

ut Bt dt.
T

En este apartado presentaremos una construcci on de la integral 0 ut dBt mediante un procedimiento global de tipo probabil stico. En primer lugar deniremos la clase de procesos que integraremos: Designaremos por L2 asticos a,T el conjunto de los procesos estoc u = {ut , t [0, T ]} tales que: 29

a) Para cada t [0, T ], la aplicaci on (s, ) us ( ) denida en [0, t] es medible respecto de la - algebra producto B[0,t] Ft . b) E
T 0

u2 t dt < .

Un proceso que verica la condici on a) se dice que es progresivamente medible. En general, que un proceso estoc astico u sea medible signica que la funci on de dos variables (s, ) us ( ) es medible en la - algebra producto B[0,T ] F . La propiedad a) require la medibilidad de la restricci on del proceso u a cada conjunto [0, t] . Esta propiedad implica que el proceso u sea adaptado, ya que si una funci on es medible en un espacio producto, al jar una coordenada resulta medible como funci on de la segunda coordenada. Por otra parte, la propiedad a) es esencial para garantizar que variables aleatorias t del tipo 0 us ds sean Ft -medibles. La condici on b) signica que el momento de segundo orden es integrable en [0, T ], ya que, el teorema de Fubini nos permite escribir
T

E
0

u2 t dt

=
0

E u2 t dt.

La propiedad b) nos dice que el proceso u como funci on de las dos variables 2 (t, ) pertenece al espacio L ([0, T ] ). T Deniremos la integral estoc astica 0 ut dBt para procesos u de la clase L2 mite en L2 () de la integral de procesos elementales. Por a,T como el l denici on un proceso u de L2 a,T es elemental si se puede expresar de la forma
n

ut =
j =1

j 1(tj1 ,tj ] (t),

(10)

donde 0 = t0 < t1 < < tn = T y las j son variables aleatorias de cuadrado integrable Ftj1 -medibles. Si u es un proceso elemental de la forma (10) se dene la integral estoc astica de u respecto del movimiento browniano B como
T n

ut dBt =
0 j =1

j Bt j Bt j 1 .

(11)

30

La integral estoc astica denida en el espacio E de los procesos elementales tiene las siguiente propiedad de isometria: E
T 0

ut dBt

=E

T 0

u2 t dt

(12)

Demostraci on de la isometr a: Pongamos Bj = Btj Btj1 . Entonces E i j Bi Bj = E 2 j 0 si i = j (tj tj 1 ) si i = j

ya que si i < j las variables aleatorias i j Bi y Bj son independientes y si 2 i = j las variables aleatorias 2 i y (Bi ) son independientes. Por lo tanto se obtiene
T 2 n n

E
0

ut dBt

=
i,j =1

E i j Bi Bj =
i=1 T

E 2 i (ti ti1 )

= E
0

u2 t dt .

L2 a,T

La extensi on de la integral estoc astica a todos los procesos de la clase se basa en el siguiente resultado de aproximaci on:

Lema 4 Si u es un proceso de la clase L2 on de procesos a,T existe una sucesi (n) elementales u tales que
T n

lim E
0

ut ut

(n)

dt

= 0.

(13)

Demostraci on: La demostraci on de este resultado la haremos en dos etapas:


atica. En tal caso, 1. Supongamos que el proceso u es continuo en media cuadr podemos tomar la sucesi on aproximadora
n

ut

(n)

=
j =1

utj1 1(tj1 ,tj ] (t),

31

. La continuidad en media cuadr atica del proceso u nos siendo tj = jT n garantiza que
T

E
0

ut ut

(n)

dt

=
0

E sup

ut ut

(n)

dt

E |ut us |2

|ts|T /n

converge hacia cero cuando n tiende a innito.

2. Supongamos que u es un proceso arbitrario de la clase L2 a,T . En tal caso, (n) existe una sucesi on de procesos v , pertenecientes a la clase L2 a,T , continuos
en media cuadr atica y tales que
T n

lim E
0

ut v t

(n)

dt

= 0.

(14)

En efecto, denimos

vt

(n)

=n
1 t n

us ds = n
0

us ds
0

us 1 ds ,
n

con la convenci on u(s) = 0 si s < 0. Estos procesos son continuos en media cuadr atica (tambi en tienen trayectorias continuas), y pertenecen a la clase L2 , debido a la propiedad a). Adem as se cumple (14) ya que para cada a,T (t, ) tenemos
T 0

u(t, ) v (n) (t, ) dt 0

(v ease Ejercicio 2.1), y podemos aplicar de nuevo el teorema de convergencia dominada en el espacio producto [0, T ] ya que
T 0

v (n) (t, ) dt
0

|u(t, )|2 dt.

astica se Denici on 5 Si u es un proceso de la clase L2 a,T , la integral estoc dene como el l mite en L2 ()
T T

ut dBt = lim
0

ut dBt ,

(n)

(15)

donde u(n) es una sucesi on de procesos elementales tales que cumplen (13). 32

Que el l mite (15) existe es debido a que la sucesi on de variables aleatoT (n) 2 rias 0 ut dBt es de Cauchy en el espacio L (), debido a la propiedad de isometr a (12):
T

E
0

ut dBt

(n)

T 0

ut dBt

(m)

= E
0 T

ut ut
(n)

(n)

(m)

dt

2E
0 T

ut ut ut ut

dt
2

+2E
0

(m)

dt

n,m

0.

Tambi en puede demostrarse que el l mite (15) no depende de la sucesi on u(n) siempre que esta sucesi on cumpla (13). La integral estoc astica tiene las siguientes propiedades importantes: 1.- Isometr a: E
0 T 2 T

ut dBt

=E
0

u2 t dt .

2.- Media cero: E


0

ut dBt

= 0.

3.- Linealidad:
T T T

(aut + bvt ) dBt = a


0 0 T 0

ut dBt + b
0

vt dBt .

4.- Localidad: Se cumple G=


T 0

ut dBt = 0 casi seguramente, en el conjunto

u2 t dt = 0 .

La propiedad de localidad es una consecuencia de que en el conjunto G la sucesi on aproximadora


n (n,m,N ) ut

=
j =1

(j 1)T n (j 1)T n 1 m

us ds 1( (j1)T , jT ] (t) n n

se anula. 33

Ejemplo 12
0

1 2 1 T. Bt dBt = BT 2 2

Como el proceso Bt es continuo en media cuadr atica podemos tomar como sucesi on aproximadora
n

ut donde tj =
T jT , n

(n)

=
j =1

Btj1 1(tj1 ,tj ] (t),

y tendremos
n

Bt dBt =
0

lim

Btj1 Btj Btj1


j =1 n 2

1 1 2 2 lim Bt Bt lim Bt j Bt j 1 = j j 1 2 n 2 n j =1 = 1 2 1 B T. 2 T 2

(16)

Si xt es una funci on derivable, las reglas del c alculo diferencial e integral nos dicen que T T 1 2 xt dxt = xt xt dt = x x2 0 . 2 T 0 0 Observemos que en el caso del movimiento browniano nos aparece un t ermino 1 adicional igual a 2 T . Ejemplo 13 Consideremos una funci on determinista g tal que 0 g (s)2 ds < T . En este caso, la integral estoc astica 0 gs dBs es una variable aleatoria con ley normal
T T

N (0,
0

g (s)2 ds).

34

2.1

Integrales estoc asticas indenidas

Consideremos un proceso u de la clase L2 en a,T . El proceso u1[0,t] tambi 2 pertenece a La,T , y por lo tanto, podemos denir su integral:
t T

us dBs :=
0 0

us 1[0,t] (s)dBs .

De esta forma hemos construido un nuevo proceso estoc astico


t

us dBs , 0 t T
0

que es la integral indenida del proceso u respecto de B . En este apartado estudiaremos las propiedades de las integrales indenidas. En primer lugar, debido a la linealidad de la integral estoc astica, tenemos la propiedad de aditividad siguiente:
b c c

us dBs +
a b

us dBs =
a

us dBs ,

si a b c. Si a < b y A es un suceso de la - algebra Fa entonces,


b b

1A us dBs = 1A
a a

us dBs .

En realidad la igualdad es cierta si en lugar de 1A tomamos cualquier variable acotada y Fa -medible. Una propiedad importante de las integrales indenidas es la propiedad de martingala. Denici on 6 Un proceso estoc astico {Mt , t 0} diremos que es una martingala respecto de una familia creciente de - algebras {Mt , t 0}, contenidas en F , si se cumplen las propiedades siguientes: (i) Mt es medible respecto de Mt , para todo t 0. (ii) E (|Mt |) < para todo t 0. (iii) E (Mt |Ms ) = Ms , si s t. 35

La propiedad (iii) puede expresarse de forma equivalente como sigue E (Mt Ms |Ms ) = 0 y ello signica que la esperanza condicionada de los incrementos de una martingala es cero. Las martingalas se introduden para modelizar las ganancias de un jugador que juega una partida equitativa en un juego de azar. En hecho de que la ganancia esperada tenga valor medio cero representa el car acter equitativo del juego. De forma an aloga se puede introducir el concepto de martingala para un proceso {Mt , 0 t T } respecto de una familia creciente de - algebras {Mt , 0 t T }. En tal caso, la propiedad de martingala nos dice que Mt = E (MT |Mt ). Fij emonos en que la variable terminal MT determina la martingala ya que las variables Mt se obtinenen tomando la esperanza condicionada de MT respecto de la familia creciente de - algebras. Como consecuencia de la propiedad de martingala tendremos que la esperanza de una martingala es consante: E (Mt ) = E (M0 ).

Ejemplo 14 Si Bt es un movimiento browniano y Ft es la ltraci on generada por Bt , entonces, los procesos: Bt 2 Bt t a2 t ) 2 son martingalas. En efecto, la propiedad de martingala de Bt ya ha sido 2 demostrada en (8). Para Bt t, la propiedad de martingala se deduce del siguiente c alculo de esperanzas condicionadas, si s < t exp(aBt
2 E (Bt |Fs ) = E ((Bt Bs + Bs )2 |Fs ) = E ((Bt Bs )2 |Fs ) + 2E ((Bt Bs ) Bs |Fs ) 2 +E (Bs |Fs ) 2 = E (Bt Bs )2 + 2Bs E ((Bt Bs ) |Fs ) + Bs 2 = t s + Bs .

36

Finalmente, para el proceso exp(aBt E (eaBt


a2 t 2

a2 t ) 2

tendremos
a2 t 2

|Fs ) = eaBs E (ea(Bt Bs ) = eaBs E (e = eaBs e


2 a2 (ts) a2 t 2

|Fs ) )
a2 s 2

2 a(Bt Bs ) a2 t

= eaBs

Las martingalas con trayectorias continuas cumplen la desigualdad fundamental siguiente debida a Doob: Desigualdad de Doob: Supongamos que {Mt , 0 t T } es una martingala con trayectorias continuas. Entonces, para todo p 1 y todo > 0 se cumple 1 P sup |Mt | > p E (|MT |p ). 0tT Obsevamos que se trata de una generalizaci on de la desigualdad de Tchebychev. Como consecuencia de la desigualdad de Doob puede demostrarse que las integrales estoc asticas indenidas tienen trayectorias continuas. Proposici on 7 Supongamos que u es un proceso de la clase L2 a,T . Entonces, t la integral estoc astica 0 us dBs tiene una versi on con trayectorias continuas. Demostraci on: Consideremos una sucesi on de procesos elementales u(n) tal
que
n T

lim E
0

ut ut

(n)

dt

= 0.

Pongamos
t

I (t) =
0 t

us dBs ,
(n) us dBs .

In (t) =
0

El proceso In tiene trayectorias continuas y es una martingala respecto de la familia creciente de - algebras Ft . En efecto, si s < t y j es el valor del proceso

37

estoc astico u(n) cada el intevalo (tj 1 , tj ] tendremos

E (In (t) In (s)|Fs ) = E


stj 1 tj t

j Bj |Fs E E j Bj |Ftj1 |Fs

=
stj 1 tj t

=
stj 1 tj t

E j E Bj |Ftj1 |Fs = 0.

Por consiguiente, la diferencia In Im ser a una martingala, y la desigualdad de Doob con p = 2 nos permite escribir

0tT

sup |In (t) Im (t)| >

1 E |In (T ) Im (T )|2 2 T 2 1 (n) (m) ut ut dt = 2E 0

n,m

0.

Podemos elegir una sucesi on creciente de n umeros naturales nk , k = 1, 2, . . . tal que

0tT

sup |Ink+1 (t) Ink (t)| > 2k

2k .
tienen probabilidades

Los sucesos Ak := sup0tT |Ink+1 (t) Ink (t)| > 2k que forman una serie convergence, es decir,

P (Ak ) < .
k=1

El lema de Borel-Cantelli nos dice que la probabilidad de que ocurra un n umero innito de estos sucesos es cero. Por lo tanto, existe un suceso N de probabilidad cero tal que para todo / N podemos encontrar un ndice k1 ( ) tal que si k

k1 ( )

0tT

sup |Ink+1 (t, ) Ink (t, )| 2k .

Por lo tanto, si / N , la sucesi on Ink (t, ) es uniformemente convergente en [0, T ] hacia una funci on continua Jt ( ). Por otra parte, sabemos que para cada t atica hacia 0 us dBs . Por consiguiente, t [0, T ], Ink (t) converge en media cuadr

38

Jt ( ) =

integral indenida tiene una versi on con trayectorias continuas.

t 0

us dBs casi seguramente, para todo t [0, T ], y ello nos dice que la
t

La integral indenida Mt = 0 us dBs es una martingala respecto de la familia de - algebras Ft y se cumple la desigualdad siguiente, para todo > 0, T 1 P sup |Mt | > 2 E (17) u2 t dt . 0tT 0 En efecto, la propiedad de martingala de 0 us dBs de deduce de la propiedad t (n) de martingala de las integrales indenidas 0 us dBs que hemos obtenido en la demostraci on anterior. La desigualdad (17) se deduce de la desigualdad de Doob y de la propiedad de isometr a de la integral estoc astica. t La martingala Mt = 0 us dBs tiene trayectorias continuas, pero son irregulares como las del movimiento browniano. En particular, las trayectorias de las integrales indenidas tienen variaci on cuadr atica nita como nos dice la propiedad siguiente: Proposici on 8 (Variaci on cuadr atica ) Sea u un proceso de la clase L2 a,T . Entonces,
n tj 2 t

us dBs
j =1 t j 1

L1 ()

t 0

u2 s ds

cuando n tiende a innito, donde tj =

jt . n

Demostraci on: Observemos en primer lugar que si el proceso u es elemental, el resultado es una consecuencia de la propiedad de variaci on cuadr atica del movimiento browniano. En efecto, en cada intervalo (a, b] donde u toma el valor constante aparecer a una contribuci on del tipo

2
atj 1 tj b

(Bj )2 2 (b a) .

Supongamos que u es un proceso arbitrario de la clase L2 on a,T . Existe una sucesi (k ) u de procesos elementales tal que
T k

lim E
0

ut ut

(k)

dt

= 0.

39

Utilizando la notaci on
n tj 2

Vn (u) =
j =1 tj 1

us dBs

tendremos
t

Vn (u)
0

u2 s ds

E +E +E

Vn (u) Vn (u(k) ) Vn (u(k) )


0 t 0 k) 2 u( s t k) u( s t 2

ds .

ds
0

u2 s ds

El primer sumando puede acotarse como sigue, utilizando la desigualdad de Schwartz y la isometr a de la integral estoc astica:

E = E

Vn (u) Vn (u(k) )
n tj tj 1 k) us + u( dBs s tj t j 1 1/2 1/2 k) us u( dBs s

j =1

E Vn (u + u(k) ) E Vn (u u(k) )
t

E
0

us +

k) 2 u( s

ds E
0

us

k) 2 u( s

ds

Observemos que la acotaci on obtenida no depende de n y converge hacia cero cuando k tiende a innito. Por tanto, jado > 0 existe un k0 tal que
t

Vn (u)
0

u2 s ds

+E

Vn (u )
0

(k)

k) u( s

ds

para todo k k0 y para todo n. Finalmente basta tomar el l mite n .

2.2

Tiempos de paro

Un tiempo de paro relativo a una familia creciente de - algebras {Ft , t 0} es una variable aleatoria : [0, ] 40

tal que para todo t 0, { t} Ft . Es decir, podemos decidir si nos paramos o no antes de un instante t a partir de la informaci on contenida en Ft . Ejemplo 15 El tiempo de llegada de un proceso continuo y adaptado {Xt , t 0} a un nivel a denido como a := inf {t > 0 : Xt = a} es un tiempo de paro. En efecto, { a t} = sup Xs a = sup
0st,s

0st

Xs a

Ft .

M as generalmente, el tiempo de llegada de un proceso n-dimensional continuo y adaptado {Xt , t 0} a un conjunto de Borel U de Rn es un tiempo de paro siempre que la familia de - algebras {Ft , t 0} sea continua por la derecha. Podemos asociar a todo tiempo de paro la - algebra F formada por los conjuntos G tales que G { t} F t para todo t 0. Los tiempos de paro satisfacen las dos propiedades siguientes: Si {Mt , t [0, T ]} es una martingala continua y y es un tiempo de paro acotado por T , entonces E (MT |F ) = M . (19) (18)

Si u es un proceso de la clase L2 a,T y es un tiempo de paro acotado por T , el proceso u1[0, ] tambi en pertenece a L2 on a,T y se verica la relaci siguiente:
T

ut 1[0, ] (t)dBt =
0 0

ut dBt .

(20)

41

Demostraci on de (20): La demostraci on se har a en dos etapas: 1. Supongamos primero que el proceso u es de la forma ut = F 1(a,b] (t), donde 0 a < b T y F L2 (, Fa , P ). Los tiempos de paro n (i1)T iT iT i i n = 2 < 2 forman una , donde ti n n = 2n , An = i=1 tn 1Ai n 2n sucesi on decreciente que converge hacia . Para cada n tendremos
n

ut dBt = F (Bb n Ba n )
0 T 0 2n T

ut 1[0, n ] (t)dBt =
i=1 2n

Ai n

i (t)F dBt 1(ati n ,btn ]

=
i=1

1Ai F (Bbti Bati ) n n n

= F (Bb n Ba n ).
Tomando el l mite cuando n tiende a innito se deduce la igualdad en el caso de un proceso elemental.

2. En el caso general, basta con aproximar el proceso u por procesos elementales. La convergencia del miembro de la derecha de (20) se deduce de la desigualdad maximal de Doob.

La siguiente aplicaci on de los tiempos de parada permite el c alculo de la ley del instante de llegada del movimiento browniano a un cierto nivel.

Ejemplo 16 Sea Bt un movimiento browniano y Ft la ltraci on generada por Bt . Consideremos el tiempo de paro a = inf {t 0 : Bt = a}, donde a > 0. Consideremos la martingala Mt = eBt E (Mt ) = E (M0 ) = 1. La propiedad (19) nos permite obtener E (M a N ) = 1, 42
2 t 2

que cumple

para todo N 1. Observemos que M a N = exp B a N Por otra parte, limN M a N = M a si a < limN M a N = 0 si a = y el teorema de convergencia dominada implica E 1{ a <} M a = 1, es decir E 1{ a <} exp Haciendo 0 obtenemos P ( a < ) = 1 , y, por consiguiente E Con el cambio de variable 2 a exp 2
2 2

2 ( a N ) 2

ea .

2 a 2

= ea .

= ea .

= , tendremos
2a

E ( exp ( a )) = e

(21)

A partir de esta expresi on puede calcularse la densidad de probabildad de la variable a : 2 t aea /2s P ( a t ) = ds. 2s3 0 Por otra parte, la esperanza de a puede obtenerse calculando la derivada en = 0 de la expresi on (21): ae E ( a exp ( a )) = y haciendo 0 se obtiene E ( a ) = +. 43
2a

2.3

Extensiones de la integral estoc astica


T

La integral estoc astica de It o 0 us dBs puede denirse para clases de procesos mas amplias que L2 . a,T A) En primer lugar, podemos substituir la familia creciente de - algebras Ft por una familia mayor Ht tal que el movimiento browniano Bt sea una martingala respecto de Ht . En efecto, en todas las demostraciones anteriores solo se ha utilizado la propiedad E (Bt Bs |Fs ) = 0. Como ejemplo de esta situaci on, consideremos el caso en que Ft es la familia creciente de - algebras generadas por un movimiento browniano n-dimensional Bt . Cada componente Bk (t) es una martingala respecto de (n) (n) Ft , pero Ft no es la familia de - algebras generada por Bk (t). De esta forma, con la extensi on indicada antes, se pueden denir integrales como
T (n)

B2 (s)dB1 (s),
0 T 0 2 2 sin(B1 (s) + B1 (s))dB2 (s). T 0

B) La segunda extensi on consiste en substituir la propiedad E por la hip otesis m as d ebil siguiente: b) P
T 0

u2 t dt <

u2 t dt < = 1.

La clase de procesos que cumplen las propiedades a) y b) la designaremos por La,T . Extenderemos la integral estoc astica a la clase La,T mediante un argumento de localizaci on. Consideremos un proceso estoc astico u de La,T . Para cada n 1 denimos el tiempo de paro
t

n = inf t 0 :
0 T

u2 s ds = n ,

(22)

donde suponemos que n = T si 0 u2 s ds < n. De esta forma tendremos una sucesi on creciente de tiempos de paro tal que n T . Adem as,
t

t < n
0

u2 s ds < n.

44

Los procesos pertenecen a L2 a,T ya que E conjunto {t n } se cumple


t 0

ut

(n) T 0

= ut 1[0, n ] (t) us
(n) 2

ds

n. Para cada n m, en el

n) u( s dBs =

t 0

m) u( s dBs

ya que las trayectorias en el intervalo [0, t] de los procesos u(n) y u(m) coinciden en este conjunto. Por consiguiente, existir a un proceso continuo y adaptado t que denotaremos por 0 us dBs tal que
t 0 (n) us dBs t

=
0

us dBs

si t n . La integral estoc astica de procesos de la clase La,T satisface las propiedades de linealidad y continuidad de trayectorias de la integral indenida. En cambio, la integral de procesos de la clase La,T puede no tener esperanza ni varianza nitas. Proposici on 9 Consideremos un proceso u La,T . Para todo K, > 0 se cumple la desigualdad siguiente:
T T

P
0

us dBs K

P
0

u2 s ds +

. K2

Demostraci on: Consideremos el tiempos de paro denido por


t

n = inf t 0 :
0

u2 s ds = ,

con la convenci on n = T si
T

T 0

u2 s ds < .Tendemos
T

P
0

us dBs K

P
0

u2 s ds
T T

+P
0

us dBs K,
0

u2 s ds < ,

45

por otra parte


T T

P
0

us dBs K,
0

u2 s ds

<

= P
0

us dBs K, = T us dBs K, = T
0 2

= P 1 E K2 = 1 E K2

us dBs
0 0

u2 s ds

. K2

Como consecuencia de la proposici on anterior, si u(n) es una sucesi on de procesos de la clase La,T que converge hacia un proceso u La,T en probabilidad:
T 0 n) u( s us 2

ds 0
T

entonces,
0

n) u( s dBs

us dBs .
0

2.4

F ormula de It o

La f ormula de It o es la versi on estoc astica de la cl asica regla de la cadena en el c alculo diferencial ordinario. Consideremos el ejemplo
t 0

1 2 1 Bs dBs = Bt t, 2 2
t

que podemos escribir en la forma


2 = Bt

2Bs dBs + t.
0

Podemos comprobar que la igualdad es cierta tomando esperanzas y uti2 ) = t. En lizando la propiedad de media nula de la integral estoc astica: E (Bt notaci on diferencial podemos escribir
2 dBt = 2Bt dBt + dt.

46

2 Vemos que el proceso estoc astico Bt es la suma de una integral estoc astica y de una funci on diferenciable. M as generalmente cualquier funci on f (Bt ), donde f es dos veces continuamente diferenciable, puede expresarse como una suma de una integral estoc astica y de un proceso con trayectorias diferenciables. Esto nos lleva a introducir la noci on de proceso de It o que ser a una suma de una integral estoc astica m as una integral ordinaria. La clase de los procesos de It o ser a invariante por transformaciones funcionales regulares. Designaremos por L1 a,T la clase de los procesos v que satisfacen las propiedades a) y

b) P

T 0

|vt | dt < = 1.
t t

Denici on 10 Un proceso de It o Xt ser a un proceso estoc astico de la forma Xt = X0 +


0

us dBs +
0

vs ds,

(23)

donde u pertenece a la clase La,T y v pertenece a la clase L1 a,T . En notaci on diferencial escribiremos dXt = ut dBt + vt dt. Teorema 11 (F ormula de It o) Supongamos que X es un proceso de It o de la forma (23). Sea f (t, x) una funci on dos veces derivable respecto de la variable x y una vez respecto de la variable t, con todas las derivadas parciales continuas (diremos que f es de clase C 1,2 ). Entonces el proceso Yt = f (t, Xt ) es tambi en un proceso de It o con la representaci on Yt
t f f = f (0, X0 ) + (s, Xs )ds + (s, Xs )us dBs 0 t 0 x t f 1 t 2f + (s, Xs )vs ds + (s, Xs )u2 s ds. 2 2 0 x 0 x t

1.- En notaci on diferencial la f ormula de It o puede escribirse de la forma df (t, Xt ) = f f 1 2f (t, Xt )dt + (t, Xt )dXt + (s, Xs ) (dXt )2 , t x 2 x2 dBt dt 47 dBt dt 0 dt 0 0

donde (dXt )2 se calcula mediante la convenci on

2.- El proceso Yt es un proceso de It o con la representaci on


t t

Yt = Y0 +
0

us dBs +
0

vs ds,

donde Y0 = f (0, X0 ), f ut = (t, Xt )ut , x f 1 2f f (t, Xt ) + (t, Xt )vt + (t, Xt )u2 vt = t. t x 2 x2 3.- En el caso particular ut = 1, vt = 0, X0 = 0, el proceso Xt es precisamente el movimiento browniano Bt , y la f ormula de It o adopta la expresi on m as simple siguiente
t

f (t, Bt ) = f (0, 0) +
0

f (s, Bs )dBs + x

t 0

f (s, Bs )ds t

1 + 2

t 0

2f (s, Bs )ds. x2

4.- En el caso particular en que la funci on f no depende del tiempo se obtiene la f ormula
t t

f (Xt ) = f (0) +
0

f (Xs )us dBs +


0

f (Xs )vs ds +

1 2

t 0

f (Xs )u2 s ds.

La f ormula de It o se deduce del desarrollo de Taylor hasta el orden dos. Indicaremos seguidamente, de forma heur stica, las ideas principales que conducen a la f ormula de It o. Supongamos v = 0. Fijemos un instante de tiempo t > 0. Consideremos los instantes tj = jt . La f ormula de Taylor hasta el segundo n orden nos da
n

f (Xt ) f (0) =
j =1 n

f (Xtj ) f (Xtj1 ) 1 f (Xtj1 )Xj + 2 48


n

=
j=

f (X j ) (Xj )2 ,
j =1

(24)

donde Xj = Xtj Xtj1 y X j es un valor comprendido entre Xtj1 y Xtj . El primer sumando de la expresi on anterior converge en probabilidad t hacia 0 f (Xs )us dBs , mientras que el segundo sumando converge en probat bilidad hacia 1 f (Xs )u2 s ds. 2 0 Veamos algunos ejemplos de aplicaci on de la f omula de It o. Ejemplo 17 Si f (x) = x2 y Xt = Bt , tendremos
2 =2 Bt t

Bs dBs + t,
0

ya que f (x) = 2x y f (x) = 2. Ejemplo 18 Si f (x) = x3 y Xt = Bt , tendremos


3 Bt =3 t 0 2 Bs dBs + 3 t

Bs ds,
0

ya que f (x) = 3x2 y f (x) = 6x. M as generalmente, si n 2 es un n umero natural, t n(n 1) t n2 n 1 n Bs dBs + Bs ds. Bt =n 2 0 0

Ejemplo 19 Si f (t, x) = eax 2 t , Xt = Bt , y Yt = eaBt 2 t , tendremos


t

a2

a2

Yt = 1 + a
0

Ys dBs

ya que

f 1 2f + = 0. (25) t 2 x2 Este importante ejemplo nos permite deducir las observaciones siguientes: 1.- Si una funci on f (t, x) satisface la igualdad (25), entonces, el proceso estoc astico f (t, Bt ) ser a una integral estoc astica indenida (m as un 49

t ermino constante), y por lo tanto, ser a una martingala, suponiendo que f satisface la propiedad:
t

E
0

f (s, Bs ) x

ds <

2.- La soluci on de la ecuaci on diferencial estoc astica dYt = aYt dBt no es Yt = eaBt , como en el caso del c alculo diferencial ordinario, sino 2 aBt a t 2 . Yt = e Como consecuencia de la f ormula de It o, podemos deducir la siguiente f ormula de integraci on por partes : Supongamos que f (t) es una funci on continuamente diferenciable en [0, T ]. En tal caso tendremos
t t

fs dBs = f (t)Bt
0 0

Bs fs ds.

En efecto, aplicando la f ormula de It o a la funci on f (t)x se obtiene


t t

f (t)Bt =
0

fs dBs +
0

Bs fs ds.

Veamos seguidamente la versi on multidimensional de la f ormula de It o. 1 2 m Supongamos que Bt = (Bt , Bt , . . . , Bt ) es un movimiento browniano mdimensional, es decir, las componentes son movimientos brownianos independientes. Consideremos un proceso de It o n-dimensional de la forma t 1 t 1m t 11 m 1 1 1 Xt = X0 + 0 us dBs + + 0 us dBs + 0 vs ds . . . . n t n t nm t n1 m 1 n Xt = X0 + 0 us dBs + + 0 us dBs + 0 vs ds En notaci on diferencial y vectorial podemos escribir dXt = ut dBt + vt dt, 50

donde Xt , vt , son procesos n-dimensionales, y ut es un proceso con valores en el conjunto de las matrices n m. Supondremos que las componentes de u pertenecen a La,T y las de v pertenecen a L1 a,T . n p Entonces, si f : [0, ) R R es una funci on de clase C 1,2 , el proceso Yt = f (t, Xt ) es tambi en un proceso de It o con la representaci on (en notaci on diferencial) dYtk = fk (t, Xt )dt + t
n 2 n

i=1

fk (t, Xt )dXti xi

1 fk (t, Xt )dXti dXtj . 2 i,j =1 xi xj

El producto de los diferenciales dXti dXtj se calcula aplicando las reglas siguientes:
j i dBt dBt = i dBt dt = 0 (dt)2 = 0.

0 si i = j dt si i = j

De esta forma se obtiene


m

dXti dXtj

=
k=1

jk uik t ut

dt = (ut ut )ij dt.

2.5

Integrales estoc asticas de Stratonovich

En las sumas de Riemann-Stieltjes que elegimos para denir la integral est toc astica 0 us dBs de un proceso continuo u, se toman siempre los valores del proceso u en el punto tj 1 de cada intervalo [tj 1 , tj ] . De esta forma la integral estoc astica tiene media cero y su varianza puede calcularse a partir de la propiedad de isometr a. Tambi en, la integral indenida es una martingala. El inconveniente de esta elecci on consiste en que en la regla de la cadena nos aparece un t ermino correctivo. T La integral de Stratonovich 0 us dBs se dene como el l mite en probabilidad de la sucesi on
n

i=1

1 (ut + uti )Bi , 2 i1 51

suponiendo ti = forma

iT . n

Supongamos que el proceso u es un proceso de It o de la


t t

ut = u0 +
0

s dBs +
0

s ds.

(26)

Utilizando la descomposici on 1 (ut + uti )(Bti Bti1 ) = uti1 (Bti Bti1 ) 2 i1 1 + (uti uti1 )(Bti Bti1 ), 2 se obtiene la siguiente f ormula que relaciona las integrales de It o y de Stratonovich:
T t

us dBs =
0 0

1 us dBs + 2

s ds.
0

(27)

En efecto, las sumas de Riemann-Stieltjes


n

(uti uti1 )(Bti Bti1 )


i=1

convergen hacia la integral


t t

dus dBs =
0 0

s (dBs ) +
0

s dsdBs =

s ds.
0

Puede comprobarse que la integral estoc astica de Stratonovich sigue las reglas del c alculo diferencial ordinario. Es decir, si u es un proceso de la forma (26) y
t t

Xt = X0 +
0 t

us dBs +
0 t

vs ds 1 vs + s ds, 2

= X0 +
0

us dBs +
0

entonces, 1 df (Xt ) = f (Xt )dXt + f (Xt )(dXt )2 2 1 = f (Xt )ut dBt + f (Xt ) vt + t dt 2 1 + f (Xt )u2 t dt. 2 52

(28)

Por otra parte, 1 f (Xt )ut dBt = f (Xt )ut dBt d [f (Xt )ut ] dBt . 2 En el c alculo de d [f (Xt )ut ] dBt hemos de tener en cuenta solo los diferenciales estoc asticos de d [f (Xt )ut ] que son f (Xt )t dBt + f (Xt )u2 t dBt . Por consiguiente, se obtiene f (Xt )ut dBt = f (Xt )ut dBt 1 f (Xt )t + f (Xt )u2 t dt 2

y substituyendo esta expresi on en (28) obtenemos df (Xt ) = f (Xt )ut dBt + f (Xt )vt dt = f (Xt ) dXt .

2.6

Tiempo local
|x |
1 2

Consideremos la funci on siguiente para cada > 0 g (x) = si |x|


x2

si |x| <

La derivada de esta funci on vale g (x) = sign(x) si |x| . x si |x| <

La segunda derivada existe excepto si x = y vale g (x) =


1

0 si |x| . si |x| <

Siempre que una funci on sea de clase C 2 excepto en un n umero nito de puntos y la segunda derivada est e acotada se verica todav a la f ormula de It o. Por ello, tendremos g (Bt ) = + 2
t 0

g (Bs )dBs + 53

1 2

1(,) (Bs )ds.


0

Cuando tiende a cero, g (Bt ) converge en media cuadr atica hacia |Bt |. Por 2 otra parte, g (Bs ) converge en L ([0, t] ) hacia sign(Bs ). En efecto,
t

E
0

|sign(Bs ) g (Bs )| ds
t

2E
0 t

(sign(Bs ))2 + 1(,) (Bs )ds

2 Bs 1(,) (Bs )ds 2

4E
0 t

= 4
0

P (|Bs | < )ds 4


0

P (|Bs | = 0)ds = 0.

Denotaremos por Lt (0) el l mite en media cuadr atica de 1 2


t

1(,) (Bs )ds =


0

1 |{s [0, t] : |Bs | < }|. 2

De esta forma obtenemos la f ormula de It o para el valor absoluto del movimiento browniano, conocida como f ormula de Tanaka:
t

|B t | =
0

sign(Bs )dBs + Lt (0).

Observaciones: M as generalmente, para todo x se tiene


t

|B t x | =
0

sign(Bs x)dBs + Lt (x).

El proceso {Lt (x), t 0, x R} se denomina el tiempo local del movimiento browniano. Para cada t 0, Lt (x) es la densidad de la medida de ocupaci on, es decir,
b t

Lt (x)dx =
a 0

1[a,b] (Bs )ds.

Puede demostrarse que existe una versi on del tiempo local que es continua en las dos variables (t, x). 54

En el caso de una funci on diferenciable b(t), se tiene d|b(t)| = sign(b(s))b (s)ds, y la densidad de la medida de ocupaci on en [0, t] vale Lt (x) =
s[0,t]:b(s)=x

1 . b (s)

2.7

Representaci on integral de martingalas

Consideremos un proceso u de la clase L2 a,T . Sabemos que la integral indenida t Xt =


0

us dBs

es una martingala respecto de la ltraci on Ft . En este apartado demostraremos que todas las martingalas de cuadrado integrable respecto de esta ltraci on son de este tipo. Veamos un resultado preliminar. Lema 12 El conjunto de variables que son combinaciones lineales de exponenciales de la forma
T

exp
0

hs dBs

1 2

T 0

h2 s ds ,
T 0

(29)

donde h es una funci on determinista tal que L2 (, FT , P ).

h2 s ds < , es denso en

Demostraci on: Sea Y una variable de L2 (, FT , P ) ortogonal a todas las exponenciales de la forma (29). Queremos demostrar que Y = 0. Fijados m instantes 0 t1 < tm T y m n umeros reales 1 , . . . , m sabemos que E Y e1 Bt1 ++m Btm = 0.
Esto implica que la medida

(A) = E (Y 1A (Bt1 , . . . , Btm ))

55

tiene una transformada de Laplace id enticamente nula. Por lo tanto,

E (Y 1G ) = 0
para todo suceso G de la - algebra generada por las variables Bt1 , . . . , Btm . Por un argumento de clases mon otonas, esto ser a cierto para todo G de la - algebra FT , y por lo tanto, Y = 0.

Teorema 13 (Teorema de representaci on de It o) Consideremos una vari2 able aleatoria F de L (, FT , P ). Entonces existe un u nico proceso estoc astico u de la clase L2 tal que a,T
T

F = E (F ) +
0

us dBs .

Demostraci on: Supongamos primero que la variable F es de la forma


T

exp
0

hs dBs

1 2

T 0 T 0

h2 s ds ,

donde h es una funci on determinista tal que


t

h2 s ds < . Denimos
t 0

Yt = exp
0

hs dBs

1 2

h2 s ds .
t 0

Por la f ormula de It o aplicada a la funci on f (x) = ex y al proceso Xt =


1 2 t 0

hs dBs

h2 s ds,

obtenemos

1 1 dYt = Yt h(t)dBt h2 (t)dt + Yt (h(t)dBt )2 2 2 = Yt h(t)dBt ,


es decir,
t

Yt = 1 +
0

Ys h(s)dBs .
T

Por lo tanto,

F = YT = 1 +
0

Ys h(s)dBs

56

y se cumple la representaci on buscada porque E (F ) = 1,


T

E
0

Ys2 h2 (s)ds

=
0

E Ys2 h2 (s)ds
T

exp
0

h2 s ds

T 0

h2 s ds <

ya que

E Yt2

= E exp 2
0 t

hs dBs
0

h2 s ds

= exp
0

h2 s ds .

Por linealidad, la representaci on se cumplir a en el caso en que F sea una combinaci on lineal de exponenciales del tipo (29). En el caso general, el Lema 12 nos permite aproximar una variable arbitraria F de L2 (, FT , P ) por una sucesi on Fn de combinaciones lineales de exponenciales de la forma (29). Tendremos, entonces,
T

Fn = E (Fn ) +
0

n) u( s dBs .

Por la propiedad de isometr a de la integral estoc astica

E (Fn Fm )2

2 n) (m) u( dBs s us T 0 2 n) (m) u( dBs s us

= E

E (Fn Fm ) +
0

= (E (Fn Fm ))2 + E
T

E
0

n) (m) u( s us

ds .

La sucesi on Fn es de Cauchy en L2 (, FT , P ). Por lo tanto,

E (Fn Fm )2
y, en consecuencia,
T

n,m

E
0

(n) m) us u( s

ds

n,m

0.

57

Esto nos dice que la sucesi on u(n) es de Cauchy en L2 ([0, T ] ). Por lo tanto ser a convergente hacia un proceso u de L2 ([0, T ] ). Por otra parte, puede comprobarse que u pertenece a la clase L2 on a,T , teniendo en cuenta que una sucesi (n) parcial de u (t, ) converge casi por todo (t, ) hacia u(t, ). Aplicando de nuevo la propiedad de isometr a, y teniendo en cuenta que E (Fn ) converge hacia E (F ), se obtiene
T

F =

lim Fn = lim
T

E (Fn ) +
0

n) u( s dBs

= E (F ) +
0

us dBs .

Finalmente, la unicidad sale tambi en de la propiedad de isometr a: Supong(1) (2) 2 amos que u y u fuesen dos procesos de La,T tales que
T

F = E (F ) +
0

u(1) s dBs = E (F ) +

T 0

u(2) s dBs .

Entonces
T 2

0=E
0 (1)

u(1) s

u(2) s

dBs

=E
0

(2) u(1) s us

ds

y, por lo tanto, us (t, ) = us (t, ) casi por todo (t, ).

(2)

Teorema 14 (Teorema de representaci on de martingalas) Supongamos que {Mt , t [0, T ]} es una martingala respecto de la ltraci on Ft , tal que 2 E (MT ) < . Entonces existe un u nico proceso estoc astico u de la claseL2 a,T tal que
t

Mt = E (M0 ) +
0

us dBs

para todo t [0, T ]. Demostraci on: Aplicando el teorema de representaci on de It o a F = MT obtenemos que existe un u nico proceso u L2 tal que T
T T

MT = E (MT ) +
0

us dBs = E (M0 ) +
0

us dBs .

58

Supongamos que 0 t T . Tendremos


T

Mt = E [MT |Ft ] = E (M0 ) + E [


0 t

us dBs |Ft ]

= E (M0 ) +
0

us dBs .

2.8

Teorema de Girsanov

El teorema de Girsanov nos dice que el movimiento browniano con deriva Bt + t puede verse como un movimiento browniano sin deriva, cambiando la probabilidad. Analizaremos primero como funcionan los cambios de probabilidad mediante densidades. Si en un espacio de probabilidad (, F , P ) consideramos una variable aleatoria L 0 de esperanza uno, entonces, Q(A) = E (1A L) dene una nueva probabilidad. Que la esperanza de L sea igual a 1 nos garantiza que Q() = E (L) = 1. Se dice que L es la densidad de Q respecto de P y se escribe formalmente dQ = L. dP La esperanza de una variable aleatoria X en el espacio de probabilidad (, F , Q) se calcula de la forma siguiente EQ (X ) = E (XL). La probabilidad Q es absolutamente continua respecto de P , lo que signica que P (A) = 0 = Q(A) = 0.

59

Si la variable L es estrictamente positiva, entonces las probabilidades P y Q son equivalentes (o sea, mutuamente absolutamente continuas), lo que signica P (A) = 0 Q(A) = 0. Veamos seguidamente un ejemplo simple de cambio de probabilidades que representa una versi on sencilla del teorema de Girsanov: Ejemplo 20 Sea X una variable aleatoria con ley normal N (m, 2 ). Existe una probabilidad Q respecto de la cual la variable X tenga ley N (0, 2 )? Consideremos la variable L = e 2 X + 22 . Es f acil comprobar que tiene esperanza uno E (L) = 1. Por otra parte, en el espacio de probabilidad (, F , Q) la variable X tiene por funci on caracter stica: EQ (eitX ) = E (eitX L) = = 1 2 2

m m2

1 2 2
x2

2 (xm)2 mx + m 2 +itx 2 2 2 2

dx

e 22 +itx dx = e

2 t2 2

es decir, X tiene una ley N (0, 2 ). Veremos que en el caso del movimiento browniano se obtiene un resultado similar. Teniendo en cuenta que el movimiento browniano es el l mite de paseos aleatorios, analizaremos primero el problema de la eliminaci on de la deriva en un paseo aleatorio: Consideremos una succesi on {Xn , n 1} de variables aleatorias independientes tales que Xn = +1, con probabilidad 1/2 . 1, con probabilidad 1/2

Pongamos S0 = 0, y Sn = X1 + + Xn + na, donde a > 0. La succesi on Sn representa un paseo aleatorio con deriva igual a a, y no es una martingala ya que E (Sn |Fn1 ) = Sn1 + a, 60

donde Fn es la - algebra generada por X1 , ..., Xn si n 1, y F0 = {, }. Podemos cambiar la asignaci on de probabilidades de manera que Sn sea una martingala. Si suponemos que P (Xn = +1) = p, P (Xn = 1) = 1 p, necesitaremos que E (a + Xn ) = 0, es decir, p= 1a , 2

suponiendo que a < 1. Multipliquemos los valores de la constante a por t y los valores de las variables Xn por t. O sea supondremos que S0 = 0, Sn = at + Xn , 1 P (Xn = t) = . 2 En tal caso el valor de la probabilidad p respecto de la cual las Sn forman una martingala es P (Xn = P (Xn Podemos escribir 1 P (Xn = t) = 2 1 a Xn . 1 a t) = p = t, 2 2 1 a = t) = 1 p = + t. 2 2

Si consideramos un camino de longitud N formado por los sucesivos valores que toman las variables Xn , la probabilidad P de este camino seria 2N , a mientras que la probabilidad Q seria 2N N n=1 1 Xn . Es decir, podemos escribir N a Q(camino) = 1 Xn . P (camino) n=1 61

Observamos que la probabilidad Q est a bien denida si t < a


2

lo cual es cierto siempre que t sea sucientement peque no. Supongamos ahora que las variables aleatorias Sn se observan en instantes que distan t. Si t tiende a cero y N tiende a innito de manera que N t = t, entonces, Sn converge hacia un movimiento browniano con deriva at + Bt . Por otra parte, el cociente entre las probabilidades Q y P converge hacia un t ermino exponencial: Q(camino) = P (camino)
N

1
n=1 N

a Xn log 1 a Xn

= exp
n=1 N

exp
n=1

a2 2 a Xn 2 Xn 2
N

= exp Es decir, en el l mite se obtiene

Xn
n=1

a2 t . 2 2

Q(camino) a a2 = exp Bt 2 t . P (camino) 2 Sea{Bt , t [0, T ]} un movimiento browniano. Fijemos un n umero real . Consideremos la martingala Lt = exp Bt
2 t 2

(30)

Observemos que el proceso estoc astico {Lt , t [0, T ]} es una martingala positiva de esperanza uno que satisface la ecuaci on diferencial estoc astica
t

Lt = 1
0

Ls dBs . 62

La variable LT es una densidad de probabilidad en el espacio (, FT , P ) que dene una probabilidad Q dada por Q(A) = E (1A LT ) , para todo A FT . La propiedad de martingala del proceso Lt implica que en el espacio (, Ft , P ), la probabilidad Q tiene densidad igual a Lt . En efecto, si A pertenece a la - algebra Ft se tiene Q(A) = E (1A LT ) = E (E (1A LT |Ft )) = E (1A E (LT |Ft )) = E (1A Lt ) . Teorema 15 (Teorema de Girsanov) En el espacio de probabilidad (, FT , Q) el proceso estoc astico Wt = Bt + t, es un movimiento browniano. Antes de demostrar este teorema probaremos un resultado t ecnico: Lema 16 Supongamos que X es una variable aleatoria real y G es una algebra tales que u2 2 E eiuX |G = e 2 . Entonces, la variable X es independiente de la - algebra G y tiene una ley 2 normal N (0, ). Demostraci on: Para todo suceso A G se cumplir a E 1A eiuX = P (A)e
u2 2 2

Por lo tanto, eligiendo A = obtenemos la funci on caracter stica de X , y en consecuencia, X tiene una ley N (0, 2 ). Por otra parte, jado un suceso A G , la funci on caracter stica de la variable X respecto de la probabilidad condicionada por A ser a tambi en

EA eiuX = e

u2 2 2

63

Es decir, la ley de X condicionada por A es tambi en una ley normal N (0, 2 ). Por consiguiente, tendremos

PA (X x) = (x/ ) ,
y

P ((X x) A) = P (A)(x/ ) = P (A)P (X x),

(31)

donde representa la funci on de distribuci on de la ley N (0, 1). La igualdad (31) nos da la independencia entre la variable X y la - algebra G .

Demostraci on del teorema de Girsanov: Ser a suciente con demostrar que, en el espacio de probabilidad (, FT , Q), para todo s < t T el incremento Wt Ws es independiente de Fs y tiene ley normal N (0, t s).
Teniendo en cuenta el lemma anterior, estas dos propiedades se deducen de la f ormula siguiente, para todo s < t, A Fs , u R,

EQ 1A eiu(Wt Ws ) = Q(A)e
Para demostrar la f ormula (32) ponemos

u2 (ts) 2

(32)

EQ 1A eiu(Wt Ws )

= E 1A eiu(Wt Ws ) Lt = E 1A eiu(Bt Bs )+iu(ts)(Bt Bs )


2 (iu)2 (ts)+iu(ts) (ts) 2 2 u2 (ts) 2 2 (ts) 2

Ls

= E (1A Ls )E e(iu)(Bt Bs ) eiu(ts) = Q(A)e

2 (ts) 2

= Q(A)e

El teorema de Girsanov admite la siguiente generalizaci on: Teorema 17 Sea {t , t [0, T ]} un proceso adaptado y tal que cumple la denominada condici on de Novikov: E exp Entonces, el proceso W t = Bt +
0

1 2

T 0

2 t dt
t

< .

(33)

s ds

64

es un movimiento browniano respecto de la probabilidad Q denida por Q(A) = E (1A LT ) , donde Lt = exp
0 t

s dBs

1 2

t 0

2 s ds .

Observemos que de nuevo Lt es satisface la ecuaci on diferencial estoc astica


t

Lt = 1
0

s Ls dBs .

Para que el proceso Lt sea una martingala y tengamos E (Lt ) = 1, necesitamos que s Ls pertenezca a la clase L2 on (33) sirve para asegurar a,T . La condici esta propiedad.

Como aplicaci on del teorema de Girsanov deduciremos la ley del instante de llegada del movimiento browniano con deriva a un nivel a. Sea {Bt , t 0} un movimiento browniano. Fijado un valor , denimos la martingala Lt como en (30). Sea Q la probabilidad en t0 Ft tal que para todo t 0 dQ |F = Lt . dP t Por el teorema de Girsanov, para todo T > 0, en el espacio de probabilidad (, FT , Q) el proceso Bt + t := Bt es un movimiento browniano en el intervalo de tiempo [0, T ]. Es decir, en este espacio Bt es un movimiento browniano con deriva t. Sea a = inf {t 0, Bt = a}, donde a = 0. Para cada t 0 el suceso { a t} pertenece a la - algebra F a t ya que para todo s 0 { a t} { a t s} = { a t} { a s} = { a t s} Fst Fs .

65

Por consiguiente, utilizando la propiedad de martingala respecto de los tiempos de paro obtenemos Q{ a t} = E 1{ a t} Lt = E 1{ a t} E (Lt |F a t ) = E 1{ a t} L a t = E 1{ a t} L a = E 1{ a t} ea 2
t
1 2

=
0

ea 2 s f (s)ds,

donde f es la densidad de la variable a . Sabemos que f (s) = |a | 2s3 e 2s .


a2

Por lo tanto, respecto de Q la variable aleatoria a tiene una densidad igual a |a| (a+s)2 e 2s , s > 0. 2s3 Haciendo, t obtenemos Q{ a < } = ea E e 2
1 2

= ea|a| .

Si = 0 (movimiento browniano sin deriva), la probabilidad de llegar alguna vez a un nivel dado es igual a uno. Si a > 0 (la deriva y el nivel a tienen el mismo signo) esta probabilidad es tambi en igual a uno. Si a < 0 (la deriva y el nivel a tienen signo distinto) la probabilidad vale e2a .

Ejercicios 2.1 Consideremos una funci on f tal que


T 0

f (s)2 ds < .

Denimos la sucesi on de funciones continuas


t

fn (t) = 66

f (s)ds,
1 t n

con la convenci on f (s) = 0 si s < 0. Demostrar que se cumple


T 0

(f (s) fn (s))2 ds 0 0.

Indicaci on : Sabemos que para cada > 0 podemos encontrar una funci on continua g tal que
T 0

(f (s) g (s))2 ds < .

2.2 Consideremos un proceso estoc astico M = {Mt , t 0} que es una martingala respecto de una ltraci on {Mt , t 0}. Demostrar que el proceso M tambi en es una martingala respecto de la ltraci on natural M Ft = (Ms , 0 s t) Mt . 2.2 Consideremos una martingala M = {Mt , t 0} respecto de una ltraci on {Mt , t 0} tal que E (Mt2 ) < para todo t 0. Demostrar que si s < t
2 E ((Mt Ms )2 |Ms ) = E (Mt2 Ms |Ms ).

2.3 Demostrar que si es un tiempo de paro, F denida en (18) es una algebra y es F -medible. Si X = {Xt , t 0} es un proceso adaptado con trayectorias continuas, y es nito, demostrar que la variable X es F -medible. 2.4 Sea Y una variable aleatoria integrable y {Mt , t 0} una familia creciente de - algebras. Demostrar que Mt = E (Y |Mt ) es una martingala. asticos, denidos a partir de 2.5 Comprobar si los siguientes procesos estoc

67

un movimiento browniano Bt , son martingalas:


3 Xt = Bt 3tBt s

Xt = t2 Bt 2
0

sBs ds

1 Xt = (Bt + t) exp(Bt t) 2 Xt = B1 (t)B2 (t). En el u ltimo caso, B1 y B2 son dos movimientos brownianos independientes. 2.6 Supongamos que Bt es un movimiento browniano n-dimensional y sea f : Rn R una funci on de clase C 2 . Utilizando la f ormula de It o demostrar que
t

Xt = et/2 cos Bt Xt = et/2 sin Bt

f (Bt ) = f (0) +
0

f (Bs )ds +

1 2

f (Bs )ds.
0

2.7 Encontrar el proceso u que nos proporciona la representaci on integral


T

F = E (F ) +
0

us dBs

en los ejemplos siguientes: F = BT 2 F = BT F = eBT


T

F =
0 3 BT

Bt dt

F = F = sin BT 2.8 Sea p(t, x) = 1/ 1 t exp(x2 /2(1 t)), para 0 t < 1 y x R, y p(1, x) = 0. Denimos Mt = p(t, Bt ), donde {Bt , 0 t 1} es un movimiento browniano. 68

a) Demostrar que Mt = M0 +
0

p (s, Bs )dBs . x
1 0

b) Sea Ht = pero E

p (t, Bt ). Probar x 1 Ht2 dt = . 0

que

Ht2 dt < casi seguramente,

2.9 Sean Yt y Xt procesos de It o. Demostrar la siguiente f ormula de integraci on por partes:


t t t

Xt Yt = X0 Y0 +
0

Xs dYs +
0

Ys dXs +
0

dXs dYs .

Ecuaciones diferenciales estoc asticas


dXt = b(t, Xt )dt + (t, Xt )dBt . (34)

Queremos resolver ecuaciones diferenciales del tipo

Los coecientes b(t, x) y (t, x) se denominan, respectivamente, coeciente de deriva y coeciente de difusi on. Si el coeciente de difusi on se anula, entonces, tendremos una ecuaci on diferencial ordinaria: dXt = b(t, Xt ), dt que puede resolverse, si conocemos la condici on inicial X0 . Por ejemplo, en el caso lineal b(t, x) = b(t)x, la soluci on es Xt = X0 + e
Rt
0

b(s)ds

Una ecuaci on diferencial del tipo (34) se denomina una ecuaci on diferencial estoc astica. La soluci on ser a un proceso estoc astico {Xt , t 0} con trayectorias continuas adaptado a la ltraci on browniana. Los procesos soluci on se denominan procesos de difusi on. Una interpretaci on heur stica de la ecuaci on diferencial (34) ser a la siguiente: El incremento Xt = Xt+t Xt se expresa como una suma de b(t, Xt )t m as un t ermino que depende del incremento del movimiento browniano: (t, Xt )Bt y que se interpreta como una impulso aleatorio. Por 69

tanto, el incremento Xt tendr a una ley normal de media b(t, Xt )t y vari2 anza (t, Xt ) t. La formalizaci on de estas ecuaciones se realiza transform andolas en ecuaciones integrales y utilizando integrales estoc asticas:
t t

Xt = X0 +
0

b(s, Xs )ds +
0

(s, Xs )dBs .

(35)

El resultado fundamental sobre la existencia y unicidad de soluciones es el siguiente: Teorema 18 Fijemos un intervalo de tiempo [0, T ]. Supongamos que los coecientes de la ecuaci on (34) verican: |b(t, x) b(t, y )| | (t, x) (t, y )| |b(t, x)| | (t, x)| D 1 |x y | D 2 |x y | C1 (1 + |x|) C2 (1 + |x|), (36) (37) (38) (39)

para todo x, y R, t [0, T ]. Supongamos que Z es una variable aleatoria independiente de la - algebra FT generada por el movimiento browniano en 2 [0, T ], tal que E (Z ) < . Entonces, existe un u nico proceso {Xt , t [0, T ]} continuo, adaptado, soluci on de (35) y tal que
T

E
0

|Xs |2 ds

< .

Observaciones: 1.- Este resultado es cierto en dimensi on superior, cuando Bt es un movimiento browniano m-dimensional, la soluci on Xt es un proceso estoc astico ndimensional, y los coecientes son funciones b : [0, T ] Rn Rn , : [0, T ] Rn Rnm . 2.- La condici on de crecimiento lineal (38,39) garantiza que la soluci on no explota antes del tiempo nal T . Por ejemplo, la ecuaci on diferencial determinista dXt = Xt2 , X0 = 1, dt 70

tiene por u nica soluci on la funci on Xt = 1 , 0 t < 1, 1t

que diverge en el instante t = 1. on de Lipschitz (36,37) garantiza que no exista m as de una 3.- La condici soluci on. Por ejemplo, la ecuaci on diferencial determinista dXt 2/3 = 3Xt , X0 = 0, dt tiene innitas soluciones ya que para cada a > 0, la funci on Xt = 0 si t a (t a)3 si t > a

es soluci on. En este ejemplo la funci on b(x) = 3x2/3 no cumple la condici on de Lipschitz ya que la derivada de b no est a acotada. 4.- Si los coecientes b(t, x) y (t, x) son diferenciables en la variable x, la b condici on de Lipschitz signica que las derivadas parciales x y est an x acotadas por las constantes D1 y D2 , respectivamente. Demostraci on del Teorema 18: Consideremos el espacio L2 a,T de los
procesos adaptados a la ltraci on FtZ = (Z ) Ft y tales que E . En este espacio introducimos la siguiente norma
T 1/2 T 0

|Xs |2 ds <

X =
0

2 Xs

ds

2 2 donde es una constante tal que > 2 (T D1 + D2 ). Denimos un operador en este espacio de la forma siguiente t t

(LX )t = X0 +

b(s, Xs )ds +
0 0

(s, Xs )dBs .

Este operador est a bien denido debido a la propiedad de crecimiento lineal (38,39) de los coecientes de la ecuaci on.

71

La desigualdad de Schwartz y la isometr a de la integral estoc astica nos permiten escribir

E |(LX )t (LY )t |

2E
0

(b(s, Xs ) b(s, Ys )) ds
t 2

+2E
0 t

( (s, Xs ) (s, Xs )) dBs (b(s, Xs ) b(s, Ys ))2 ds ( (s, Xs ) (s, Xs ))2 ds .

2T E
0 t

+2E
0

Utilizando la propiedad de Lipschitz (36,37) se obtiene


2 2 E |(LX )t (LY )t |2 2 T D1 + D2 E t 0

(Xs Ys )2 ds .

2 2 Pongamos C = 2 (T D1 + D2 ). Por consiguiente, multiplicando por el factor et e integrando en [0, T ] se obtiene T 0

et E |(LX )t (LY )t |2 dt C C C

T 0

et E
0 T s

(Xs Ys )2 ds dt

T 0 T 0

et dt E (Xs Ys )2 ds

es E (Xs Ys )2 ds.

Por lo tanto,

LX L Y
y como
C

C X Y

< 1. Esto nos dice que el operador L es una contracci on en el espacio

L2 nico punto a,T . El teorema del punto jo nos asegura que este operador tiene un u
jo, lo que implica la unicidad y existencia de soluci on de la ecuaci on (35).

72

3.1

Soluciones expl citas de ecuaciones diferenciales estoc asticas

La f ormula de It o permite resolver expl citamente algunas ecuaciones diferenciales estoc asticas. Veamos algunos ejemplos. A) Ecuaciones lineales. El movimiento browniano geom etrico Xt = X0 e satisface la ecuaci on lineal dXt = Xt dt + Xt dBt . M as generalmente, la soluci on de la ecuaci on lineal homog enea dXt = b(t)Xt dt + (t)Xt dBt ser a Xt = X0 exp
t 0
  2 t+Bt 2

2 (s) ds + b(s) 1 2

t 0

(s)dBs

B) El proceso de Ornstein-Uhlenbeck. Consideremos la ecuaci on diferencial estoc astica dXt = a (m Xt ) dt + dBt X0 = x, donde a, > 0 y m es un n umero real. Como se trata de una ecuaci on lineal no homog enea, utilizaremos el m etodo de variaci on de las constantes. La soluci on de la ecuaci on homog enea dxt = axt dt x0 = x es xt = xeat . Entonces hacemos el cambio de variable Xt = Yt eat , es decir, Yt = Xt eat . El proceso Yt satisface dYt = aXt eat dt + eat dXt = ameat dt + eat dBt . 73

Por tanto, Yt = x + m(eat 1) +


0

eas dBs ,

lo que implica Xt = m + (x m)eat + eat


t as e dBs 0

El proceso estoc astico Xt es gaussiano. La media y varianza de cada variable Xt pueden calcularse f acilmente: E (Xt ) = m + (x m)eat , V arXt = 2 e2at E
0 t 2

eas dBs 2 1 e2at . 2a

= e2at
0

e2as ds =

La distribuci on de Xt cuando t tiende a innito converge hacia la ley normal 2 N (m, ). 2a Esta ley se denomina la ley invariante o estacionaria. En el caso m = 0 este proceso se denomina el proceso de Ornstein-Uhlenbeck. C) Consideremos una ecuaci on diferencial estoc astica del tipo dXt = f (t, Xt )dt + c(t)Xt dBt , X0 = x, (40)

donde f (t, x) y c(t) son funciones deterministas continuas, tales que f satisface las condiciones de crecimiento lineal y propiedad de Lipschitz en la variable x. Esta ecuaci on se puede resolver siguiendo los pasos siguientes: a) Se considera el factor integrante
t

Ft = exp
0

c(s)dBs +

1 2

t 0

c2 (s)ds ,

es soluci on de la ecuaci on (40) si f = 0 y x = 1. El tal que proceso Yt = Ft Xt cumple dYt = Ft f (t, Ft1 Yt )dt, Y0 = x. 74 (41)

Ft1

b) La ecuaci on (41) es una ecuaci on diferencial determinista, parametrizada por , que podr a resolverse mediante m etodos habituales. Por ejemplo, supongamos que f (t, x) = f (t)x. En tal caso la ecuaci on (41) es dYt = f (t)Yt dt, de lo que se deduce
t

Yt = x exp
0

f (s)ds

y, por lo tanto, Xt = x exp


t 0

f (s)ds +

t 0

c(s)dBs

1 2

t 2 c (s)ds 0

D) Ecuaci on diferencial estoc astica lineal general. Consideremos la ecuaci on dXt = (a(t) + b(t)Xt ) dt + (c(t) + d(t)Xt ) dBt , con condici on inicial X0 = x, donde a, b, c y d son funciones continuas. Utilizando el m etodo de variaci on de las constantes propondremos una soluci on de la forma Xt = Ut Vt (42) donde dUt = b(t)Ut dt + d(t)Ut dBt y dVt = (t)dt + (t)dBt , con U0 = 1 y V0 = x. Por el apartado C sabemos que
t t

Ut = exp
0

b(s)ds +
0

d(s)dBs

1 2

t 0

d2 (s)ds .

Por otra parte, diferenciando la igualdad (42) obtenemos a(t) c(t) = Ut (t) + (t)d(t)Ut = Ut (t) 75

es decir (t) (t) Finalmente, Xt = Ut x +


t 0 1 [a(s) c(s)d(s)] Us ds + t 0 1 c(s) Us dBs

= c(t) Ut1 = [a(t) c(t)d(t)] Ut1 .

La ecuaci on diferencial estoc astica de It o


t t

Xt = X0 +
0

b(s, Xs )ds +
0

(s, Xs )dBs ,

puede transformarse en una ecuaci on de Stratonovich, utilizando la f ormula (27) que nos relaciona ambos tipos de integral. As , se obtiene
t t

Xt = X0 +
0

b(s, Xs )ds
0

1 ( ) (s, Xs )ds + 2
t

(s, Xs ) dBs ,
0

ya que la expresi on del proceso (s, Xs ) como proceso de It o ser a (t, Xt ) = (0, X0 ) +
0 t

1 b 2 (s, Xs )ds 2

+
0

( ) (s, Xs )dBs .

Yamada y Watanabe demostraron en 1971 que la condici on de Lipschitz pod a debilitarse de la forma siguiente, en el caso de ecuaciones diferenciales estoc asticas unidimensionales. Supongamos que los coecientes b y no dependen del tiempo, el coeciente b es Lipschitz, pero el coeciente satisface la condici on de H older | (x) (y )| D|x y | , donde 1 . En tal caso existe una u nica soluci on de la ecuaci on. 2 Por ejemplo, la ecuaci on dXt = |Xt |r dBt X0 = 0 tiene una soluci on u nica si r 1/2. 76

3.2

Soluciones fuertes y soluciones d ebiles

La soluci on Xt que hemos encontrado antes es una soluci on fuerte porque es un proceso adaptado a la familia de - algebras FtZ = (Bs , s t, Z ). Podemos plantear el problema de forma diferente. Nos dan los coecientes b(t, x) y (t, x) y nos piden que encontremos un par de procesos Xt , Bt en un espacio de probabilidad (, F , P ) tales que Bt es un movimiento browniano relativo a una ltraci on Ht y Xt satisface la ecuaci on (34) en este espacio. Diremos entonces que (, F , P, Ht , Xt , Bt ) es una soluci on d ebil de la ecuaci on (34). Pueden demostrarse los siguientes resultados: Toda soluci on fuerte es tambi en una soluci on d ebil. Una ecuaci on con coecientes b(t, x) y (t, x) se dice que tiene unicidad d ebil si dos soluciones d ebiles tienen la misma ley (las mismas distribuciones en dimensi on nita). Si los coecientes satisfacen las condiciones del Teorema (18) entonces se satisface la unicidad d ebil. La existencia de soluciones d ebiles puede asegurarse suponiendo solamente que los coecientes b(t, x) y (t, x) son funciones continuas y acotadas. La ecuaci on de Tanaka dXt = sign (Xt ) dBt , X0 = 0, no tiene ninguna soluci on fuerte pero tiene una soluci on d ebil u nica.

3.3

Aproximaciones num ericas

Muchas ecuaciones diferenciales estoc asticas no pueden resolverse expl citamente. Por ello es conveniente disponer de m etodos num ericos que permiten la simulaci on de soluciones.

77

Consideremos la ecuaci on diferencial estoc astica con coecientes independientes del tiempo dXt = b(Xt )dt + (Xt )dBt , (43) con condici on inicial X0 = x. Fijemos un intervalo de tiempo [0, T ] y consideremos la subdivisi on formada por los puntos iT tj = , i = 0, 1, . . . , n. n La longitud de cada subintervalo ser a n = T . n El m etodo de Euler consiste en el esquema recursivo siguiente: X (n) (ti ) = X (n) (ti1 ) + b(X (n) (ti1 )) n + (X (n) (ti1 ))Bi , i = 1, . . . , n, donde Bi = Bti Bti1 . El valor inicial ser a X0 = x. (n) En los puntos de cada intervalo (ti ti+1 ) el valor del proceso X se deduce por interpolaci on lineal. El proceso X (n) es una funci on del movimiento browniano y podemos medir el error comerido al aproximar X por X (n) : en = E XT XT
(n) 2 (n)

/2 Puede demostrarse que en es del orden 1 es decir, n /2 en c 1 n

si n n0 . Para simular una soluci on mediante el m etodo de Euler, basta con obtener valores de n variables aleatorias 1 , . . . ., n independientes con ley N (0, 1), y substituir Bi por n i . El m etodo de Euler puede mejorarse mediante una correcci on adicional. Esto nos lleva a introducir el m etodo de Milstein. El valor exacto del incremento entre dos puntos de la partici on es
ti ti

X (ti ) = X (ti1 ) +
ti1

b(Xs )ds +
ti1

(Xs )dBs .

(44)

En el m etodo de Euler se basa en aproximar las integrales de la forma siguiente:


ti ti1 ti ti1

b(s)ds b(X (n) (ti1 )) n ,

(s)dBs (X (n) (ti1 ))Bi . 78

En el m etodo de Milstein, aplicaremos la f ormula de It o a los procesos b(Xs ) y (Xs ) que aparecen en (44), con objeto de obtener una aproximaci on mejor. De esta forma obtenemos X (ti ) X (ti1 )
ti s ti1 ti s

=
ti1

b(X (n) (ti1 )) + (X


ti1 (n)

1 bb + b 2 (Xr )dr + 2
s

(b ) (Xr )dBr ds
ti1 s

(ti1 )) +
ti1

1 b + 2 (Xr )dr + 2

( ) (Xr )dBr dBs


ti1

= b(X (n) (ti1 )) n + (X (n) (ti1 ))Bi + Ri . El t ermino dominante en el resto es la integral estoc astica doble
ti ti1 s

( ) (Xr )dBr dBs ,


ti1

y puede demostrarse que las dem as componentes del resto son de ordenes inferiores y pueden despreciarse. La integral estoc astica doble puede, a su vez, aproximarse por ( ) (X (n) (ti1 ))
ti ti1 s

dBr dBs .
ti1

Las reglas del c alculo estoc astico nos permiten calcular la integral doble que nos queda:
ti ti1 s ti

dBr dBs =
ti1 ti1

Bs Bti1 dBs Bti Bti1 2 n

1 2 2 Bt Bt Bti1 i i1 2 1 = (Bi )2 2 n. 2 =

En conclusi on, el m etodo de Milstein consiste en el sistema recursivo siguiente X (n) (ti ) = X (n) (ti1 ) + b(X (n) (ti1 )) n + (X (n) (ti1 )) Bi 1 + ( ) (X (n) (ti1 )) (Bi )2 2 n . 2 79

Puede demostarse que el error en es del orden n es decir, en c n si n n0 .

3.4

Propiedad de Markov

Consideremos un proceso de difusi on n-dimensional {Xt , t 0} que satisface una ecuaci on diferencial estoc astica del tipo dXt = b(t, Xt )dt + (t, Xt )dBt , (45)

donde B es un movimiento browniano m-dimensional y los coecientes b y son funciones que satisfacen las hip otesis del Teorema (18). Seguidamente demostraremos que los procesos de difusi on satisfacen la propiedad de Markov. Esta propiedad nos dice que el comportamiento futuro del proceso, conociendo la informaci on hasta el instante t solo depende del valor del proceso en el instante presente, Xt . Denici on 19 Diremos que un proceso estoc astico n-dimensional {Xt , t 0} es un proceso de Markov si para todo s < t se tiene E (f (Xt )|Xr , r s) = E (f Xt )|Xs ), para toda funci on medible y acotada f en Rn . La ley de probabilidad de los procesos de Markov se caracteriza mediante las denominadas probabilidades de transici on : P (C, t, x, s) = P (Xt C |Xs = x), donde 0 s < t, C BRn y x Rn . Es decir, P (, t, x, s) es la ley de probabilidad de la variable Xt condicionada por Xs = x. Si esta ley condicionada tiene densidad, la designaremos por p(y, t, x, s). Por ejemplo, el movimiento browniano real Bt es un proceso de Markov con probabilidades de transici on dadas por (xy )2 1 e 2(ts) . p(y, t, x, s) = 2 (t s) 80

Designaremos por {Xts,x , t s} la soluci on de la ecuaci on diferencial ess,x toc astica (45) en el intervalo de tiempo [s, ) y con condici on inicial Xs = x. Si s = 0, escribiremos Xt0,x = Xtx . Puede demostrarse que existe una versi on continua en los tres par ametros del proceso estoc astico {Xts,x , 0 s t, x Rn } . Por otra parte, para cada 0 s t se cumple la siguiente propiedad: Xtx = Xt
x s,Xs

(46)

En efecto, Xtx para t s satisface la ecuaci on diferencial estoc astica


x Xtx = Xs + t s x b(u, Xu )du + t s x (u, Xu )dBu .

Por otra parte, Xts,y verica Xts,y = y +


t s s,y b(u, Xu )du + t s s,y (u, Xu )dBu s,X x

x y substituyendo y por Xs obtenemos que los procesos Xtx y Xt s son solux ciones de la misma ecuaci on en el intervalo [s, ) con condici on inicial Xs . Por la unicidad de soluciones deben coincidir.

on Teorema 20 (Propiedad de Markov de las difusiones) Sea f una funci medible y acotada denida en Rn . Entonces, para cada 0 s < t tendremos E [f (Xt )|Fs ] = E [f (Xts,x )] |x=Xs . Demostraci on: Tenemos, utilizando (46) y la Regla 7 de la esperanza condicionada:

E [f (Xt )|Fs ] = E f (Xts,Xs )|Fs = E [f (Xts,x )] |x=Xs ,


ya que el proceso {Xt , t s, x Rn } es independiente de Fs y la variable Xs es medible respecto de Fs . Este teorema nos dice que los procesos de difusi on tienen la propiedad de Markov y sus probabilidades de transici on son
s,x

P (C, t, x, s) = P (Xts,x C ). 81

Si el proceso de difusi on es homog eneo en el tiempo, la propiedad de Markov se escribe

E [f (Xt )|Fs ] = E f (Xtx s ) |x=Xs .

3.5

Generador de una difusi on

Consideremos un proceso de difusi on n-dimensional {Xt , t 0} que satisface una ecuaci on diferencial estoc astica del tipo dXt = b(t, Xt )dt + (t, Xt )dBt . donde B es un movimiento browniano m-dimensional. Supondremos que los coecientes b y satisfacen las hip otesis del Teorema 18 y que X0 es constante. Podemos asociar a un proceso de difusi on un operador diferencial de segundo orden. Dicho operador, que denotaremos por As , s 0, se denomina el generador de la difusi on, y se dene por As f (x) =
n f i=1 bi (s, x) xi

1 2

n i,j =1

f ( )i,j (s, x) x . i xj

(47)

En esta expresi on f es una funci on en Rn dos veces derivable con derivadas 1,2 parciales continuas (de clase C ). La matriz ( ) (s, x) es sim etrica y semidenida positiva:
n

( )i,j (s, x) =
k=1

i,k (s, x) j,k (s, x).

La relaci on entre el operador As y la difusi on viene dada por la siguiente propiedad, consecuencia de la f ormula de It o: Si f (t, x) es una funci on de clase C 1,2 , entonces, f (t, Xt ) es un proceso de It o con diferencial df (t, Xt ) = +
i=1 j =1

f (t, Xt ) + At f (t, Xt ) dt t
n m

f j (t, Xt ) i,j (t, Xt )dBt . xi

82

Por consiguiente, si se cumple


t

E
0

f (s, Xs ) i,j (s, Xs ) ds xi

<

(48)

para cada t > 0 y cada i, j , el proceso


t

Mt = f (t, Xt )
0

f + As f s

(s, Xs )ds

(49)

ser a una martingala. Condiciones sucientes para (48) son: a) Las derivadas parciales
f xi

est an acotadas.

b) Existen constantes ct , kt tales que para cada s [0, t] f f 2f (s, x) + ( s, x ) (s, x) ct ekt |x| . + s xi xi xj En particular si f satisface la ecuaci on
f t

+ At f = 0

(50)

y se cumple a) o b), entonces f (t, Xt ) es una martingala. La propiedad de martingala de este proceso nos permite dar una interpretaci on probabilista de la soluci on de una ecuaci on parab olica con condici on n terminal jada: Si la funci on f (t, x) satisface (50) en [0, T ] R con la condici on terminal f (T, x) = g (x), entonces
t,x f (t, x) = E (g (XT ))

casi por todo respecto de la ley de Xt . En efecto, la propiedad de martingala del proceso f (t, Xt ) implica
t,x f (t, Xt ) = E (f (T, XT )|Xt ) = E (g (XT )|Xt ) = E (g (XT ))|x=Xt .

Consideremos una funci on q (x) continua y acotada inferiormente. Entonces, aplicando de nuevo la f ormula de It o puede demostrarse que, si la

83

funci on f es de clase C 1,2 y cumple una de las condiciones a) o b) anteriores, el proceso Mt = e


Rt
0

q (Xs )ds

f (t, Xt )
0

Rs
0

q (Xr )dr

f + As f qf s

(s, Xs )ds

es una martingala. En efecto, dMt = e

Rt
0

n q (Xs )ds

i=1 j =1

f j (t, Xt ) i,j (t, Xt )dBt . i x

Si la funci on f satisface la ecuaci on f + As f qf = 0 s entonces, e


Rt
0

(51) (52)

q (Xs )ds

f (t, Xt )

ser a una martingala. Supongamos que f (t, x) satisface (51) en [0, T ] Rn con condici on terminal f (T, x) = g (x). Entonces, f (t, x) = E e
RT
t t,x q (Xs )ds

t,x g (XT ) .

En efecto, la propiedad de martingala del proceso (52) implica f (t, Xt ) = E e


RT
t

RT
t

q (Xs )ds

f (T, XT )|Ft .
RT
t

Finalmente, la propiedad de Markov nos permite escribir E e


q (Xs )ds

f (T, XT )|Ft = E e

t,x q (Xs )ds

t,x ) |x=Xt . g (XT

Tomando esperanzas en la ecuaci on (49) se obtiene


t

E (f (t, Xt )) = f (0, X0 ) + E
0

f + As f s

(s, Xs )ds.

Esta es la denominada f ormula de Dynkin que tiene una extensi on a tiempos n 2 de paro. Designaremos por C0 (R ) el conjunto de las funciones f en Rn con dos derivadas parciales continuas y soporte compacto. 84

2 Teorema 21 (F ormula de Dynkin) Sea f C0 (Rn ) y consideremos un proceso de difusi on {Xt , t 0} que satisface la ecuaci on diferencial estoc astica (45), con condici on inicial constante. Entonces, si es un tiempo de paro tal que E ( ) < ,

E [f (X )] = f (X0 ) + E
0

(As f ) (Xs )ds.

En particular si es el tiempo de salida de un conjunto acotado, la condici on E ( ) < siempre se cumple. Demostraci on: Utilizando la f ormula de It o es suciente con ver que
n m

E
i=1 k=1 0

f k = 0. (Xs ) i,k (s, Xs )dBs xi

Consideremos la sucesi on de variables aleatorias, para cada i, k jados,


N

N =

f k (Xs ) i,k (s, Xs )dBs . xi

Esta sucesi on converge casi seguramente hacia la variable

=
0

f k (Xs ) i,k (s, Xs )dBs . xi

La propiedad (20) implica


N

E [ N ] = E

f k (Xs ) i,k (s, Xs )1{s } dBs = 0. xi


f (Xs ) i,k (s, Xs ) xi

Por otra parte, como la funci on f tiene soporte compacto, el proceso est a acotado por una constante c y por consiguiente,

E ( N )

=E
0

f (Xs ) i,k (s, Xs )1{s } xi

ds N c2 E ( ) < .

La acotaci on uniforme de los momentos de orden 2 de las variables N , y la convergencia casi segura de la sucesi on N hacia la variable implican

E ( ) = lim E ( N ) = 0.
N

85

Como aplicaci on consideremos el siguiente problema. Sea Bt un movimiento browniano n-dimensional tal que B0 = a, y supongamos |a| < R. Cual es la esperanza del tiempo de salida K de la bola de radio R : K = {x Rn : |x| < R}. Apliquemos la f omula de Dynkin a X = B , = K N y sea f una funci on 2 n 2 2 de C0 (R ) tal que f (x) = |x| para |x| R. Tendremos
1 E [f (B )] = f (a) + E f (Bs )ds 2 0 = |a|2 + nE [ ] .

Por tanto, E [ K N ] = y haciendo N obtenemos E [ K ] =

1 R2 |a|2 n

1 R2 |a|2 . n

3.6

Procesos de difusi on y ecuaciones en derivadas parciales

Existe una relaci on interesante entre procesos de difusi on y ecuaciones en derivadas parciales. En general, los procesos de difusi on permiten dar interpretaciones probabilistas de ecuaciones en derivadas parciales de segundo orden. Consideremos el siguiente ejemplo sencillo. Si Bt es un movimiento browniano, y f es una funci on continua y con crecimiento polinomial, la funci on u(t, x) = E (f (Bt + x)) satisface la ecuaci on de la calor: u 1 2u = , t 2 x2

(53)

con condici on inicial u(0, x) = f (x). Esto es debido a que podemos escribir E (f (Bt + x)) =

f (y ) 86

1 (xy)2 e 2t dy, 2t

1 e 2t para cada y jo, satisface la ecuaci y la funci on 2 on (53). t La funci on x u(t, x) representa la distribuci on de temperaturas en una barra de longitud innita, suponiendo un perl inicial de temperaturas dado por la funci on f (x). Consideremos una difusi on es homog enea en el tiempo. En tal caso, el generador A no depende del tiempo y vale: n

(xy )2

Af (x) =
i=1

1 2f f + ( )i,j (x) . bi (x) xi 2 i,j =1 xi xj

(54)

La f ormula de Dynkin, suponiendo X0 = x, nos dice que E [f (Xtx )] = f (x) + Consideremos la funci on u(t, x) = E [f (Xtx )]. (56)
t 0 x E [Af (Xs )] ds.

(55)

La f ormula (55) nos dice que esta funci on es diferenciable y satisface la siguiente ecuaci on u = E [Af (Xtx )] . t x El t ermino E [Af (Xt )] puede tambi en expresarse en funci on de u. Para ello necesitamos introducir el dominio del generador de la difusi on: on {Xt } es el conDenici on 22 El dominio DA del generador de la difusi junto de funciones f : Rn R tales que el l mite siguiente existe para todo x Rn E [f (Xtx )] f (x) . (57) Af (x) = lim t0 t
2 C0 (Rn ), 2 La expresi on (55) nos dice que C0 (Rn ) DA y para toda funci on f el l mite (57) es igual a al valor Af dado por (54). El siguiente resultado nos dice que la funci on u(t, x) denida en (56) satisface una ecuaci on en derivadas parciales, denominada ecuaci on retr ograda (bakward) de Kolmogorov. Esto nos proporciona una interpretaci on probabilista de las ecuaciones en derivadas parciales de tipo parab olico. 2 (Rn ). Teorema 23 Sea f C0

87

a) Denimos u(t, x) = E [f (Xtx )]. Entonces, u(t, ) DA para cada t y = Au u(0, x) = f (x)
u t

(58)

b) Si w C 1,2 ([0, ) Rn ) es una funci on acotada que satisface la ecuaci on x (58), entonces w(t, x) = E [f (Xt )]. Demostraci on: a) Hemos de calcular el l mite cuando r 0 de la expresi on
x )] u(t, x) E [u(t, Xr . r

Aplicando la propiedad de Markov obtenemos


x x E [u(t, Xr )] = E E [f (Xty )] |y=Xr = E f (Xtx +r ) = u(t + r, x).

Finalmente, como t u(t, x) es diferenciable


x E [u(t, Xr )] u(t, x) 1 u = (u(t + r, x) u(t, x)) . r r t

b) Consideremos el proceso (n + 1)-dimensional

Yt = (s t, Xtx ).
La f ormula de It o aplicada a este proceso y a la funci on w nos da
t

w(Yt ) = w(s, x) +
t n 0 m

Aw

w r

x (s r, Xr )dr

+
0 i=1 j =1

w x x j (s r, Xr ) i,j (Xr )dBr . xi


w , t

Teniendo encuenta que w satisface la ecuaci on Aw =


t n m

obtenemos

w(Yt ) = w(s, x) +
0 i=1 j =1

w j x x . )dBr ) i,j (Xr (s r, Xr xi

88

Ahora deseamos tomar esperanzas, pero como no hemos impuesto ninguna condici on de crecimiento sobre las derivadas parciales de la funci on w no sabemos si la integral estoc astica tiene esperanza cero. Por ello, debemos introducir un tiempo de paro, para un R > 0, jado, denido por

R = inf {t > 0 : |Xtx | R}.


Para r R , el proceso
w (s xi x x r, Xr ) i,j (Xr ) est a acotado. Por tanto,

E [w(Yt R )] = w(s, x),


y haciendo R , se obtiene

E [w(Yt )] = w(s, x).


Finalmente, tomando t = s, y utilizando la propiedad w(0, x) = f (x), obtenemos

E [f (Xtx )] = w(s, x).

Notemos por pt (x, y ) la soluci on fundamental de la ecuaci on parab olica (58). Es decir, tal soluci on se obtiene formalmente tomando como funci on f la delta y . Entonces, y pt (x, y ) es la densidad de probabilidad de la variable aleatoria Xtx : u(t, x) = E [f (Xtx )] =

Rn

f (y )pt (x, y )dy.

Esto nos dice tambi en que p(y, t, x, s) = pts (x, y ) ser an las probabilidades de tansici on del proceso de Markov Xt . Ejemplo 21 En el caso b = 0, = I , el proceso de difusi on Xt es el movimiento browniano Bt n-dimensional. Su generador ser a el operador de Laplace: =
1 2 n 2 . i=1 x2 i

La ecuaci on de Kolmogorov en este caso es precisamente la ecuacion de la calor: 1 u = f. t 2 89

La soluci on fundamental de esta ecuaci on es la densidad gaussiana: pt (x, y ) = (2t)n/2 exp |x y |2 2t .

La f ormula de Feynman-Kac es una generalizaci on de la ecuaci on de Kolmogorov que hemos obtenido en el apartado anterior.
2 Teorema 24 Sean f C0 (Rn ) y q C (Rn ). Suponemos que la funci on q est a acotada inferiormente. Consideremos un proceso de difusi on {Xt , t 0} que satisface la ecuaci on diferencial estoc astica (45).

a) Denimos v (t, x) = E exp


0

x q (Xs )ds f (Xtx ) .

Entonces, u(t, ) DA para cada t y = Av qv u(0, x) = f (x)


v t

(59)

on acotada en cada [0, T ] Rn que b) Si w C 1,2 ([0, ) Rn ) es una funci satisface la ecuaci on (59), entonces w(t, x) = v (t, x). Demostraci on: a) Pongamos Yt = f (Xtx ), Zt = exp
Entonces
t 0 x q (Xs )ds .

dZt = Zt q (Xtx )dt.


Por lo tanto,

d(Yt Zt ) = Yt dZt + Zt dYt ,


ya que dZt dYt = 0. Como Yt Zt es un proceso de It o, la funci on v (t, x) = E (Yt Zt ) es diferenciable respecto de la variable t. En efecto,
t

v (t, x) = f (x)
0

x E [Ys Zs q (Xs )] ds +

t 0

x E [Zs Af (Xs )] ds,

ya que el t ermino de integral estoc astica tiene esperanza cero, teniendo en cuenta que f tiene soporte compacto y q est a acotada inferiormente. Por consiguiente,

90

Aplicando la propiedad de Markov obtenemos


x E [v (t, Xr )] t

= E [E [exp
0 t

y x] q (Xs )ds f (Xty )]|y=Xr x x q (Xs +r )ds f (Xt+r )]|Fr ]

= E [E [exp
0 t

= E [exp
0 r

x x q (Xs +r )ds f (Xt+r )]

= E [exp
0

x q (Xs )ds Zt+r f (Xtx +r )] r

= v (t + r, x) + E

exp
0

x q (Xs )ds 1 Zt+r f (Xtx +r )

Finalmente, como t v (t, x) es diferenciable y

1 E r
obtenemos

exp
0

x q (Xs )ds 1 Zt+r f (Xtx +r ) q (x)v (t, x),

r0

x E [v (t, Xr )] v (t, x) r0 v + qv. r t

b) Consideremos los procesos

Yt = (s t, Xtx )
t

Rt =
0

x q (Xs )ds.

La f ormula de It o aplicada a estos procesos y a la funci on (s, x, z ) = ez w(s, x) nos da

eRt w(Yt ) = w(s, x) +


t n 0 m

Aw

w x Rr qw (s r, Xr )e dr r

+
0 i=1 j =1

w j x Rr x . )e dBr ) i,j (Xr (s r, Xr xi


w , t

Teniendo encuenta que w satisface la ecuaci on Aw + qw =

obtenemos

Rt

w(Yt ) = w(s, x) +
0 i=1 j =1

w x x Rr j (s r, Xr ) i,j (Xr )e dBr . xi

91

Introduciendo, com antes, el tiempo de paro

R = inf {t > 0 : |Xtx | R},


tendremos que para r R , el proceso Por tanto, y haciendo R , se obtiene
w x x Rr (s r, Xr ) i,j (Xr )e xi

est a acotado.

E eRt R w(Yt R ) = w(s, x), E eRt w(Yt ) = w(s, x).


Finalmente, tomando t = s, y utilizando la propiedad w(0, x) = f (x), obtenemos
t

E exp
0

x q (Xs )ds f (Xtx ) = w(s, x).

Ejercicios 3.1 Comprobar que los siguientes procesos satisfacen las ecuaciones diferenciales estoc asticas indicadas: (i) El proceso Xt =
Bt 1+t

cumple 1 1 Xt dt + dBt , 1+t 1+t

dXt = X0 = 0

(ii) El proceso Xt = sin Bt , con B0 = a , es soluci on de 2 2 1 dXt = Xt dt + 2 (iii) (X1 (t), X2 (t)) = (t, et Bt ) satisface 0 1 dX1 dt + X1 dBt = e X2 dX2 92 1 Xt2 dBt ,

para t < T = inf {s > 0 : Bs / , . 2 2

(iv) (X1 (t), X2 (t)) = (cosh(Bt ), sinh(Bt )) satisface 1 X1 dX1 X2 = dt + dBt . dX2 2 X2 X1 (v) Xt = (cos(Bt ), sin(Bt )) satisface 1 dXt = Xt dt + Xt dBt , 2 donde M = 0 1 . Las componentes del proceso Xt cumplen 1 0 X1 (t)2 + X2 (t)2 = 1, y por lo tanto, Xt puede considerarse como un movimiento browniano en la circunferencia de radio 1. (vi) El proceso Xt = (x1/3 + 1 B )3 , x > 0, cumple 3 t 1 1/3 2/3 dXt = Xt dt + Xt dBt . 3 3.2 Consideremos un movimiento browniano n-dimensional Bt y jemos constantes i , i = 1, . . . , n. Resolver la ecuaci on diferencial estoc astica
n

dXt = rXt dt + Xt
k=1

k dBk (t).

3.3 Resolverde las ecuaciones diferenciales estoc asticas siguientes: dXt = rdt + Xt dBt , X0 = x 1 dXt = dt + Xt dBt , X0 = x > 0 Xt dXt = Xt dt + Xt dBt , X0 = x > 0. Para que valores de las constantes , hay explosi on? 3.4 Resolver las ecuaciones diferenciales estoc asticas siguientes: (i) dX1 = dX2 1 dt + 0 93 1 0 0 X1 dB1 . dB2

(ii) dX1 (t) = X2 (t)dt + dB1 (t) dX2 (t) = X1 (t)dt + dB2 (t) 3.5 La ecuaci on diferencial estoc astica no lineal dXt = rXt (K Xt )dt + Xt dBt , X0 = x > 0 es utiliza como modelo para el crecimiento de una poblaci on de tama no Xt , en un medio aleatorio. La constante K > 0 se denomina la capacidad del medio, la constante r R mide la calidad del medio y la constante R es una medida del nivel de ruido del sistema. Comprobar que exp rK 1 2 t + Bt 2 Xt = t 2 s + Bs ds x1 + r 0 exp rK 1 2 es la u nica soluci on. 3.6 Encontrar el generador de los siguientes procesos de difusi on: a) dXt = Xt dt + dBt , (proceso de Ornstein-Uhlenbeck) y r son constantes b) dXt = rXt dt + Xt dBt , (movimiento browniano geom etrico) y r son constantes c) dXt = rdt + Xt dBt , y r son constantes d) dYt = e) f) dX1 dX2 dX1 dX2 dt dXt = = donde Xt es el proceso introducido en a) 1 X2 1 0 dt + dt + 0 eX1 1 0 0 X1 dBt dB1 dB2
n

h) X (t) = (X1 , X2 , . . . .Xn ), siendo dXk (t) = rk Xk dt + Xk


j =1

kj dBj , 1 k n

3.7 Encontrar un proceso de difusi on cuyo generador sea: 94

2 a) Af (x) = f (x) + f (x), f C0 (R)

b) Af (x) =

f t

f 2 + cx f +1 2 x2 , f C0 (R2 ) x 2 x2
2 1

f 1 2 f 2 f + log(1 + x2 c) Af (x1 , x2 ) = 2x2 x 1 + x2 ) x2 + 2 (1 + x1 ) x2 1 2f +x1 x 1 x2

1 2f , 2 x2 2

2 C0 (R2 )

3.8 Demostrar que la soluci on u(t, x) del problema con valor inicial u 1 2 2 2u u + x , t > 0, x R = x 2 t 2 x x 2 u(0, x) = f (x), f C0 (R) puede expresarse como 1 u(t, x) = E f (x exp{Bt + ( 2 )t} . 2

Aplicaci on del c alculo estoc astico a la cobertura y valoraci on de derivados

Consideremos el modelo de Black y Scholes para la curva de precios de un activo nanciero. El precio St en un instante t viene dado por un movimiento browniano geom etrico: St = S0 et
2 t+Bt 2

donde S0 es el precio inicial, es una constante que representa la tendencia a crecer (observemos que E (St ) = S0 et ), y se denomina la volatilidad. Sabemos que St satisface una ecuaci on diferencial estoc astica lineal: dSt = St dBt + St dt. Este modelo tiene las propiedades siguientes: a) Las trayectorias t St son continuas. b) Para todo s < t, el incremento relativo algebra generada por {Su , 0 u s}.
St Ss Ss

es independient de la -

95

c) La ley del cociente


2 2

(t s), (t s).

St Ss 2

es una distribuci on lognormal con par ametros

Fijemos un intervalo de tiempo [0, T ]. Una cartera de valores (o estrategia de inversi on) ser a un proceso estoc astico = {(t , t ) , 0 t T } tal que sus componentes son procesos progresivamente medibles y verican
T

|t | dt < ,
0 T 0

( t )2 dt < .

La componente t representa el capital (activo nanciero sin riesgo) al tipo de inter es r. La componente t representa la cantidad de acciones de que disponemos. En esta situaci on el valor de la cartera en cada instante t ser a Vt () = t ert + t St . Diremos que la cartera t es autonanciada si su valor es un proceso de It o con diferencial dVt () = rt ert dt + t dSt . Esto signica que el incremento del valor solo depende del incremento de los precios. Se introducen los precios actualizados como St = ert St = S0 exp ( r) t 2 t + Bt . 2

El valor actualizado de una cartera ser a, por denici on, Vt () = ert Vt () = t + t St . Observemos que dVt () = rert Vt ()dt + ert dVt () = r t St dt + ert t dSt = t dSt . 96

Se dice que un modelo es viable si existe una probabilidad equivalente respecto de la cual los precios actualizados forman una martingala. Esta condici on es equivalente a que no haya arbitrajes (carteras autonanciadas con valor inicial cero y tales que VT () 0 y P (VT () > 0) > 0). Tales probabilidades se denominan probabilidades sin riesgo. El teorema de Girsanov nos dice que existe una probabilidad Q respecto de la cual el proceso r Wt = Bt + t es una martingala. En funci on del proceso Wt los precios se escriben St = S0 exp rt 2 t + Wt , 2

y los precios actualizados ser an martingala: St = ert St = S0 exp 2 t + Wt , 2

es decir, Q ser a una probabilidad sin riesgo. El valor actualizado de una cartera autonanciada valdr a
t

Vt () = V0 () +
0

u dSu ,

y ser a una martingala respecto de Q si


T 0 2 E ( 2 u Su )du < .

(60)

Observemos que una tal cartera no puede ser un arbitraje ya que si su valor inicial es nulo, entonces, EQ VT () = V0 () = 0. Consideremos un contrato derivado sobre el activo nanciero que permita hacer un benecio a su propietario dado por una variable aleatoria h 0, FT -medible y de cuadrado integrable respecto de Q. El tiempo T ser a la fecha de vencimiento del contrato.

97

En el caso de una opci on de compra europea de vencimiento T y precio de ejercicio K , tendremos h = (ST K )+ . En el caso de una opci on de venta europea de vencimiento T y precio de ejercicio K , tendremos h = (K ST )+ . Diremos que una cartera autonanciada que cunple (60) cubre el derivado si VT () = h, y se dice entonces que la variable h es replicable. El precio del derivado en cualquier instante t T se determina como el valor de una cartera de cobertura, suponiendo que el benecio h es replicable. Vendr a dado por la f ormula Vt () = EQ (er(T t) h|Ft ), que se deduce de la propiedad de martingala de Vt () respecte de Q: EQ (erT h|Ft ) = EQ (VT ()|Ft ) = Vt () = ert Vt (). En particular, V0 () = EQ (erT h). Se dice que un modelo es completo si toda variable de cuadrado integrable respecto de la probabilidad sin riesgo es replicable. El modelo de Black y Scholes es completo, como consecuencia del teorema de representaci on de martingalas: Consideremos la martingala de cuadrado integrable Mt = EQ erT h|Ft . Sabemos que existe un proceso estoc astico Kt adaptado y de cuadrado inteT 2 grable, o sea, 0 EQ (Ks )ds < , tal que
t

(61)

Mt = M0 +
0

Ks dWs .

98

Denimos la cartera autonanciada t = (t , t ) por t = Kt St , 1 St .

t = Mt El valor actualizado de esta cartera ser a

Vt () = t + t St = Mt , y, por lo tanto, su valor nal ser a VT () = erT VT () = erT MT = h. Consideremos el caso particular h = g (ST ). El valor del derivado en el instante t ser a Vt = EQ er(T t) g (ST )|Ft = er(T t) EQ g (St er(T t) e(WT Wt ) Por lo tanto, Vt = F (t, St ), donde F (t, x) = er(T t) EQ g (xer(T t) e(WT Wt )
2 /2(T t) 2 /2(T t)

)|Ft .

(62) ) . (63)

Bajo hip otesis muy generales sobre g (por ejemplo si es continua y derivable a trozos)que incluyen, en particular, las funciones g (x) = (x K )+ , g (x) = (K x)+ , la funci on F (t, x) es derivable respecto de t y dos veces derivable respecto de x, con todas las derivadas parciales continuas. Supondremos que existe una funci on F (t, x) de este tipo tal que se cumple (62). Entonces, aplicando la

99

f ormula de It o a (62) se obtiene Vt = V0 +


t F F (u, Su )Su dWu + r (u, Su )Su du x x 0 0 t F 1 t 2F 2 + (u, Su )du + (u, Su ) 2 Su du 2 t 2 x 0 0 t F (u, Su )Su dWu = V0 + x 0 t

+
0

Ku du.

Por otro lado, sabemos que Vt es un proceso de It o con representaci on


t t

Vt = V0 +
0

Hu Su dWu +
0

rVu du.

Comparando estas dos expresiones se deduce F Ht = (t, St ), x F 1 2 2 2F rF (t, St ) = (t, St ) + St (t, St ) t 2 x2 F +rSt (t, St ). x El soporte de la ley de probabilidad de la variable aleatoria St es [0, ). Per tanto, estas igualdades nos dicen que F (t, x) satisface la ecuaci on F F 1 2F (t, x) + rx (t, x) + (t, x) 2 x2 = rF (t, x), t x 2 x2 F (T, x) = g (x). Por otra parte, la cartera recubridora ser a F t = (t, St ), x t = ert (F (t, St ) Ht St ) . La f ormula (63) puede escribirse como F (t, x) = er(T t) EQ g (xer(T t) e(WT Wt ) 1 = er 2

2 /2(T t)

(64)

g (xer 100

2 + 2

)ey

2 /2

dy,

donde = T t. En el caso particular de una opci on de compra europea de precio de ejercicio K y vencimiento T , g (x) = (x K )+ , se obtiene 1 F (t, x) = 2 = donde d d+
x log K + r 2 (T t) = , T t x + r + 2 (T t) log K = T t
2 2

ey

2 /2

xe

2 + 2

Ker

dy

x(d+ ) Ker(T t) (d ),

Por tanto, el precio en el instante t ser a Ct = F (t, St ). La composici on de la cartera de cobertura ser a Ht = F (t, St ) = (d+ ). x

References
[1] I. Karatzas and S. E. Schreve: Brownian Motion and Stochastic Calculus. Springer-Verlag 1991 [2] F. C. Klebaner: Introduction to Stochastic Calculus with Applications. [3] T. Mikosh: Elementary Stochastic Calculus. World Scientic 2000. [4] B. ksendal: Stochastic Dierential Equations. Springer-Verlag 1998 [5] D. Revuz and M. Yor: Continuous Martingales and Brownian motion. Springer-Verlag, 1994.

101

You might also like