You are on page 1of 199

Probabilidad, Procesos

estocasticos y Calculo de Ito


Eva Ferreira
Universidad del Pas Vasco
David Nualart
Universidad de Barcelona

Indice general
Parte 1. PROBABILIDAD 1
Captulo 1. Probabilidad y Variables aleatorias 3
1. Espacios de probabilidad 3
2. Variables aleatorias 4
3. Esperanza matematica y funciones asociadas 8
4. Independencia 11
5. Probabilidad condicionada 12
6. Desigualdades y tipos de convergencia 13
7. Ejercicios 19
Captulo 2. Mezcla de distribuciones 21
1. Convolucion de variables 21
2. Distribuciones compuestas 22
3. Regla de esperanzas iteradas 25
4. Ejercicios 26
Captulo 3. Distribuciones discretas 29
1. Ley de Poisson 29
2. Ley Binomial negativa 33
3. Ley de Polya-Eggenberger 35
4. Ejercicios 38
Captulo 4. Distribuciones continuas 39
1. Ley logartmico-normal 39
2. Ley de Pareto 39
3. Distribucion de Burr 41
4. Ley Gamma 41
5. Ley Exponencial 41
6. Ley de Weibull 42
7. Ley Beta 43
8. Distribuciones multidimensionales 44
iii
iv

INDICE GENERAL
Parte 2. Procesos Estocasticos 47
Captulo 5. Introduccion 49
1. Distribuciones marginales. Teorema de Kolmogorov 50
2. Caractersticas de un proceso. Procesos normales 52
3. Criterio de continuidad 54
4. Ejercicios 55
Captulo 6. Cadenas de Markov 57
1. Matrices estocasticas y denicion cadenas de Markov 57
2. Clasicacion de los estados de una cadena 62
3. Tiemplos de llegada y probabilidades de absorcion 63
4. Recurrencia y transitoriedad 67
5. Comportamiento asintotico: Distribuciones estacionarias 70
Captulo 7. Procesos estacionarios 75
1. Procesos ARMA 78
2. Representacion espectral 82
3. Funcion de autocorrelacion parcial 85
4. Procesos estrictamente estacionarios 87
Captulo 8. Procesos de Poisson 93
1. Procesos con saltos 93
Captulo 9. Martingalas 103
1. Paseo aleatorio 110
Captulo 10. Movimiento browniano 113
Parte 3. Calculo estocastico 123
Captulo 11. Integracion estocastica 125
1. Integrales estocasticas indenidas 131
2. Extensiones de la integral estocastica 135
Captulo 12. Formula de Ito 139
1. Representacion integral de martingalas 144
2. Completitud del modelo de Black-Scholes 147
3. Cambios de probablidad: Teorema de Girsanov 150
Captulo 13. Ecuaciones diferenciales estocasticas 161
1. Formula de Feynman-Kac 173
2. Modelo de Black y Scholes con saltos 179
Parte 1
PROBABILIDAD
CAPTULO 1
Probabilidad y Variables aleatorias
Dedicaremos este primer captulo a la revision de los conceptos
y resultados basicos referentes a espacios de probabilidad y variables
aleatorias. Al tratarse de una revision de utilidad para la compren-
sion del resto del libro, la exposicion es esquematica y unicamente se
desarrollan aquellas demostraciones que hemos considerado de utilidad
pedagogica o que no se suelen encontrar en otros textos. Para un anali-
sis general mas completo remitimos a los textos basicos de teora de la
probabilidad.
1. Espacios de probabilidad
Un espacio de probabilidad es una terna (, T, P) que se utiliza
como modelo matematico para describir una experiencia aleatoria. Los
elementos de la terna tienen la siguiente interpretacion:
(i) es el conjunto de todos los resultados posibles de la expe-
riencia.
(ii) T es una familia de subconjuntos de que tiene estructura de
-algebra. Los conjuntos A T se denominan sucesos.
(iii) P es una medida de probabilidad que asigna un n umero P(A)
a cada suceso A T .
Las deniciones de -algebra y medida de probabilidad se dan a
continuacion.
Definici on 1.1. Una familia de subconjuntos T de un conjunto
es una -algebra si se cumple:
1. T.
2. Si A T, entonces A
c
T.
3. Si A
1
, . . . , A
n
, . . . pertenecen a T, entonces A
1
A
n

T.
Es decir, podemos pensar en una -algebra como en una familia de
sucesos donde las operaciones union, interseccion y complementacion
son operaciones internas para un conjunto numerable de sucesos.
Definici on 1.2. Si T es una -algebra de sucesos de , decimos
que P : T R es una medida de probabilidad si se cumple
3
4 1. PROBABILIDAD Y VARIABLES ALEATORIAS
i) 0 P(A) 1.
ii) P() = 1.
iii) Sean A
1
, . . . , A
n
, . . . sucesos de T, tales que A
i
A
j
= , i ,= j,
entonces P(A
1
A
n
. . . ) =

i=1
P(A
i
).
Ejemplo 1.1. Lanzamos un dado.
= 1, 2, 3, 4, 5, 6.
T = P.() (T contiene todos los subconjuntos de )
P(i) =
1
6
, para i = 1, 2, 3, 4, 5, 6.
Propiedades
1. El conjunto vaco se denomina suceso imposible y tiene pro-
babilidad cero: P() = 0
2. P(A
c
) = 1 P(A)
3. Si A B, entonces P(A) P(B)
4. P(A B) = P(A) +P(B) P(A B)
Diremos que dos sucesos A y B son excluyentes si A B = y
por tanto, P(A B) = 0.
Dada una coleccion | de subconjuntos de , la mnima -algebra
que contiene | es, por denicion,
(|) = (, ( es una -algebra, | ( .
La -algebra (|) se denomina la -algebra generada por |.
Por ejemplo, la -algebra generada por los intervalos (o por los
conjuntos abiertos) de R se denomina la -algebra de Borel R y se
representa por B
R
.
Consideremos una particion nita T = A
1
, . . . , A
n
de . La -
algebra generada por T esta formada por las uniones A
i
1
A
i
k
donde i
1
, . . . , i
k
es un subconjunto arbitrario de 1, . . . , n. Por lo
tanto, la -algebra (T) tiene 2
n
sucesos.
2. Variables aleatorias
Definici on 1.3. En un espacio de probabilidad (, T, P) , decimos
que X es una variable aleatoria (v.a.) si X es una funcion de
en R,

X
R
X()
de forma que X
1
() T para cualquier conjunto de Borel R.
2. VARIABLES ALEATORIAS 5
Esto signica que una variable aleatoria X es una funcion medible
que asigna un n umero real X() a cada resultado de la experiencia
aleatoria. La condicion de medibilidad implica que dados dos n umeros
reales a b, el conjunto de resultados , para los cuales a
X() b, es un suceso, que designaremos por a X b.
Una variable aleatoria dene una medida de probabilidad en la -
algebra de Borel de R, mediante la formula
P
X
() = P(X
1
()), B
R
.
La probabilidad P
X
se denomina la ley o distribuci on de la variable
aleatoria X. De esta forma, mediante una variable aleatoria X se
transforma el espacio de probabilidad original (, T, P) en el espacio
de probabilidad (R, B
R
, P
X
).
Diremos que X es una variable aleatoria discreta si toma solo
un conjunto nito o numerable de valores x
i
. En tal caso, la funcion
de probabilidad p
X
(x
i
) = P(X = x
i
) caracteriza la distribucion de la
variable aleatoria.
Diremos que una variable aleatoria X es absolutamente continua
(a.c.), con funcion de densidad f
X
(x) si para todo a < b,
P (a < X < b) =
_
b
a
f
X
(x)dx.
La funcion de densidad f es positiva y cumple
_
+

f
X
(x)dx = 1.
Ejemplo 1.2. En la experiencia de lanzar un dado, la variable
aleatoria
X(1) = X(3) = X(5) = 1,
X(2) = X(4) = X(6) = 1.
representa la ganancia de un jugador que recibe un euro si sale impar
y pierde un euro si sale par. Esta variable es discreta con funcion de
probabilidad
p
X
(1) = P(X
1
(1)) = P(1, 3, 5) =
1
2
,
p
X
(1) = P(X
1
(1)) = P(2, 4, 6) =
1
2
.
Ejemplo 1.3. Si A es un suceso, la variable aleatoria
1
A
() =
_
1 si A
0 si / A
6 1. PROBABILIDAD Y VARIABLES ALEATORIAS
se denomina la funcion indicatriz de A. Su ley de probabilidad se de-
nomina ley de Bernoulli o binaria con parametro p = P(A) y
vale
p(0) = 1 p = q.
p(1) = p.
Ejemplo 1.4. Diremos que la variable aleatoria X tiene ley nor-
mal N(m,
2
) si su funcion de densidad es
f
X
(x) =
1

2
2
e

(xm)
2
2
2
.
Ejemplo 1.5. Diremos que una variable aleatoria X tiene ley
binomial B(n, p) si
p
X
(k) = P (X = k) =
_
n
k
_
p
k
(1 p)
nk
,
para k = 0, 1, . . . , n. La variable X cuenta el n umero de veces que se
produce un suceso de probabilidad p en la repeticion n veces de una
experiencia aleatoria.
La funci on de distribuci on de una v.a. X es la funcion F
X
:
R [0, 1], denida por
F
X
(x) = P(X x).
Se trata de una funcion creciente, continua por la derecha y tal que
lm
x
F
X
(x) = 0,
lm
x+
F
X
(x) = 1.
Si la variable X toma un valor x con probabilidad no nula, entonces,
P(X = x) es igual al salto de la funcion de distribucion en este punto:
P(X = x) = F
X
(x) F
X
(x).
La funcion de distribucion se calcula de la forma siguiente:
Si la variable X es discreta, su funcion de disribucion vale
F
X
(x) =

x
i
x
p
X
(x
i
).
En particular, la funcion de distribucion es constante a trozos.
2. VARIABLES ALEATORIAS 7
Si la variable aleatoria es absolutamente continua, con densi-
dad f
X
(x), entonces,
F
X
(x) =
_
x

f
X
(t)dt.
y f
X
(x) = F

X
(x), en los puntos x en que la densidad sea
continua.
2.1. Cambios de variable. En general, si X es una variable
aleatoria y h una funcion medible, h : R R, Y = h(X) dene una
nueva variable aleatoria. Su ley de probabilidad sera
P
Y
() = P(Y
1
()) = P(X
1
(h
1
())) = P
X
(h
1
()).
En general, la dicultad para el calculo de la distribucion de Y a partir
de la de X, reside en encontrar la imagen inversa h
1
(). Para variables
discretas, esto suele resultar sencillo.
En el caso de variables absolutamente continuas donde la trans-
formacion h es invertible y podemos escribir X = h
1
(Y ) = g(Y ), se
obtiene que
f
Y
(y) = f
X
(g(y))[g

(y)[.
Este resultado es generalizable a variables multidimensionales. En
este caso, si X es una variable aleatoria a. c. de dimension p, y h una
funcion invertible, h : R
p
R
p
, con g(y) = h
1
(y), se tiene
f
Y
(y) = f
X
(g(y)) [det J (g(y))[ ,
donde J (g(y)) representa el Jacobiano de g(y).
Ejemplo 1.6. Sea X una v.a. binaria de parametro p. Si realiza-
mos el cambio de variable Y = aX + b, tenemos que Y es una varia-
ble aleatoria que puede tomar los valores b, a +b , con probabilidades
P(Y = b) = P(X = 0) = 1 p = q, P(Y = a +b) = P(X = 1) = p.
Ejemplo 1.7. Sea X una v.a. absolutamente continua con do-
minio en el intervalo [k
1
, k
2
] y funcion de densidad f
X
(x) . De-
nimos Y = aX + b, a > 0. La transformacion h(x) = ax + b es
estrictamente creciente y, por tanto, invertible con inversa g(y) =
(y b) /a. Entonces, Y es una v.a. absolutamente continua con do-
minio [ak
1
+b, ak
2
+b] y funcion de densidad
f
Y
(y) = f
X
(g(y))[g

(y)[ = f
X
_
y b
a
_
1
a
.
8 1. PROBABILIDAD Y VARIABLES ALEATORIAS
3. Esperanza matematica y funciones asociadas
Sea X una variable aleatoria y consideremos la variable h(X),
obtenida mediante una transformacion de X. Se dene la esperanza
matematica o valor esperado de h(X) como
E(h(X)) =
_

h(x)f
X
(x)dx, si X es absolutamente continua
=

x
i
h(x
i
)p
X
(x
i
), si X es discreta,
suponiendo que la integral y la serie convergen.
Utilizando el concepto de integral de Stieltjes podemos representar
de forma unica este valor esperado como
E(h(X)) =
_

h(x)dF
X
(x),
donde
_

h(x)dF
X
(x) = lm
0

n=
sup
n<x(n+1)
h(x) [F
X
(n +) F
X
(n)] .
3.1. Casos particulares.
Media: Si h(x) = x obtenemos
E(X) = m
X
.
Varianza: Si h(x) = (x m
X
)
2
obtenemos
V(X) =
2
X
= E(X m
X
)
2
.
Se tiene
V(X) = E(X
2
) m
2
X
.
Momento de orden k = 1, 2, . . .: Si h(x) = x
k
obtenemos

k
= E(X
k
).
Funci on caracterstica: Si h(x) = e
iux
obtenemos

X
(u) = E(e
iuX
).
Funci on generatriz de momentos: Si h(x) = e
ux
obtene-
mos

X
(u) = E(e
uX
).
3. ESPERANZA MATEM

ATICA Y FUNCIONES ASOCIADAS 9


Funci on generatriz de probabilidad: Si h(x) = u
x
obte-
nemos
G
X
(u) = E(u
X
).
Cualquiera de las funciones anteriores (caracterstica, generatriz de
momentos, generatriz de probabilidad) caracteriza la distribucion de
una variable aleatoria. El inconveniente de las dos ultimas es que su
existencia esta sujeta a la existencia de momentos de la distribucion,
mientras que la funcion caracterstica existe para cualquier variable
aleatoria. En los casos en los que existe la funcion generatriz de mo-
mentos, se tiene que

X
(u) =
X
(iu).
Los momentos de una variable aleatoria pueden calcularse a partir
de las derivadas de la funcion caracterstica en el origen:

k
=
1
i
k

(k)
X
(u)[
u=0
.
Una funcion derivada de la funcion caracterstica es la funci on
cumulativa. Esta funcion se obtiene como
X
= log
X
. Su utilidad
practica es clara al obtenerse en su desarrollo en serie los valores tpicos
mas importantes de la distribucion.
Designemos por
k
el momento central E
_
(X m
X
)
k
_
. Desarro-
llando en serie la funcion exponencial obtenemos

X
(u) = log(1 +
1
(iu) +

2
2!
(iu)
2
+

3
3!
(iu)
3
+

4
4!
(iu)
4
. . . ).
y usando el desarrollo en serie log(1 + x) = x x
2
/2 + x
3
/3 . . . se
deduce un desarrollo de la forma

X
(u) = k
1
(iu) +
k
2
2!
(iu)
2
+
k
3
3!
(iu)
3
+
k
4
4!
(iu)
4
. . . ,
donde k
1
=
1
= m
X
, k
2
=
2
X
, k
3
=
3
, k
4
=
4
3
2
2
, . . .
Los coecientes k
r
se denominan coecientes semi-invariantes y los
cuatro primeros proporcionan la media, la varianza, la asimetra y la
curtosis de la variable aleatoria, en este orden. Los coecientes de asi-
metra
1
y curtosis
2
de la variable aleatoria se denen del modo
siguiente:

1
=

3

3
x
=
k
3
k
3/2
2
,

2
=

4

4
X
3 =
k
4
k
2
2
3.
10 1. PROBABILIDAD Y VARIABLES ALEATORIAS
La esperanza matematica de la variable X = 1
A
, valdra
E(1
A
) = P(A).
ya que se trata de una variable discreta que toma los valores 0 y 1
con probabilidades 1 P(A) y P(A), respectivamente. Es interesante
destacar que esta forma de escribir la probabilidad de un suceso como el
valor esperado de su funcion indicatriz resulta muy util en los calculos
analticos.
Para dimensiones mayores d 2, el valor esperado de una funcion
h(X) de una variable p-dimensional X = (X
1
, . . . , X
d
) es
E(h(X)) =
_
R
d
h(x)dF
X
(x).
donde F
X
(x) denota la funcion de distribucion d-dimensional de X y
h(x) es una funcion medible de R
d
en R.
En dos dimensiones, un valor esperado de gran interes estadstico
es la covarianza entre X e Y, que se obtiene tomando h(x, y) = (x

X
)(y
Y
) con lo que .
C(X, Y ) =
XY
= E[(X
X
)(Y
Y
)]
= E(XY )
X

Y
.
3.2. Propiedades de la esperanza matematica.
1. Linealidad:
E(aX +bY ) = aE(X) +bE(Y ).
2. Varianza de una combinacion lineal de variables:
(1.3.1) V(aX +bY ) = a
2
V(X) +b
2
V(Y ) + 2abC(X, Y ).
Ejemplo 1.8. Siguiendo con las variables del ejemplo 1.6, se tiene
E(X) = 0 q + 1 p = p,
V(X) = E(X
2
) E(X)
2
= p p
2
= pq,

X
(u) = E(e
iuX
) = q +e
iu
p.
y
E(Y ) = aE(X) +b = ap +b,
V(X) = a
2
V(X) = a
2
pq,

Y
(u) = e
iub

X
(au) = qe
iub
+e
i(au+b)
p.
4. INDEPENDENCIA 11
Ejemplo 1.9. Si X es una v.a. con ley normal N(0,
2
) y es un
n umero real,
E(e
X
) =
1

2
2
_

e
x
e

x
2
2
2
dx
=
1

2
2
e

2
2
_

(x
2
)
2
2
2
dx
= e

2
2
.
Ejemplo 1.10. Si X es una variable aleatoria con ley de Poisson
de parametro > 0,
E(X) =

k=0
k
e

k
k!
= e

k=1
e

k1
(k 1)!
= .
4. Independencia
La independencia es una nocion basica en probabilidades. Se dice
que dos sucesos A y B son independientes si
P(A B) = P(A)P(B).
Si consideramos una familia de sucesos A
i
, i I, se dice que son
(mutuamente) independientes si se cumple
P(A
i
1
A
i
k
) = P(A
i
1
) P(A
i
k
).
para todo conjunto nito de ndices i
1
, . . . , i
k
I. Por ejemplo, tres
sucesos A, B, C son mutuamente independientes si
P(A B) = P(A)P(B),
P(A C) = P(A)P(C),
P(B C) = P(B)P(C),
P(A B C) = P(A)P(B)P(C).
Dos -algebras T
1
, T
2
son independientes si cualquier suceso T
1
es
independiente de cualquier suceso de T
2
. Mas generalmente, las -alge-
bras T
i
, i I son mutuamente independientes si al elegir un suceso
A
i
T
i
, para cada i I, se obtiene una familia mutuamente indepen-
diente de sucesos.
Se dice que dos variables aleatorias X, Y son independientes si lo
son las -algebras X
1
(B
R
) y Y
1
(B
R
). Es decir, si
P(X
1
, Y
2
) = P(X
1
)P(Y
2
).
12 1. PROBABILIDAD Y VARIABLES ALEATORIAS
para cada par de conjuntos de Borel
1
,
2
. Mas generalmente, una fa-
milia de variables aleatorias X
i
, i I es independiente si la coleccion
de -algebras
_
X
1
i
(B
R
), i I
_
es independiente. Es decir,
P(X
i
1

i
1
, . . . , X
i
k

i
k
) = P(X
i
1

i
1
) P(X
i
k

i
k
),
para todo conjunto nito de ndices i
1
, . . . , i
k
I, donde los
j
son
conjuntos de Borel.
4.1. Propiedades. Si X e Y son independientes
(1.4.1) E(XY ) = E(X)E(Y ).
Mas generalmente, si X
1
, . . . , X
n
son variables aleatorias independien-
tes,
(1.4.2) E[h
1
(X
1
) h
n
(X
n
)] = E[h
1
(X
1
)] E[h
n
(X
n
)] ,
donde las h
i
son funciones medibles tales que E([h
i
(X
i
)[) < .
Las propiedades (13.0.20) y (13.0.19) implican que la varianza de
una suma de variables aleatorias independientes es igual a la suma de
varianzas:
V(X +Y ) = V(X) +V(Y ).
Tambien la propiedad (13.0.19) implica que si X e Y son independientes

X+Y
(u) =
X
(u)
Y
(u).
Las componentes de un vector aleatorio son independientes si y
solo si la funcion de probabilidad (o la densidad) del vector es igual al
producto de las funciones de probabilidad (densidades) marginales.
5. Probabilidad condicionada
Se dene la probabilidad de un suceso A condicionada a un suceso
B como
P(A[B) =
P(A B)
P(B)
,
siempre que P(B) > 0. La aplicacion A P(A[B) es una medida
de probabilidad en la -algebra T, dado que cumple los axiomas i) a
iii), que esta concentrada en el suceso B. El espacio de probabilidad
(, T, P([B)) modeliza la experiencia aleatoria inicial cuando nos dan
la informacion adicional de que el suceso B se ha realizado.
Vemos que dos sucesos A y B tales que P(B) > 0 son independien-
tes si y solo si P(A[B) = P(A).
6. DESIGUALDADES Y TIPOS DE CONVERGENCIA 13
La esperanza matematica de una variable aleatoria X condicionada
por un suceso B se dene como la esperanza de X en el espacio de
probabilidad (, T, P([B)), es decir,
E(X[B) =
1
P(B)
E(X1
B
).
Propiedades de la esperanza condicionada:
Linealidad
E(aX +bY [B) = aE(X[B) +bE(Y [B).
Si X y B son independientes
E(X[B) = E(X).
Ejemplo 1.11. Consideremos dos variables aleatorias X e Y con
la siguiente distribucion de probabilidades
X
Y
1 2 3
1 0.1 0.2 0.1
2 0.3 0.1 0.2
La distribucion de probabilidad de la variable X condicionada por
el suceso (Y = 1) es
P(1[ (Y = 1)) =
0,1
0,4
= 0,25,
P(2[ (Y = 1)) =
0,3
0,4
= 0,75,
Por tanto,
E(X[Y = 1) = 1 0,25 + 2 0,75 = 1,75.
6. Desigualdades y tipos de convergencia
Enumeramos a continuacion algunas desigualdades basicas.
Desigualdad de Chebychev
P([X[ > )
1

p
E([X[
p
) , > 0.
Desigualdad de Schwartz
E(XY )
_
E(X
2
)E(Y
2
).
14 1. PROBABILIDAD Y VARIABLES ALEATORIAS
Desigualdad de Holder
E(XY ) [E([X[
p
)]
1/p
[E([Y [
q
)]
1/q
.
p, q > 1 y
1
p
+
1
q
= 1.
Desigualdad de Jensen: Si : R R es una funcion convexa
tal que las esperanzas de las variables X y (X) estan bien
denidas
(E(X)) E((X)) .
En particular,
[E(X)[
p
E([X[
p
).
La desigualdad de Jensen se emplea en las tecnicas de programacion
estocastica para resolver problemas de optimizacion. Por ejemplo, en
los problemas de seleccion de carteras se ha de resolver un problema
de optimizacion. Usando metodos deterministas, los valores aleatorios
se sustituyen por valores esperados y el problema de optimizacion se
resuelve despues. Utilizando los metodos de programacion estocastica
se resuelve el problema de optimizacion para cada escenario (), y se
obtiene como solucion el valor promedio. Al ser las funciones mn(), o
alternativamente max(), funciones convexas, la desigualdad de Jen-
sen hace que no sean equivalentes los resultados obtenidos.
Ejemplo 1.12. Sea X una v.a. uniforme en [0, 1], es decir, su den-
sidad es constante en este intervalo. Sea Y = e
X
. Entonces,
E(Y ) = E(e
X
) =
_
1
0
e
x
dx = e 1 < e
1/2
= e
E(X)
.
6.1. Convergencias. Sea una sucesion de variables aleatorias
X
1
, X
2
, . . . , X
n
, . . . . Al contrario que en el caso de n umeros reales,
la nocion de convergencia en sucesiones estocasticas no es unica. En el
caso de sucesiones de n umeros reales, la nocion de lmite o convergencia
a un valor establece que x = lm
n
x
n
si, para cualquier > 0, existe
un entero positivo n

, tal que si n n

, se tiene que [x x
n
[ < . La
extension de este concepto a una sucesion implica la denicion de dis-
tancia entre variables aleatorias. Dependiendo de como se dena esta
distancia, tendremos las distintas nociones de convergencia.
6. DESIGUALDADES Y TIPOS DE CONVERGENCIA 15
Convergencia en ley, debil, o en distribuci on
Consideremos una sucesion de v.a. X
n
, n 1 con funciones de
distribucion denotadas respectivamente por F
n
, n 1.Decimos que
esta sucesion converge en ley, debilmente o que converge en distri-
buci on a la v.a. X,
_
X
n
L
X
_
con funcion de distribucion F(x), si
se cumple que
lm
n
F
n
(x) = F(x).
en todo punto de continuidad de F(), donde F() representa la funcion
de distribucion de X.
Ejemplo 1.13. Supongamos que para cada n 1, la variable alea-
toria X
n
tiene una distribucion uniforme en el intervalo [0, 1+1/n]. Es
decir, la densidad de X
n
sera constante igual a
1
1+1/n
en este intervalo.
La funcion de distribucion de X
n
vale
F
n
(x) =
_
_
_
0 si x < 0
x
1+1/n
si 0 x 1 + 1/n
1 si x > 1 + 1/n
Por tanto, cuando n , se tiene claramente que F
n
(x) F(x),
donde F(x) = 0, si x < 0, F(x) = x, si x [0, 1] y F(x) = 1 si
x > 1. Es decir, la sucesion X
n

n
converge debilmente (en ley o en
distribucion) a una v.a. uniforme en el intervalo [0, 1].
Cabe resaltar que la convergencia en distribucion no requiere ning un
tipo de relacion entre los valores que puedan tomar las variables. Como
vemos de la denicion, la cercana entre las variables que forman la
sucesion se mide en terminos de sus funciones de distribucion y no hay
ning un requerimiento sobre la distribucion conjunta entre las variables
y su lmite. De hecho, si tomamos una sucesion formada por variables
independientes con la misma distribucion, claramente el lmite es la
v.a. X con la distribucion com un a todas, y sin embargo, la sucesion de
valores reales que se forma en cada realizacion o estado de la naturaleza
no tiene por que converger a ning un n umero, ni estar cerca de ning un
valor.
Convergencia en probabilidad
Decimos que una sucesion de v.a. X
n
, n 1 converge en proba-
bilidad a una v.a. X
_
X
n
p
X
_
si se cumple que, para todo > 0,
lm
n
P ([X
n
X[ < ) = 1.
16 1. PROBABILIDAD Y VARIABLES ALEATORIAS
o equivalentemente
lm
n
P ([X
n
X[ ) = 0.
Seg un esta denicion, la medida del suceso (conjunto de estados )
en los que los valores que toma X
n
se alejan del valor de X, se puede
hacer tan peque na como se quiera.
Este tipo de convergencia y los siguientes requieren alg un criterio
de cercana en la sucesion de valores que haya en cada realizacion.
Ejemplo 1.14. Consideremos la sucesion de v.a. X
n
, n 1, tal
que cada X
n
es una v.a. binaria de parametro p
n
= 1/n. Veamos que
esta sucesion tiene como lmite en probabilidad X 0.
Si 1,
P ([X
n
X[ < ) = P ([X
n
[ < ) = P (X
n
0, 1) = 1.
Si < 1,
P ([X
n
X[ < ) = P ([X
n
[ < ) = P (X
n
= 0) = 1
1
n
1.
Por tanto, se obtiene que X
n
0 en probabilidad.
Ejemplo 1.15. Consideremos la sucesion de v.a. X
n
, n 1 in-
dependientes, tal que cada X
n
es una v.a. binaria de parametro p = 0,5.
Veamos que esta sucesion no converge en probabilidad.
Sea = 0,5. Sean X
n
y X
m
dos v.a. cualesquiera de la sucesion,
con n ,= m,
P ([X
n
X
m
[ < 0,5) = P (X
n
= 0) P (X
m
= 0)
+P (X
n
= 1) P (X
m
= 1) = 0,5 1.
Convergencia uniforme o casi segura
Decimos que una sucesion de v.a. X
n
, n 1 converge uniforme-
mente o casi seguro a una v.a. X
_
X
n
c.s.
X
_
si se verica que
P
_
lm
n
X
n
= X
_
= 1.
La convergencia casi segura es mas exigente que la convergencia en
probabilidad y requiere que la medida del suceso en el que se cumple
6. DESIGUALDADES Y TIPOS DE CONVERGENCIA 17
lm
n
X
n
() ,= X() ha de ser, no sucientemente peque na, sino
nula.
Convergencia en media de orden p
Decimos que una sucesion de v.a. X
n
, n 1 converge en media
de orden p 1 a una v.a. X
_
X
n
L
p
X
_
si se cumple
lm
n
E([X
n
X[
p
) = 0.
Relaciones entre convergencias. Enunciamos algunas relaciones
generales basicas.
La convergencia en media de orden p implica la convergencia
en probabilidad. Esta implicacion es una consecuencia inme-
diata de la desigualdad de Chebychev:
P([X
n
X[ > )
1

p
E([X
n
X[
p
).
La convergencia casi segura implica la convergencia en proba-
bilidad.
La convergencia en probabilidad implica la convergencia casi
segura de una sucesion parcial.
Cualquiera de los tipos de convergencia estudiados implica la
convergencia en ley.
Si una sucesion converge en distribucion a una constante, en-
tonces tambien converge en probabilidad.
La v.a. lmite es la misma en todos los tipos de convergencia
(en probabilidad, casi segura o en media de orden p) que se
cumplan.
El teorema de convergencia dominada, que enunciamos a continua-
cion, proporciona condiciones sucientes para que la convergencia casi
segura implique la convergencia en media de orden p.
Teorema 1.1. (Convergencia dominada). Consideremos una
sucesion de v.a. X
n
, n 1 que converge casi seguramente hacia una
v.a. X. Supongamos que existe una v.a. no negativa Y tal que
E[X
n
[ Y , para todo n,
E(Y
p
) < con p 1.
Entonces, X
n
X en media de orden p.
18 1. PROBABILIDAD Y VARIABLES ALEATORIAS
Para nalizar este repaso por la teora basica de la Probabilidad,
enunciamos dos versiones de los teoremas fundamentales: Teorema Cen-
tral del Lmite (TCL) y Ley de los Grandes N umeros.
Teorema 1.2. (Teorema Central del Lmite). Considerar
X
n
, n 1 una sucesion de v.a. independientes e identicamente dis-
tribuidas, con momento de segundo orden nito. Sea m = E(X
1
) y

2
= V(X
1
). Entonces,

n
_
X
n
m

_
L
N(0, 1).
donde X
n
denota la media muestral (X
1
+ +X
n
) /n.
El TCL proporciona una aproximacion asintotica de la distribucion
de promedios o sumas de variables aleatorias independientes e identi-
camente distribuidas y tiene m ultiples aplicaciones en la obtencion de
la distribucion de estimaciones de parametros en modelos economicos.
Por otro lado, el enunciado del teorema aporta el motivo principal pa-
ra que la ley Normal sea considerada la distribucion de referencia en
Estadstica.
Ejemplo 1.16. Lanzamos una moneda equilibrada al aire 100 veces.
Cual sera la probabilidad de obtener mas de 60 caras? El resultado
exacto es el que procede de tomar el n umero de caras como una v.a.
binomial B(n, p), con p = 0,5. El resultado en este caso es
100

k=61
_
100
k
_
0,5
100
= 0,0176.
Utilizando el TCL aproximamos la distribucion de X por la distri-
bucionN(np, npq) = N(50, 25), con lo que obtenemos
P(X > 60) = P(X 61)

= 1
_
60,5 50
5
_
= 1 (2,1) = 0,0178,
donde
(x) =
1

2
_
x

e
z
2
/2
dz
denota la funcion de distribucion de la ley N(0, 1).
7. EJERCICIOS 19
Teorema 1.3. (Ley Fuerte de los Grandes N umeros). Sea
X
n
, n 1 una sucesion de v.a. independientes e identicamente dis-
tribuidas, tales que E([X
1
[) < . Entonces, la media muestral converge
casi seguramente a la media poblacional m = E(X
1
):
X
n
c.s.
m.
La ley de los grandes n umeros permite asegurar que el suceso for-
mado por los estados donde la media muestral no converge a la media
poblacional tiene probabilidad nula. Conviene recordar que si en vez
de cumplirse la convergencia casi segura se cumple la convergencia en
probabilidad decimos que se cumple la ley debil de los grandes n umeros.
7. Ejercicios
Ejercicio 1.1. En una entidad bancaria se quiere confeccionar una
cartera formada por dos activos, con rendimientos R
1
y R
2
, y el activo
seguro de rendimiento S = 5 %. Se sabe que las distribuciones de los
rendimientos R
1
y R
2
son R
1
N(15 %,
1
= 10 %); R
2
N(7 %,
2
=
5 %). La correlacion entre ambos rendimientos es
12
= 0,7. Se plantean
dos carteras, en la primera el rendimiento es R
A
= 0,25R
1
+0,25R
2
+
0,5S, y en la segunda R
B
= 0,4R
1
+ 0,2R
2
+ 0,4S. Se pide:
i) Analizar para ambas carteras: rendimiento medio, varianza y pro-
babilidad de que el rendimiento supere el 10 %.
ii) El banco ofrece los inversores un rendimiento en ambas carteras
del 6.5 %. Obtener la distribucion del porcentaje de benecios sobre
inversion para cada cartera.
iii) Si el banco recibe 1 millon de euros de inversion para cada una
de las carteras, obten la probabilidad de que los benecios totales de la
operacion superen los 10000 euros.
Ejercicio 1.2. Se nos plantea el siguiente juego. Hay dos urnas A
y B. A contiene 100 bolas, de las cuales 5 estan premiadas. B contiene
diez bolas, de las cuales una esta premiada. El juego consiste en elegir
una urna al azar y despues extraer una bola.
i) Cual es la probabilidad de obtener premio?
ii) Se nos ofrece ahora la posibilidad de echar todas las bolas a una
unica urna. Con que forma de jugar se tiene mas probabilidad de
obtener premio?
Ejercicio 1.3. En una habitacion en la que hay n personas, cual
es la probabilidad de que al menos dos personas coincidan en la fecha
de cumplea nos (sin considerar a nos bisiestos)? Obten la probabilidad
para n = 10, 20, 30 y 40.
20 1. PROBABILIDAD Y VARIABLES ALEATORIAS
Ejercicio 1.4. En un concurso televisivo, el concursante elige en-
tre tres cajas numeradas del uno al tres y de las cuales unicamente una
esta premiada. Denotemos por C
1
, C
2
y C
3
a los sucesos premio en la
caja uno, dos y tres respectivamente. El concursante elige la caja uno.
Una vez elegida, el presentador dice: le voy a abrir, de las dos cajas
restantes, una de ellas que no tiene premio. Le abre la caja dos, mos-
trando que esta vaca y le ofrece la oportunidad de cambiar su eleccion
de la caja uno a la caja tres. Que debe hacer el concursante? Suge-
rencia: Obtener la probabilidad de premio al cambiar, condicionando al
suceso A
2
: El presentador abre la caja dos
Ejercicio 1.5. Sea X una variable aleatoria log-normal; es decir,
Y = log X N (,
2
) . Obten la funcion de densidad de Y.
Ejercicio 1.6. Sea g : R R una funcion continua. Demostrar
que si una sucesion de v.a. X
n

n1
converge a X en probabilidad;
entonces g(X
n
) converge a g(X) en probabilidad.
Ejercicio 1.7. Sea X
n
= X +
n
, n = 1, 2, ...; con X N(5, 1),
donde las v.a.
n
son i.i.d., independientes de X,y con distribucion
N(0,
2
=
1
n
). Estudiar la convergencia de X
n
a X seg un los distintos
tipos de convergencia estudiados.
Ejercicio 1.8. Sea X una v.a. que toma los valores 2, 0, 2 con
probabilidad 0,4, 0,3, 0,3 respectivamente. Calcular los valores espera-
dos de X, 3X
2
+ 5, e
X
.
Ejercicio 1.9. El progreso X entre dos vehculos en un instante
jo es una variable al azar con
P(X t) = 1 0,6e
0,02t
0,4e
0,03t
,
t 0. Calcula el valor esperado y la variacion del progreso.
Ejercicio 1.10. Sea Z una v.a. con ley N(0,
2
). A partir de la
expresion
E(e
Z
) = e
1
2

2
,
obtener las formulas siguientes para los momentos de Z:
E(Z
2k
) =
(2k)!
2
k
k!

2k
,
E(Z
2k1
) = 0.
CAPTULO 2
Mezcla de distribuciones
1. Convoluci on de variables
Habitualmente, obtenemos la distribucion de la suma de variables
aleatorias independientes utilizando el producto de funciones carac-
tersticas e identicando la funcion resultante. Utilizar la convolucion
resulta un metodo alternativo de aplicacion sencilla para obtener di-
rectamente la funcion de densidad (v.a. continuas) o funcion de proba-
bilidad (v.a. discretas) de la suma de dos variables independientes.
Consideremos dos v.a. X e Y independientes entre s, con distribu-
ciones denidas respectivamente por
P(X = j) = a
j
P(Y = k) = b
k
para j, k = 0, 1, . . . . Entonces, la probabilidad del suceso conjunto
(X = j, Y = k), que denotamos por p
jk
, vendra determinada clara-
mente por a
j
b
k
.
Consideremos ahora la v.a. suma Z = X+Y . El suceso Z = r ser la
union de los sucesos (X = j; Y = r j), para j = 0, . . . , r. Por tanto
P (Z = r) =
r

j=0
P(X = j; Y = r j)
=
r

j=0
a
j
b
rj
= c
r
=
r

j=0
b
j
a
rj
A esta sucesion c
r
se le denomina convolucion de las sucesiones
a
r
y b
r
y se denota c
r
= a
r
b
r

Si consideramos que las v.a. X e Y son continuas, con funciones


de densidad f
X
(x), f
Y
(y), obtenemos que la funcion de densidad de la
suma es
21
22 2. MEZCLA DE DISTRIBUCIONES
f
Z
(z) =
_

f
X
(x)f
Y
(z x)dx =
_

f
X
(z y)f
Y
(y)dy.
Ejemplo 2.1. Sean X e Y v.a. independientes, exponenciales con
funcion de densidad com un f(x) = ae
ax
, para x > 0. La variable
Z = X +Y tiene como funcion de densidad
f
Z
(z) =
_
z
0
ae
a(zy)
ae
ay
dy = a
2
e
az
_
z
0
dy = a
2
ze
az
, z > 0
funcion de densidad que, como veremos mas adelante, correspon-
diente a una v.a. con distribucion Gamma (a, 2).
Ejemplo 2.2. Sean X e Y v.a. independientes, con distribucion de
Poisson. Cada una de ellas tiene como funcion de probabilidad
P(j) = e

j
j!
, j = 0, 1, 2, ...
La distribucion de Z = X +Y viene determinada por
P(Z = r) =
r

j=0
P(X = j)P(Y = r j) =
r

j=0
e

j
j!
e


rj
(r j)!
= e
2

r
r!
r

j=0
_
r
j
_
= e
2

r
r!
(1 + 1)
r
= e
2
(2)
r
r!
.
para r = 0, 1, . . . que corresponde a la distribucion de una v.a. Poisson
de parametro 2.
2. Distribuciones compuestas
Consideremos que conocemos la distribucion de una v.a. X, que
depende de un cierto parametro o vector de parametros . Ahora bien,
si el parametro es desconocido y se considera a su vez como una v.a.,
lo que conocemos es la distribucion de probabilidad de X[; es decir,
de la v.a X condicionada al parametro .
Es posible encontrar la distribucion de X incondicionada al parame-
tro utilizando el teorema de la particion. As, dependiendo de si y
X[ son v.a. continuas o discretas, obtenemos
2. DISTRIBUCIONES COMPUESTAS 23
continua discreta
X[ continua f
X
(x) =
_

f
X|
(x)f

()d f
X
(x) =

i
f
X|
(x)P(
i
)
X[ discreta P(x
j
) =
_

P
X|
(x
j
)f

()d P(x
j
) =

i
P
X|
(x
j
)P(
i
)
Ejemplo 2.3. En cierta compa na de seguros se considera que hay
dos tipos de asegurados para un determinado tipo de poliza. Los de tipo
A, donde el n umero de reclamaciones por a no sigue una ley binomial
de parametros n = 2 y p = 0,01 y los de tipo B, con parametros n = 2
y p = 0,05. La probabilidad de que un nuevo asegurado sea tipo A es
0.9 y la de tipo B 0.1.
i) Llega un nuevo cliente, la funcion de probabilidad asociada al
n umero de reclamaciones es
P (X = k) = P(X = k[A)P(A) +P(X = k[B)P(B)
=
_
2
k
_
0,01
k
0,99
2k
0,9 +
_
2
k
_
0,05
k
0,95
2k
0,1
k = 0, 1, 2
ii) Si el cliente presenta una reclamacion durante el primer a no,
podemos obtener las probabilidades revisadas de que sea tipo A o tipo
B.
P (A[X = 1) =
P (X = 1[A) P(A)
P(X = 1)
Como
P (X = 1[A) P(A) =
_
2
1
_
0,01 0,99 0,9 = 0,01782
y
P (X = 1) = 0,01782 + 0,0095 = 0,02732
se tiene que
P (A[X = 1) =
0,01782
0,02732
= 0,6523
P (B[X = 1) = 1 P (A[X = 1) = 0,3477
iii) La funcion de cuanta revisada del n umero de reclamaciones
para este cliente durante el segundo a no se obtiene tomando las pro-
babilidades revisadas. Denotemos, para diferenciar, X
1
: n umero de
reclamaciones en el primer a no y X
2
el n umero durante el segundo
24 2. MEZCLA DE DISTRIBUCIONES
a no. Entonces,
P (X
2
= k[X
1
= 1) = P(X = k[A)P(A[X
1
= 1) +
P(X = k[A)P(A[X
1
= 1)
=
_
2
k
_
0,01
k
0,99
2k
0,3261 +
_
2
k
_
0,05
k
0,95
2k
0,67386,
k = 0, 1, 2.
Ejemplo 2.4. Sea X una v.a. binomial de parametros (N, p), don-
de N es aleatorio y se distribuye con una distribucion de Poisson de
parametro . Tenemos por tanto,
P (X = k[N = n) =
_
n
k
_
p
k
(1 p)
nk
, k = 0, 1, ..., n
P (N = n) = e

n
n!
, n = 0, 1, 2, ....
La distribucion de probabilidad incondicional de X es,
P (X = k) =

n=0
P(X = k[N = n)P(N = n)
los k primeros terminos son nulos
=

n=k
_
n
k
_
p
k
(1 p)
nk
e

n
n!
=
(p)
k
e

k!

n=k

nk
(n k)!
(1 p)
nk
m=nk
=
(p)
k
e

k!

m=0
(q)
m
m!
=
(p)
k
e

k!
e
q
= e
p
(p)
k
k!
, k = 0, 1, 2, ...
distribucion de Poisson de parametro p.
3. REGLA DE ESPERANZAS ITERADAS 25
3. Regla de esperanzas iteradas
Sucede en numerosas ocasiones que conocemos la regla de proba-
bilidad condicional y queremos recuperar la distribucion de la variable
incondicionada. A veces, esta resulta una tarea analticamente compli-
cada. Sin embargo, tanto la esperanza como la varianza incondicional
obedecen a reglas sencillas de demostrar y aprender.
E(X) = E(E(X[Y ))
Demostracion:
Consideremos v.a. discretas. Del teorema de la particion
E(X) =

i
x
i
P(x
i
) =

i
x
i

j
P(x
i
[y
j
)P(y
j
)
=

j
x
i
P(x
i
[y
j
)P(y
j
)
=

j
P(y
j
)

i
x
i
P(x
i
[y
j
)
=

j
P(y
j
)E(X[y
j
)
= E(E(X[y
j
))
Regla de la varianza
V(X) = V(E(X[Y )) +E(V(X[Y ))
Demostracion:
V(X) = E(X E(X))
2
= E(X E(X[Y ) +E(X[Y ) E(X))
2
= E(X E(X[Y ))
2
+E(E(X[Y ) E(X))
2
+2E[(X E(X[Y ))(E(X[Y ) E(X))]
y, teniendo en cuenta (2.3.1)
= E
__
E(X E(X[Y ))
2

[Y
_
+E(E(X[Y ) E(X))
2
= E(V(X[Y )) +V(E(X[Y ))
26 2. MEZCLA DE DISTRIBUCIONES
E[(X E(X[Y ))(E(X[Y ) E(X))]
= E [E[(X E(X[Y ))(E(X[Y ) E(X))] [Y ]
= E [(E(X[Y ) E(X))E(X E(X[Y ))[Y ] (2.3.1)
= E [(E(X[Y ) E(X)) (E(X[Y ) E(X[Y ))]
= 0
4. Ejercicios
Ejemplo 2.5. Sea X una v.a. exponencial, de media . Conside-
remos que es un parametro aleatorio con distribucion uniforme en
[1, 2]. La distribucion incondicionada de X es, utilizando el teorema de
la particion
f
X
(x) =
_
2
1
f
X|
(x)f

()d
=
_
2
1
1

e
x/
d.
Como vemos, la expresion de la funcion de densidad incondicionada
es complicada de tratar. Sin embargo, resulta sencillo obtener la media
y varianza incondicionadas.
E(X) = E(E(X[)) = E() = 1,5
V(X) = V(E(X[)) +E(V(X[))
= V() +E(
2
)
= 2,416 > 2,25
La varianza obtenida es mayor que 2.25, correspondiente al caso
en el que el valor de fuera 1.5 con seguridad. Es decir, en general
el a nadir fuentes de incertidumbre en la distribucion de una v.a. hace
aumentar su varianza.
Ejemplo 2.6. Consideremos la siguiente situacion en un seguro de
automovil. X es una v.a. binaria de parametro p, que toma el valor uno
si hay accidente en una exposicion al riesgo y cero si no. Se considera
que p toma el valor 0,01 con probabilidad 0,1 y 0,005 en otro caso,
lo que corresponde a un modelo con dos tipos de asegurados seg un su
riesgo.
Tenemos que
4. EJERCICIOS 27
E(X) = E(E(X[p)) = E(p) = 0,01 0,1 + 0,005 0,9 = 0,0055
V(X) = V(E(X[p)) +E(V(X[p)) = V(p) +E(p p
2
)
= E(p) E(p)
2
= 0,00547
Es interesante destacar que, en este caso, el hecho de que p sea
desconocido no hace aumentar la varianza.
CAPTULO 3
Distribuciones discretas
Este captulo se dedica al estudio y manejo de algunas distribucio-
nes de probabilidad discretas, relevantes en la modelizacion de n umero
de ocurrencias como saltos o siniestros, utilizadas tanto en temas ac-
tuariales como nancieros.
1. Ley de Poisson
Definici on 3.1. Una variable aleatoria X sigue una distribucion
de Poisson si toma valores en Z
+
con funcion de probabilidad
P(X = k) = e

k
k!
, k = 0, 1, ...
y denotamos X T().
La ley de Poisson resulta de gran utilidad como aproximacion de la
ley binomial, en el caso en que n es grande y p peque no. La aproxima-
cion se realiza tomando = np.
Ejemplo 3.1. Consideremos las siguientes distribuciones:
i) X b(n = 100, p = 0,05);
ii) X b(n = 500, p = 0,01);
iii) X P( = 5);
Distribucion de probabilidad de X
i)gura1
ii)gura2
iii)gura3
En terminos de comparacion numerica
29
30 3. DISTRIBUCIONES DISCRETAS
b(100, 0,05) b(500, 0,01) P( = 5)
P(X = 0) 0,005920 0,006570 0,006737
P(X = 1) 0,031160 0,033184 0,033689
P(X = 2) 0,178142 0,083631 0,084224
P(X = 3) 0,139575 0,140229 0,140373
P(X = 4) 0,178143 0,175995 0,175467
P(X = 5) 0,180017 0,176351 0,175467
P(X = 10) 0,016715 0,017858 0,018132
P(X = 15) 0,000098 0,000144 0,000157
P(X = 20) 8,44 10
8
2,14 10
7
2,64 10
7
Funci on generatriz de probabilidad
G(u) = e
(1u)
.
Demostracion:
G(u) = E
_
u
X
_
=

k=0
u
k
e

k
k!
= e

k=0
(u)
k
k!
= e
(1u)
.
Funci on caracterstica
(u) = exp
_

_
e
iu
1
__
.
Demostracion:
(u) = E
_
e
iuX
_
=

k=0
e
iuk
e

k
k!
= e

k=0
(e
iu
)
k
k!
= exp
_

_
e
iu
1
__
Funci on cumulativa
(u) = log (u) =
_
e
iu
1
_
= (iu) +
(iu)
2
2!
+
(iu)
3
3!
+
(iu)
4
4!
+...
1. LEY DE POISSON 31
Del desarrollo anterior se obtiene facilmente que todos los coecien-
tes semi-invariantes toman el valor , con lo que E(X) = , V(X) = ,

3
= ,
4
3
2
= . Esto implica que en la distribucion de Poisson
la media y la varianza son iguales y tanto la asimetra como la curtosis
son positivas.
Distribuciones de Poisson truncadas.
En algunos casos, la distribucion de Poisson sirve tambien para
modelizar probabilidades de siniestros donde el valor cero esta exclui-
do. (Por ejemplo, n umero de reclamaciones con cuanta estrictamente
positiva)
Exclusi on del valor cero.
P (X = k[X > 0) =
P(X = k X > 0)
P(X > 0)
=

k
k!
e

1 e

, k = 1, 2, ...
Alternativamente, se pueden obtener las distribuciones truncadas
por la derecha, izquierda o por ambos lados.
Distribuci on de Poisson generalizada
En ocasiones, la distribucion de Poisson puede resultar adecuada
para valores altos y necesitar un ajuste para el valor cero y el uno.
Para lograr este ajuste, se modican las probabilidades de que X tome
el valor cero y el valor uno dejando jas las demas.
P(X = 0) = e

(1 +),
P(X = 1) = e

(1 ),
P(X = k) =
e
k
k!
.
Se tiene que,
E(X) = (1 e

),
V(X) = e

(1 +e

2).
32 3. DISTRIBUCIONES DISCRETAS
Ejemplo 3.2. Sea X el n umero de reclamaciones.
i) Suponiendo que X T( = 0,01), probabilidad de que X tome
un valor mayor o igual a uno.
P(X 1) = 1 P(X = 0) = 1 e
0,01
= 0,009950.
ii) Calcula de nuevo la misma probabilidad considerando que X se
distribuye como una binomial con la misma media 0.01 y diferentes
tama nos: n = 10, 100, 1000.
n = 10, p = 0,001,
P(X 1) = 1 P(X = 0) = 1 0,999
10
= 0,009955.
n = 100, p = 0,0001,
P(X 1) = 1 P(X = 0) = 1 0,9999
100
= 0,009951.
n = 1000, p = 0,00001,
P(X 1) = 1 P(X = 0) = 1 0,99999
1000
= 0,009950.
Vemos como los valores se diferencian unicamente a partir del sexto
decimal.
Ejemplo 3.3. Una poliza cubre dos tipos de siniestros, tipo A y
tipo B, que tienen probabilidades de ocurrencia 0.08 y 0.05 respecti-
vamente. Ambos siniestros son independientes y se permite una unica
reclamacion por poliza.
i) Probabilidad de que una determinada poliza reclame.
Para ello denotamos por X a la variable binaria asociada a la poliza,
X
A
a la asociada al siniestro tipo A y X
B
a la de tipo B.
P (X = 1) = P(X
A
= 1 X
B
= 1)
= 0,08 + 0,05 0,08 0,05 = 0,126.
ii) Si una compa na tiene 1000 polizas independientes de este tipo,
obten la ley de Poisson que aproxima el n umero total de reclamaciones
X T()
= np = 126.
iii) Calcula la probabilidad aproximada de que haya mas de 140
reclamaciones. Dado el parametro , podemos aproximar por la normal
N(126,
2
= 126) y obtenemos:
P(Z > 140) 1
_
140,5 126

126
_
= 0,09822.
Nota: Si hacemos el calculo exacto con la ley de Poisson se obtiene
P(Z > 140) = 0,09979
2. LEY BINOMIAL NEGATIVA 33
2. Ley Binomial negativa
Definici on 3.2. Decimos que una v.a. X sigue una ley binomial
negativa si toma valores enteros no negativos con funcion de probabi-
lidad
P(X = k) =
_
m +k 1
k
_
p
m
q
k
, k = 0, 1, ...
Por denicion
_
m
k
_
= (1)
k
_
m+k1
k
_
, y de ah el nombre de ley
binomial negativa. Se tiene ademas que
(1 q)
m
=

k=0
_
m
k
_
(q)
k
=

k=0
_
m +k 1
k
_
q
k
.
De aqu es sencillo obtener la funcion caracterstica
(u) = E(e
iuX
) =

k=0
e
iuk
_
m +k 1
k
_
p
m
q
k
= p
m

k=0
_
m +k 1
k
_
_
qe
iu
_
k
= p
m
(1 qe
iu
)
m
.
Y, a partir de la funcion caracterstica, obtenemos que
1
E(X) =
mq
p
,
V(X) =
mq
p
2
=
E(X)
p
.
La ley binomial negativa surge de forma natural en dos contextos
que se presentan a continuacion.
1. Se considera un juego en el que la probabilidad de perder es
p. Una persona se propone jugar hasta que pierde por primera
vez. La ley que sigue el n umero de veces que juega y gana esta
persona es binomial negativa de parametros m = 1, p.
En efecto, si X denota el n umero de jugadas ganadas, para
que X = k, se han de ganar las k primeras jugadas y perder
la ultima. Por tanto
P(X = k) = q
k
p =
_
1 +k 1
k
_
pq
k
, k = 0, 1, 2, ...
1
Este calculo se propone al lector en el ejercicio 3.2.
34 3. DISTRIBUCIONES DISCRETAS
y coincide con la binomial enunciada.
Si ahora la persona decide jugar hasta perder por mesima
vez, el n umero de veces que juega y gana sigue una ley binomial
negativa de parametros m y p.
En este caso, para que X = k, se ha de jugar m+k veces,
de las cuales, se pierde en la mesima jugada y en el resto se
reparten en k ganadas y m1 perdidas; de donde
P (X = k) =
_
m +k 1
k
_
p
m1
q
k
p
=
_
m +k 1
k
_
p
m
q
k
; k = 0, 1, 2, ...
2. Sea X una v.a. T(), donde es desconocido y sigue una ley
gamma (a, r). Es decir
P (X = k[) =
e

k
k!
, k = 0, 1, 2, ....
f() =
a
r
(r)
e
a

r1
, 0
La distribucion de X incondicionada a es, usando el teo-
rema de la particion
P (X = k) =
_

0
e

k
k!
a
r
(r)
e
a

r1
d, k = 0, 1, 2, ...
Integrando repetidamente por partes, se tiene que
P (X = k) =
_
r +k 1
k
__
a
1 +a
_
r
_
1
1 +a
_
k
, k = 0, 1, 2, ...
y se concluye que X sigue una ley binomial negativa de
parametros m = r y p = a/(1 +a).
Esta segunda interpretacion de la ley binomial negativa hace que
resulte muy util para modelizar el n umero de siniestros en situaciones
donde los individuos no son homogeneos y por tanto, la ley de Pois-
son con parametro jo no resulta adecuada. Ademas, al depender de
dos parametros, esta ley permite un mejor ajuste a los datos al poder
ajustarse tanto la media como la varianza.
3. LEY DE POLYA-EGGENBERGER 35
3. Ley de Polya-Eggenberger
Tanto la ley de Poisson como la ley binomial negativa modelizan
la distribucion del n umero de siniestros, teniendo en cuenta que existe
independencia entre los sucesos. En muchas situaciones (seguros medi-
cos, seguros por catastrofes.) existe un efecto contagio, lo que lleva a
que la probabilidad de que se den valores altos sea mayor que la que
preven las leyes anteriores. La ley de Polya se adapta a la modelizacion
de este tipo de situaciones.
Definici on 3.3. Una variable aleatoria discreta X sigue una ley de
Polya-Eggenberger de parametros (n, p, ), si su funcion de probabilidad
es
P(X = k) =
_p

+k1
k
__q

+s1
s
_
_
1

+n1
n
_
k = 0, 1, ..., n
donde q = 1 p, s = n k.
Para entender esta distribucion vemos la forma de obtenerla.
Consideremos una urna formada inicialmente por N bolas, de las
cuales a son blancas y el resto, b = N a, son rojas. Realizamos n
extracciones con la siguiente pauta: cada vez que se extrae una bola
se mira el color y se devuelve a la urna junto con otras c bolas de ese
mismo color. Sea X la v.a. que denota el n umero de bolas blancas
extradas en las n extracciones. Es claro que si c = 0, X sigue una ley
binomial de parametros n y p = a/N, corresponde a la probabilidad
de extraer bola blanca en cada extraccion, que no vara. En este caso
particular las extracciones son independientes. Sin embargo, si c > 0,
se introduce el efecto contagio y ya no hay independencia entre las
sucesivas extracciones.
En el caso general, las probabilidades sucesivas de extraer bola blan-
ca se obtienen de forma recursiva. Denotemos por B
i
al suceso bola
blanca en la iesima extraccion y por R
i
al suceso bola roja en la
iesima extraccion.
Queremos obtener la probabilidad de que se extraigan k bolas
blancas en n extracciones. Para ello, obtenemos la probabilidad de
que las k primeras sean blancas y las siguientes rojas y multiplicamos
por el n umero de formas en las que pueden resultar k bolas blancas y
n k rojas
36 3. DISTRIBUCIONES DISCRETAS
Se tiene
P (B
1
B
2
... B
k
R
k+1
... R
n
)
Tma. Interseccion
=
= P(B
1
) P(B
2
[B
1
) ... P(B
k
[ (B
k1
B
k2
... B
1
))
P(R
k+1
[ (B
k
B
k1
... B
1
)) ...
P(R
n
[ (R
n1
... R
k+1
B
k
B
k1
... B
1
))
Por otra parte,
P(B
1
) =
a
N
,
P(B
2
[B
1
) =
a +c
N +c
,
.
.
.
P(B
k
[ (B
k1
B
k2
... B
1
)) =
a + (k 1)c
N + (k 1)c
,
y
P(R
k+1
[ (B
k
B
k1
... B
1
)) =
b
N +kc
,
.
.
.
P(R
n
[ (R
n1
... R
k+1
B
k
B
k1
... B
1
)) =
b + (s 1)c
N + (n 1)c
,
As, obtenemos
P (B
1
B
2
... B
k
R
k+1
... R
n
)
=
a
N
a +c
N +c
...
a + (k 1)c
N + (k 1)c
b
N +kc
...
b + (s 1)c
N + (n 1)c
,
Finalmente
P (X = k) =
_
n
k
_
a
N
a +c
N +c
...
a + (k 1)c
N + (k 1)c
b
N +kc
...
b + (s 1)c
N + (n 1)c
,
k = 0, 1, ..., n
Dividiendo numeradores y denominadores por c y agrupando en
n umeros combinatorios podemos reescribir
P (X = k) =
_a
c
+k1
k
__
b
c
+s1
s
_
_
N
c
+n1
n
_
, k = 0, 1, ..., n
Esta distribucion se identica con una ley de Polya cuyos parametros
sonp = a/N, probabilidad inicial de extraer bola blanca (probabilidad
3. LEY DE POLYA-EGGENBERGER 37
inicial de siniestro), n es el n umero de extracciones (n umero de expo-
siciones al riesgo), y = c/N es el parametro que mide el efecto de
contagio.
Se demuestra que
E(X) = np,
V(X) = npq
1 +n
1 +
.
La media coincide con la de la ley binomial, ( = 0), y no depende
del efecto contagio. Sin embargo, la varianza aumenta a medida que
aumenta el efecto contagio.
Las probabilidades tambien se pueden obtener de forma recursiva,
P (X = 0) =
_q

+n1
n
_
_
1

+n1
n
_
=
(q/ +n 1) (q/ +n 2) ... (q/)
(1/ +n 1) (1/ +n 2) ... (1/)
,
.
.
.
P (X = k) =
_p

+k1
k
__q

+s1
s
_
_
1

+n1
n
_
= P (X = k 1)
p/ +k 1
k
s + 1
q/ +s
, k 1
Ejemplo 3.4. Analizamos una serie de datos sobre n umero de si-
niestros, obteniendo que la media es 0,04 y la varianza 0,0792. Se trata
de estimar los valores observados con tres v.a., X
1
con distribucion de
Poisson de parametro = 0,04, X
2
con distribucion binomial negativa
de parametros m = 0,0408, p = 0,505, y X
3
con distribucion de Polya
de parametros n = 4, p = 0,1, = 0,5. Las tres variables tienen la mis-
ma media, 0,04 y la ley de Polya y la binomial negativa tienen ademas
varianza (aproximadamente) 0,08.
38 3. DISTRIBUCIONES DISCRETAS
Tabla de datos
n
i
Poisson B. Neg. Polya
= 0,04 m = 0,04, p = 0,5 n = 4, p = 0,1, = 0,5
0 975 0,9608 0.972655 0,974569
1 15 0,03843 0.019453 0,015656
2 6 7,64 10
4
0.005058 0,006018
3 3 1,025 10
5
0.001720 0,002720
4 1 1,028 10
7
0.000653 0,001037
N = 1000
4. Ejercicios
Ejercicio 3.1. Demostrar que si X T(),
P(X = k) = P(X = k 1)

k
, k = 1, 2, ...
Ejercicio 3.2. Obtener la media y varianza de la distribucion bi-
nomial negativa de parametros m y p.
Ejercicio 3.3. Demostrar que si X sigue una ley binomial negativa
de parametros m y p,
P(X = k) = P(X = k 1)
q(m +k 1)
k
.
CAPTULO 4
Distribuciones continuas
En este tema estudiaremos las distribuciones mas utilizadas para
modelizar variables aleatorias continuas como la cuanta o coste de una
reclamacion por siniestro o los precios de activos nancieros.
1. Ley logartmico-normal
Definici on 4.1. Decimos que una v.a. X sigue una distribucion
logartmico-normal o lognormal si la variable Y = log X sigue una ley
Normal.
Es decir X se puede escribir como X = exp(T + ), donde T
representa una v.a. normal reducida. Por tanto,
f(x) =
1
x

2
exp
_

1
2
_
log x

_
2
_
.
y se obtiene que la media es E(X) = exp( +
2
/2) y la varianza
es V(X) = exp(2 +
2
)[exp(
2
) 1].
2. Ley de Pareto
Definici on 4.2. Decimos que una v.a. X sigue una distribucion de
Pareto si
P(X x) =
_
_
_
_
k
x
_

, x k
0, x < k
Por tanto,
f(x) =
k

x
+1
, x k
E(X) =
_

k
xf(x) =
k
1
.
Existe siempre que > 1.
39
40 4. DISTRIBUCIONES CONTINUAS
V(X) =
_

k
x
2
f(x) E(X)
2
=
k
2
( 2)( 1)
2
Existe siempre que > 2.
Como vemos, se trata de una distribucion que no tiene todos los
momentos y por tanto no se puede obtener funcion generatriz de mo-
mentos. El orden maximo de momentos viene determinado por 1,
si Z, y por la parte entera de , [], si / Z.
Ejemplo 4.1. Sea X una v.a. que sigue una distribucion de Pareto
con k = 2, = 3.
Leyes de Pareto de segundo y tercer tipos
i) La distribuci on de Pareto de segundo tipo se obtiene al
trasladar el primer valor de una v.a. de Pareto al origen. Es decir, si
X = Y k, donde Y sigue una ley de Pareto de primer tipo, decimos
que X sigue una ley de Pareto de segundo tipo. Por tanto,
f
X
(x) = f
Y
(y(x))[y(x)[
=
_
k
x +k
_

x 0
As, las probabilidades en las colas de la distribucion son de la
forma,
P(X x) =
_
k
x +k
_

.
ii) La distribuci on de Pareto de tercer tipo generaliza a las
anteriores, de modo que,
F(x) = 1
_
k
x +k
_

e
bx
.
Depende de dos parametros, lo que permite que se adapte a la
estructura en la varianza.
5. LEY EXPONENCIAL 41
3. Distribuci on de Burr
Se trata de una distribucion transformada de la distribucion de
Pareto. Si tomamos X una v.a. de Pareto de segundo tipo, y Z es otra
v.a. tal que Z

= X, con > 0, decimos que Z sigue una distribucion


transformada de Pareto o distribucion de Burr. Se tiene que,
E(X
r
) = k
r/
( r/)(r/ + 1)
()
.
siempre que r < .
4. Ley Gamma
Esta ley ya la hemos utilizado para modelizar la distribucion de
Poisson y obtener la distrbucion binomial negativa. Ademas, resulta
muy util en la modelizacion de la cuanta por siniestro.
Recordemos que si X (a, r), su funcion de densidad viene de-
nida por
f(x) =
a
r
(r)
x
r1
e
ax
, x 0
donde (r) =
_

0
x
r1
e
x
dx y si r es entero positivo (r) = (r 1)!.
Se tiene que
E(X) =
r
a
,
V(x) =
r
a
2
,

X
(u) = (1
iu
a
)
r
.
5. Ley Exponencial
Se trata de un caso particular de la distribucion Gamma, donde el
parametro r toma el valor uno.
Su funcion de densidad se puede expresar como
f(x) = ae
ax
.
para x > 0. Por tanto
E(X) =
1
a
,
V(X) =
1
a
2
= E(X)
2
.
42 4. DISTRIBUCIONES CONTINUAS
Distribuci on Exponencial desplazada
Se utiliza, como alternativa a la distribucion de Pareto, para si-
tuaciones donde el valor mnimo que puede tomar la variable es es-
trictamente positivo. Claramente, dado que X = Y k, la funcion de
densidad de Y vendra dada por
f
Y
(y) = f
X
(x(y))[x

(y)[ = ae
a(yk)
.
para y > k, y 0 en otro caso.
Ademas
E(Y ) =
1
a
+k,
V(y) =
1
a
2
.
Ejemplo 4.2. Sea X una v.a. con distribucion exponencial despla-
zada de
Solucion:
i) E
P
(X) = 2/( 1) = 3, luego = 3.
ii) E
exp
(X) = + 2 = 3, luego = 1.
iii) V
P
(X) = 32
2
/(31)
2
(32) = 3. V
exp
=
2
= 1. Claramente, la
varianzas son muy diferentes, siendo mucho mayor bajo la distribucion
de Pareto.
iv)
P
P
(X > 10) =
_

10
3 2
3
x
3+1
dx =
_

10
24x
4
dx = 8x
3

10
= 0,008.
P
exp
(X > 10) =
_

10
e
(x2)
dx = e
(x2)
[

10
= e
8
= 0,000335
v) f
P
(2) = 1,5, f
P
(3) = 0,2963, f
P
(4) = 0,09375,
f
P
(10) = 0,0025.
f
exp
(2) = 1, f
exp
(3) = 0,36788, f
exp
(4) = 0,135336,
f
exp
(10) = 0,0003355.
6. Ley de Weibull
Supone otra forma de generalizar la distribucion exponencial.
f(x) =

x
1
e
(x/)

, x > 0
con lo que obtenemos
7. LEY BETA 43
E(X) = (1/ + 1),
V(X) =
2
[(2/ + 1)
2
(1/ + 1)].
7. Ley Beta
Una v.a. X sigue una ley Beta si toma valores en el intervalo [0, 1],
con funcion de densidad denida por
f(x) =
1
B(p, q)
x
p1
(1 x)
q1
.
para valores de p y q estrictamente positivos, y donde
B(p, q) =
_
1
0
x
p1
(1 x)
q1
dx =
(p)(q)
(p +q)
.
y
(p) =
_

0
x
p1
e
x
dx.
Se deduce que
E(X) =
p
p +q
,
V(X) =
pq
(p +q)
2
(p +q + 1)
.
Que tipo de variable sigue una distribucion as?
En general, si X
1
, . . . , X
n
son n v.a. independientes con distribu-
ciones respectivas (a, r
1
), . . . , (a, r
n
), el cociente
Y
i
=
X
i
X
1
+ +X
n
.
sigue una distribucion Beta de parametros r
i
,

j=i
r
j
; es decir,
modeliza la proporcion que supone el valor de X
i
, respecto del total
X
1
+ + X
n
. La forma de demostrar se basa en que el denominador
Z = X
1
+. . . X
n
sigue una distribucion (a, r
1
+ +r
n
), y por tanto
cada cociente Y
i
= X
i
/Z es el cociente de dos distribuciones gamma
NO independientes. A partir de ah, la resolucion es un problema de
transformacion de variables en R
n
.
Ejemplo 4.3. Considera que la cuanta por reclamacion, X, en la
compa na aseguradora GURE es una v.a. con distribucion de Pareto de
parametros k y . La compa na decide reasegurarse y que una compa na
44 4. DISTRIBUCIONES CONTINUAS
reaseguradora ZURE cubra las reclamaciones por encima de c unidades,
con c > k.
i) Funcion de distribucion de las cuantas reclamadas a GURE.
F
X
(x) = P(X x) = 1
_
k
x
_

.
ii) Probabilidad de que una reclamacion sea cubierta por ZURE.
P(X > c) =
_
k
c
_

.
iii) Funcion de distribucion de las cuantas, Y , cubiertas por ZU-
RE. Para ello, veamos la probabilidad complementaria, que re-
sulta mas sencilla de obtener.
1 F
Y
(y) = P(X y[X > c)
=
P(X y X > c)
P(X c)
yc
=
P(X y)
P(X c)
=
_
k
y
_

_
k
c
_

=
_
c
y
_

, y c
Es decir, la distribucion de la cuanta que se reclama a la
empresa reaseguradora tambien sigue una ley de Pareto, donde
el valor mnimo es c.
8. Distribuciones multidimensionales
Se dice que un vector aleatorio X de dimension n sigue una ley
normal multidimensional N(m, ), con m R
n
, y matriz simetrica
denida positiva, si X tiene funcion de densidad
f
X
(x
1
, . . . , x
n
) = (2 det )

n
2
e

1
2

n
i,j=1
(x
i
m
i
)(x
j
m
j
)
1
ij
.
En este caso, se tiene m = E(X) y =
X
.
Si la matriz es diagonal
=
_
_

2
1
0
.
.
.
.
.
.
.
.
.
0
2
n
_
_
8. DISTRIBUCIONES MULTIDIMENSIONALES 45
entonces la funcion de densidad de X es el producto de n funciones de
densidad normales unidimensionales:
f
X
(x
1
, . . . , x
n
) =
n

i=1
_
1
_
2
2
i
e

(xm
i
)
2
2
2
i
_
.
Existen distribuciones normales degeneradas que tienen matriz de
autocovarianza singular. Estas distribuciones no tienen funcion de
densidad y la ley de la v.a. X con una ley normal (posiblemente dege-
nerada) N(m, ) queda determinada por su funcion caracterstica
E
_
e
it

X
_
= exp
_
it

m
1
2
t

t
_
,
donde t R
n
. en esta ecuacion t

denota un vector la (1 n matriz)


y t es un vector columna (n 1 matriz).
Si X es un vector normal n-dimensional con ley N(m, ) y A es una
matriz de orden mn, entonces AX es un vector normal n-dimensional
con ley N(Am, AA

).
Parte 2
Procesos Estocasticos
CAPTULO 5
Introducci on
Definici on 5.1. Un proceso estocastico se dene como una familia
de variables aleatoriasX
t
, t T denidas en un espacio de probabi-
lidad (, T, P). El conjunto T se denomina espacio de parametros del
proceso y suponemos que es un subconjunto de n umeros reales. Si este
espacio es, por denicion nito (por ej, T =1, 2, . . . , T) o innito
numerable (por ej, T =Z
+
) estaremos ante un proceso estocastico dis-
creto, y si es innito no numerable (por ej, T =[0, T]) estaremos ante
un proceso estocastico en tiempo continuo. Los procesos en tiempo -
nito son v.a. multidimensionales y los procesos innitos discretos son
sucesiones de variables aleatorias.
Para cada , la aplicacion
t X
t
()
se denomina trayectoria (o realizacion) del proceso estocastico. Estas
trayectorias constituyen los sucesos elementales del proceso.
Ejemplo 5.1. Considerar X
t
tal que X
t
b(0,5) con T =1, 2, 3.
Cuantas trayectorias hay? Cuales son?
Dado que cada X
t
puede tomar dos valores 0 o 1, y hay tres unidades
de tiempo; en total tendremos 2
3
= 8 posibles trayectorias
(0, 0, 0), (0, 0, 1), (0, 1, 0), (0, 1, 1),
(1, 0, 0), (1, 0, 1), (1, 1, 0), (1, 1, 1).
gure
Este proceso corresponde a una variable tridimensional discreta. A par-
tir de la probabilidad de cada una de las trayectorias podemos obtener la
probabilidad de cualquier suceso. En este caso, si las variables son inde-
pendientes, las trayectorias son equiprobables con probabilidad 1/8. Si
las v.a. no son independientes, necesitamos la funcion de distribucion
conjunta para identicar el proceso.
Ejemplo 5.2. Considera que X
t
es tal que X
t
b(0,5) con T =Z
+
.
Hay un n umero innito de trayectorias,
49
50 5. INTRODUCCI

ON
(0, 0, 0, . . .), (0, 0, 1, . . .), (0, 1, 0, . . .), (0, 1, 1, . . .), . . ..
Ejemplo 5.3. Considera ahora que T = [1, 3]. Posibles trayectorias
son:
x
t
= 0, t; x
t
= 1 t;
x
t
= 0, 1 t 2; x
t
= 1, 2 < t 3;
x
t
= 1, 1 t 2; x
t
= 0, 2 < t 3;
x
t
= 0, t = 1; x
t
= 1, 1 < t 3
Ejemplo 5.4 (Procesos de llegada). Supongamos que los clientes
van llegando sucesivamente a una tienda. Sea X
1
el tiempo de llegada
del primer cliente, X
2
el tiempo transcurrido desde que llega el primero
hasta que llega el segundo, y as sucesivamente. Es decir, las variables
aleatorias positivas X
1
, X
2
, . . . miden los intervalos de tiempo entre las
llegadas de clientes consecutivos. Consideremos el proceso N
t
que cuen-
ta el n umero de clientes que han llegado hasta el instante t. Entonces,
para cada t 0, tenemos que N
t
= k 1 si y solo si
X
1
+ +X
k
t < X
1
+ +X
k+1
,
y denimos N
t
= 0 si t < X
1
. Entonces, N
t
, t 0 es un proceso
estocastico en tiempo continuo con valores en los n umeros naturales.
Sus trayectorias son constantes a trozos, continuas por la derecha, y con
saltos de amplitud 1 en los instantes T
k
= X
1
+ +X
k
. Observemos
que N
t
< para todo t 0 si y solo si

k=1
X
k
= .
1. Distribuciones marginales. Teorema de Kolmogorov
Sea X
t
, t T un proceso estocastico. Consideremos un n umero
nito de instantes de tiempo t
1
, . . . , t
n
y en cada una de ellos denotamos
la v.a. asociada por X
t
i
, i = 1, . . . , n. De esta forma determinamos un
vector aleatorio
(X
t
1
, . . . , X
tn
) : R
n
.
La ley de probabilidad de este vector aleatorio
P
t
1
,...,tn
= P (X
t
1
, . . . , X
tn
)
1
.
se denomina distribucion marginal en dimension nita del proceso es-
tocastico X
t
, t T . Su funcion de distribucion correspondiente sera
F
t
1
,...tn
(x
1
, . . . , x
n
) = P((X
t
1
x
1
) . . . (X
tn
x
n
)).
1. DISTRIBUCIONES MARGINALES. TEOREMA DE KOLMOGOROV 51
La generalizacion del concepto de distribucion nos llevara a pensar
en funciones de distribucion innito dimensionales, que no tenemos
denidas. Podemos caracterizar un proceso estocastico de alguna otra
forma?
El siguiente resultado nos dice que la ley de probabilidad de un
proceso estocastico esta caracterizada por sus distribuciones marginales
nito dimensionales.
Teorema 5.1 (Teorema de Kolmogorov). Consideremos una fami-
lia de distribuciones nito dimensionales
F
t
1
,...,tn
, t
1
< < t
n
, n 1.
que cumplen la condicion de compatibilidad siguiente:
Si s
1
< < s
m
t
1
< < t
n
, entonces F
s
1
,...,sn
se obtiene como la distribucion marginal correspondiente de
F
t
1
,...,tn
.
Entonces, existe un proceso estocastico X
t
, t T denido en un
cierto espacio de probabilidad (, T, P) que tiene la familia F
t
1
,...,tn

como familia de distribuciones marginales nito dimensionales. Una fa-


milia que cumple esta condicion identica un unico proceso estocastico.
La condicion de compatibilidad implica, por ejemplo, que
F
t
1
,t
2
(x
1
, x
2
) = F
t
1
,t
2
,t
3
(x
1
, x
2
, ).
Es decir, el estudio de procesos estocasticos innitos se realizara a
traves del estudio de la familia asociada de las funciones de distribucion
nito-dimensionales.
Ejemplo 5.5. Sean X e Y variables aleatorias independientes.
Consideremos el proceso estocastico
X
t
= tX +Y, t 0.
Las trayectorias de este proceso son rectas con coecientes aleatorios.
Sus distribuciones marginales nito dimensionales vendran dadas por
la formula siguiente, para todo 0 < t
1
< < t
n
P(X
t
1
x
1
, . . . , X
tn
x
n
) =
_
R
F
X
_
mn
1in
x
i
y
t
i
_
F
Y
(dy).
Ejemplo 5.6 (Procesos de variables independientes). Considere-
mos un proceso estocastico formado por variables independientes. En
tal caso, se cumple que, para todas las posibles n-tuplas (t
1
, . . . , t
n
) ,
F
t
1
,...,tn
(x
1
, x
2
, . . . , x
n
) = F
t
1
(x
1
)F
t
2
(x
2
) . . . F
tn
(x
n
)
52 5. INTRODUCCI

ON
Ejemplo 5.7 (Procesos estrictamente estacionarios). Se dice que
un proceso estocastico es estrictamente estacionario si sus distribucio-
nes marginales nito dimensionales son invariantes por traslaciones,
es decir, si se cumple, para todo valor de h y toda distribucion nito-
dimensional,
F
t
1
,...tn
(x
1
, x
2
, . . . , x
n
) = F
t
1
+h,...,tn+h
(x
1
, x
2
, . . . , x
n
).
Ejemplo 5.8 (Procesos de Markov). Diremos que un proceso es-
tocastico X
t
, t T es un proceso de Markov si para cualquier con-
junto nito de instantes t
1
< < t
n
< t
n+1
,
P
_
X
t
n+1
x
n+1
[X
t
1
= x
1
, . . . , X
tn
= x
n
_
= P
_
X
t
n+1
x
n+1
[X
tn
= x
n
_
.
Es decir, si conocemos el valor x
n
del proceso en el instante presente
t
n
, para determinar los valores en un instante futuro t
n+1
, el pasado es
irrelevante.
Ejemplo 5.9 (Procesos con incrementos independientes). Decimos
que X
t
, t T es un proceso de incrementos independientes si, para
todo conjunto nito de instantes t
1
< < t
n
, los incrementos del
proceso
X
tn
X
t
n1
, . . . , X
t
2
X
t
1
.
son variables aleatorias mutuamente independientes. Un proceso con
incrementos independientes es un proceso de Markov.
2. Caractersticas de un proceso. Procesos normales
Las funciones media, varianza y autocovarianza de un proceso es-
tocastico X
t
, t T se denen de la forma natural,
m
X
(t) = E(X
t
),

2
X
(t) = V(X
t
),

X
(s, t) = C(X
s
, X
t
).
Ejemplo 5.10. Consideremos el proceso estocastico
X
t
= Acos( +t),
donde A y son variables aleatorias independientes tales que E(A) = 0,
E(A
2
) < y tiene distribucion uniforme en [0, 2]. Las trayecto-
rias de este proceso son funciones trigonometricas con amplitud y fase
inicial aleatorias. La media y la autocovarianza de este proceso son
m
X
(t) = 0,

X
(s, t) =
1
2
E(A
2
) cos (t s).
2. CARACTER

ISTICAS DE UN PROCESO. PROCESOS NORMALES 53


Definici on 5.2. Decimos que un proceso estocastico X
t
, t T
es normal o gaussiano si sus distribuciones nito dimensionales son
leyes normales.
Esta denicion implica varias cosas:
Si el proceso es de variables independientes, la denicion equivale a
exigir que todas las variables por separado sean normales.
Si las variables del procesos son independientes, la denicion implica
que todas las variables unidimensionales por separado son normales,
pero el recproco no es cierto en general. No basta que las variables
unidimensionales sean normales para que el proceso en conjunto sea
normal, ya que tenemos que mirar a todas las distribuciones conjuntas
de distintos ordenes y comprobar que tienen estructura de normalidad
de la dimension correspondiente.
La media m
X
(t) y la funcion de autocovarianzas
X
(s, t) de un
proceso gaussiano determinan las distribuciones marginales en dimen-
sion nita del proceso. Por otra parte, dadas una funcion cualquiera
m : T R, y una funcion simetrica : T T R, semidenida
positiva,es decir,
n

i,j=1
(t
i
, t
j
)a
i
a
j
0.
para todos t
i
T, a
i
R y n 1. Entonces, existe un proceso Gaus-
siano de media m y funcion de autocovarianzas .
Ejemplo 5.11. Consideremos X y Y v.a con ley normal estandar.
Entonces el proceso X
t
= tX + Y , t 0, es Gaussiano de media y
funcion de autocovarianza
m
X
(t) = tE(X) +E(Y ),
V ar(X
t
) = t
2
Var(X) + 2tCov(X, Y ) + Var(Y ).
Ejemplo 5.12 (Ruido blanco gaussiano). Sea el proceso estocastico
X
t
, t T tal que las v.a. X
t
son N(0,
2
) e independientes. Entonces,
el proceso es Gaussiano con media y funcion de autocovarianza
m
X
(t) = 0,

X
(s, t) =
_
1 si s = t
0 si s ,= t
3. Criterio de continuidad
54 5. INTRODUCCI

ON
Definici on 5.3. Decimos que un proceso estocastico X
t

t
es una
version de otro proceso X

t
si para cada valor de t,
P(X
t
= X

t
) = 1.
Alternativamente, decimos que ambos procesos son equivalentes.
Ejemplo 5.13. Consideremos T = [0, 1] y sea una v.a. con ley
U[0, 1]. Denimos los procesos
X
t
= 0,
Y
t
=
_
0 si t ,=
1 si t =
Tenemos que
P(X
t
= Y
t
) = P(t ,= ) = 1.
Por tanto, los procesos X
t
e Y
t
son equivalentes. X
t
es un proce-
so con una unica trayectoria (la funcion nula), continua, mientras que
Y
t
tiene una discontinuidad en t = .
Ejemplo 5.14. Consideremos T = [0, 1] y el proceso X
t
denido
de la forma
X
t
= X =
_
0 p = 0,5
1 q = 0,5
tomando una v.a. con distribucion uniforme en [0,1], podemos denir
una version del proceso de la forma,
Y
t
=
_
X
t
si t ,=
0,5 si t =
De nuevo X
t
tiene trayectorias continuas mientras que la version
Y
t
no.
Para los procesos que manejemos nos va a interesar conocer si po-
seen trayectorias continuas o no. El criterio de continuidad de trayec-
torias nos proporciona una condicion suciente para que exista una
version del proceso con trayectorias continuas. Para enunciarla, consi-
deremos las deniciones de continuidad en probabilidad y en media de
orden p para procesos estocasticos.
Definici on 5.4 (Continuidad en probabilidad). Decimos que
el proceso X
t
es continuo en probabilidad si, para todo t 0, X
s

converge en probabilidad a X
t
cuando s t; es decir, para todo > 0
y para todo t 0,
lm
st
P[[X
t
X
s
[ < ] = 1,
4. EJERCICIOS 55
o equivalentemente
lm
st
P[[X
t
X
s
[ > ] = 0.
Definici on 5.5 (Continuidad de orden p). Decimos que el
proceso X
t
es continuo de orden p 1 si para todo t 0, el proceso
X
s
converge a X
t
cuando s t; es decir,
lm
st
E[[X
t
X
s
[
p
] = 0.
Como sabemos, la convergencia de orden p implica la convergen-
cia en probabilidad pero no la convergencia casi segura, con lo que
tenemos que ninguna de las continuidades anteriores nos garantiza la
continuidad de las trayectorias.
Teorema 5.2 (Criterio de continuidad). Sea un proceso es-
tocastico X
t

0<t<T
que cumple la condicion
(5.3.1) E([X
t
X
s
[
p
) c
T
[t s[

para todo 0 s < t T, con > 1 y p > 0, entonces existe una


version del proceso que tiene trayectorias continuas.
De la condicion (5.3.1) se deriva ademas que las trayectorias del
proceso son, con probabilidad uno, Holder-continuas de exponente ,
para todo 0 < <

p
. Esto signica que, jado , el orden de
magnitud de X
t
() X
s
(), es [t s[. De manera mas exacta, para
cada > 0 existe una variable aleatoria G

tal que, con probabilidad


uno,
(5.3.2) [X
t
() X
s
()[ G

()[t s[

,
para todo s, t T. Ademas, E(G
p

) < .
4. Ejercicios
Ejercicio 5.1. Considerar Y
n
, n 1 v.a no-negativas indepen-
dientes e identicamente distribuidas. Sea Z
0
= 0, y Z
n
= Y
1
+ +Y
n
para n 1. Suponer que Z
n
es el tiempo de llegada del cliente n-esi-
mo a una tienda. El proceso estocastico Z
n
, n 0 se llama renewal
process. Sea N
t
el n umero de llegadas durante el intervalo (0, t].
a): Demostrar que P(N
t
n) = P(Z
n
t), para todo n 1 y
t 0.
b): Demostrar que para casi todo , lm
t
N
t
() = .
c): Demostrar que, casi seguramente lm
t
Z
N
t
Nt
= a, donde a =
E(Y
1
).
56 5. INTRODUCCI

ON
d): Usando las desigualdades Z
Nt
t < Z
Nt+1
demostrar que,
casi seguramente
lm
t
N
t
t
=
1
a
.
Ejercicio 5.2. Considerar X y U variables aleatorias independien-
tes, con U uniforme en [0, 2], y la funcion de densidad de X es, para
x > 0
f
X
(x) = 2x
3
e
1/2x
4
.
Demostrar que el proceso
X
t
= X
2
cos(2t +U).
es Gaussiano y calcular su media y funcion de covarianza.
CAPTULO 6
Cadenas de Markov
Recordemos que en un proceso de Markov los valores futuros no
dependen del pasado si se conoce el presente. Es decir, la propiedad de
Markov signica que el proceso no tiene memoria.
Las cadenas de Markov seran procesos de Markov en tiempo dis-
creto X
n
, n 0, formados por una familia de variables aleatorias
discretas. Es decir, supondremos que las variables X
n
toman valores
en un conjunto I que puede ser nito (I = 1, 2, . . . , N ) o numera-
ble (I = 1, 2, . . .). La ley de probabilidad de la cadena de Markov
esta caracterizada por la distribucion inicial p(0) = (p
i
(0), i I) y las
probabilidades condicionadas
p
ij
= P(X
n+1
= j[X
n
= i),
que suponemos que no dependen de n, es decir, consideramos unica-
mente cadenas de Markov homogeneas. Estas probabilidades condicio-
nadas p
ij
se pueden estructurar en forma matricial, lo que da lugar a
la nocion de matriz estocastica.
1. Matrices estocasticas y denici on cadenas de Markov
Definici on 6.1 (Matriz estocastica). Una matriz P = (p
ij
, i, j I)
de n umeros 0 p
ij
1 es una matriz estocastica si para cada i I
tenemos

jI
p
ij
= 1.
Es decir, las las de la matriz forman una distribucion de probabilidad
en el conjunto I. Si I tiene N elementos, entonces P es una matriz
cuadrada de dimension N, y en el caso general, P sera una matriz
innita.
Ejemplos de matrices estocasticas:
(6.1.1) P
1
=
_
1
1
_
,
57
58 6. CADENAS DE MARKOV
donde 0 < , < 1,
(6.1.2) P
2
=
_
_
0 1 0
0 1/2 1/2
1/2 0 1/2
_
_
.
Definici on 6.2 (Cadena de Markov). Diremos que un proceso es-
tocastico X
n
, n 0 con valores en un conjunto nito o numerable
I es una cadena de Markov con matriz de probabilidades de tran-
sicion P , donde P es una matriz estocastica, si para cada n 0,
i
0
, i
1
, . . . , i
n+1
I
P(X
n+1
= i
n+1
[X
0
= i
0
, . . . , X
n
= i
n
) = p
ini
n+1
.
La distribucion inicial p(0) y la matriz de probabilidades de transi-
cion P permiten calcular las distribuciones marginales nito dimensio-
nales de la cadena de Markov. En efecto, tenemos
P(X
0
= i
0
, X
1
= i
1
, . . . , X
n
= i
n
) = P(X
0
= i
0
)
P(X
1
= i
1
[X
0
= i
0
) P(X
2
= i
2
[X
0
= i
0
, X
1
= i
1
)
P(X
n
= i
n
[X
0
= i
0
, . . . , X
n1
= i
n1
)
= p
i
0
(0)p
i
0
i
1
p
i
n1
in
. (6.1.3)
La matriz P
2
denida por (P
2
)
ik
=

jI
p
ij
p
jk
es una matriz es-
tocastica. De forma recursiva podemos construir las matrices estocasti-
cas
P
2
= PP,
...
P
n
= P
n1
P.
Designaremos por P
0
la matriz identidad, es decir,
(P
0
)
ij
=
ij
=
_
1 si i = j
0 si i ,= j
Los elementos de la matriz P
n
los representaremos por p
(n)
ij
, es decir,
p
(n)
ij
= (P
n
)
ij
.
Las matrices P
n
permiten calcular la distribucion de probabilidad
de cada variable X
n
. En efecto, se cumple
(6.1.4) p
j
(n) = P(X
n
= j) = (p(0)P
n
)
j
,
1. MATRICES ESTOC

ASTICAS Y DEFINICI

ON CADENAS DE MARKOV 59
ya que, teniendo en cuenta la formula (6.1.3), tenemos
P(X
n
= j)
=

i
0
I

i
n1
I
P(X
0
= i
0
, X
1
= i
1
, . . . , X
n1
= i
n1
, X
n
= j)
=

i
0
I

i
n1
I
p
i
0
(0)p
i
0
i
1
p
i
n1
j
= (p(0)P
n
)
j
.
Por otra parte, los elementos p
(n)
ij
proporcionan las probabilidades
de que la cadena se mueva del estado i al estado j en n etapas. En
efecto, si P(X
m
= i) > 0, se cumple
(6.1.5) P(X
n+m
= j[X
m
= i) = p
(n)
ij
,
ya que
P(X
n+m
= j[X
m
= i) =
P(X
n+m
= j, X
m
= i)
P(X
m
= i)
=

i
0
I

i
n+m1
I
p
i
0
(0)p
i
0
i
1
p
i
m1
i
p
ii
m+1
p
i
n+m1
j
(p(0)P
m
)
i
=

i
m+1
I

i
n+m1
I
p
ii
m+1
p
i
n+m1
j
= p
(n)
ij
.
Observemos que la relacion (6.1.5) implica la propiedad de Markov,
es decir,
P (X
n+1
= i
n+1
[X
0
= i
0
, . . . , X
n
= i
n
)
= p
ini
n+1
= P(X
n+1
= i
n+1
[X
n
= i
n
).
En los ejemplos siguientes se obtienen directamente las probabili-
dades p
(n)
ij
:
Ejemplo 6.1. Consideremos una cadena de Markov con dos esta-
dos y matrix de probabilidades de transicion P
1
denida en (13.0.22).
A partir de la relacion P
n+1
1
= P
n
1
P
1
obtenemos
p
(n+1)
11
= p
(n)
12
+p
(n)
11
(1 ).
Tambien sabemos que p
(n)
12
+p
(n)
11
= 1. Por tanto, eliminando p
(n)
12
obte-
nemos una relacion de recurrencia para p
(n)
11
:
p
(n+1)
11
= +p
(n)
11
(1 ), p
(0)
11
= 1.
Esta relacion tiene la unica solucion siguiente:
p
(n)
11
=
_

+
+

+
(1 )
n
si + > 0
1 si + = 0
.
60 6. CADENAS DE MARKOV
Ejemplo 6.2. Consideremos la cadena con tres estados y matriz P
2
denida en (13.0.23). Vamos a calcular p
(n)
11
. Para ello obtenemos los
valores propios de P
2
que son 1,
i
2
,
i
2
. Utilizando la descomposicion
P
2
= UDU
1
, donde D es la matriz diagonal formada por los valores
propios, se obtiene P
n
2
= UD
n
U
1
. Esto implica que
p
(n)
11
= a +b
_
i
2
_
n
+c
_

i
2
_
n
,
donde a, b y c son n umeros complejos. Como p
(n)
11
tiene que ser un
n umero real y
_

i
2
_
n
= 2
n
(cos
n
2
i sin
n
2
)
tendremos
p
(n)
11
= + 2
n
_
cos
n
2
+ sin
n
2
_
.
Los primeros valores de p
(n)
11
son faciles de calcular, y dan lugar a las
siguientes ecuaciones para , y :
1 = p
(0)
11
= +
0 = p
(1)
11
= +
1
2

0 = p
(2)
11
=
1
4

por lo tanto, = 1/5, = 4/5, = 2/5 y


p
(n)
11
=
1
5
+ 2
n
_
4
5
cos
n
2

2
5
sin
n
2
_
.
Los dos ejemplos siguientes constituyen ejemplos basicos de cadenas
de Markov con un conjunto innito de estados.
Ejemplo 6.3 (Sumas de variables independientes). Considerar las
v.a. Y
1
, Y
2
, . . . independientes con la misma distribucion discreta dada
por
P(Y
1
= k) = p
k
,
para k = 0, 1, 2, . . ..Ponemos X
0
= 0, y para n 1, X
n
= Y
1
+ +Y
n
.
El conjunto de estados de la cadena X
n
es 0, 1, 2, . . .. Entonces
P(X
n+1
= i
n+1
[X
0
= i
0
, . . . , X
n
= i
n
)
= P(Y
n+1
= i
n+1
i
n
[X
0
= i
0
, . . . , X
n
= i
n
) = p
i
n+1
in
por la independencia entre Y
n+1
y X
0
, . . . , X
n
. Por tanto, X
n
, n 0
es una cadena de Markov cuyas probabilidades de transicion son las
1. MATRICES ESTOC

ASTICAS Y DEFINICI

ON CADENAS DE MARKOV 61
siguientes p
ij
= p
ji
si i j, y p
ij
= 0 si i > j. La distribucion inicial
es p
0
(0) = 1, p
i
(0) = 0 para i > 0. En forma matricial
P =
_
_
_
_
_
_
p
0
p
1
p
2
p
3
0 p
0
p
1
p
2
0 0 p
0
p
1
0 0 0 p
0

.
.
.
_
_
_
_
_
_
.
Sea N
n
el n umero de aciertos en n pruebas de un experimento, supo-
niendo que la probabilidad de acertar es p. Este es un caso particular de
una suma de variables aleatorias independientes cuando cada variable
tiene una distribucion de Bernoulli. La matriz de transicion sera
P =
_
_
_
_
_
_
1 p p 0 0
0 1 p p 0
0 0 1 p p
0 0 0 1 p

.
.
.
_
_
_
_
_
_
.
En este caso, para j = i, . . . , n+i, p
(n)
ij
=
_
n
ji
_
p
ji
(1p)
nj+i
, es decir,
la probabilidad de obtener j i aciertos en n etapas es una distribucion
binomial de parametros (n, p).
Ejemplo 6.4 (Tiempo de vida restante). Consideremos una pieza
de un equipo que esta actualmente en uso. Siempre que se estropea, se
reemplaza inmediatamente por una pieza identica. Sea p
k
la probabili-
dad de que una pieza nueva dure k unidades de tiempo, k = 1, 2, . . ..
Sea X
n
el tiempo de vida restante de la pieza que esta en uso en el
momento n. Podemos escribir
X
n+1
= 1
{Xn1}
(X
n
1) +1
{Xn=0}
(Z
n+1
1)
donde Z
n+1
es el tiempo de vida de la pieza instalada en el tiempo
n. Como los tiempos de vida de sucesivas piezas nuevas que se van
instalando son independientes, X
n
, n 0 es una cadena de Markov
con conjunto de estados 0, 1, 2, . . .. Las probabilidades de transicion
seran: Si i 1
p
ij
= P(X
n+1
= j[X
n
= i) = P(X
n
1 = j[X
n
= i)
=
_
1 si j = i 1
0 si j ,= i 1
y si i = 0
p
0j
= P(X
n+1
= j[X
n
= 0) = P(Z
n+1
1 = j[X
n
= i)
= p
j+1
.
62 6. CADENAS DE MARKOV
Entonces, la matriz de transicion sera
P =
_
_
_
_
_
_
p
1
p
2
p
3
p
4
1 0 0 0
0 1 0 0
0 0 1 0

.
.
.
_
_
_
_
_
_
.
Supongamos que X
n
, n 0 es una cadena de Markov con matriz
de transicion P y distribucion inicial p(0). Fijamos un tiempo m y
supongamos que la cadena se encuentra en el estado i. Condicionado a
X
m
= i, el proceso X
n+m
, n 0 es tambien una cadena de Markov
con la misma matriz de transicion y estado inicial i, independiente de
las variables X
0
, . . . ., X
m
.
2. Clasicaci on de los estados de una cadena
Podemos asociar un grafo orientado a una matriz estocastica P de
la manera siguiente. Los vertices del grafo seran los los estados de la
cadena, es decir, los elementos del conjunto I (nito o numerable).
Entonces, diremos que el par (i, j) es una arista del grafo si p
ij
> 0.
Un camino de i a j sera una sucesion de aristas (i, i
1
), (i
1
, i
2
), . . . ,
(i
n
, j) que empiezan en i y terminan en j. Diremos que el estado i lleva
al estado j si existe un camino de i a j. En tal caso escribiremos i j.
Proposici on 6.1. Consideremos dos estados i y j. Los siguientes
enunciados son equivalentes:
(i): i j.
(ii): p
(n)
ij
> 0 para alg un n 1.
Esta proposicion se deduce de la siguiente igualdad
p
(n)
ij
=

i
1
,...,i
n1
p
ii
1
p
i
n1
j
.
Diremos que dos estados i,j diferentes comunican si i j y j i.
En tal caso, escribiremos i j. Por otra parte, por convenio pondremos
i i, es decir, todo estado se comunica consigo mismo. La relacion
i j es una relacion de equivalencia en el conjunto de estados de la
cadena. En efecto, por denicion i i, y tambien si i j entonces
j i. Finalmente, es claro que i j y j k entonces i k.
Esta relacion de equivalencia da lugar a una particion del conjunto
I en clases de equivalencia.
Diremos que una clase C es cerrada si
i C, i j implica j C.
3. TIEMPLOS DE LLEGADA Y PROBABILIDADES DE ABSORCI

ON 63
Diremos que un estado i es absorbente si i es una clase cerrada.
Diremos que una cadena de Markov es irreducible si I consta de
una sola clase de equivalencia.
Ejemplo 6.5. Consideremos la matriz estocastica
P =
_
_
_
_
_
_
_
_
1
2
1
2
0 0 0 0
0 0 1 0 0 0
1
3
0 0
1
3
1
3
0
0 0 0
1
2
1
2
0
0 0 0 0 0 1
0 0 0 0 1 0
_
_
_
_
_
_
_
_
Las clases son 1, 2, 3, 4, y 5, 6, siendo cerrada solo la clase 5, 6.
Periodicidad. Los estados de la misma clase tiene el mismo
periodo.
3. Tiemplos de llegada y probabilidades de absorci on
Sea X
n
, n 0 una cadena de Markov con matriz de transicion P.
El hitting timetiempo de llegada del subconjunto A de I es la variable
aleatoria H
A
que toma valores 0, 1, 2, . . . denida por
(6.3.1) H
A
=nfn 0 : X
n
A
donde se considera que el inmo del conjunto vacio es . La probabi-
lidad partiendo de i de que la cadena acabe en A es
h
A
i
= P(H
A
< [X
0
= i).
Cuando A es una clase cerrada, h
A
i
se llama probabilidad de absorcion
. La media temporal de que la cadena acabe en A, suponiendo
que P(H
A
< ) = 1, viene dada por
k
A
i
= E(H
A
[X
0
= i) =

n=0
nP(H
A
= n[X
0
= i).
El vector de probabilidades de llegada h
A
= (h
A
i
, i I) satisface el
siguiente sistema de ecuaciones lineales
(6.3.2)
_
h
A
i
= 1 for i A
h
A
i
=

jI
p
ij
h
A
j
for i / A
.
De hecho, si X
0
= i A, entonces H
A
= 0 so h
A
i
= 1. Si X
0
= i / A,
entonces H
A
1, por lo que, dada la propiedad de Markov
P(H
A
< [X
1
= j, X
0
= i) = P(H
A
< [X
0
= j) = h
A
j
64 6. CADENAS DE MARKOV
y
h
A
i
= P(H
A
< [X
0
= i)
=

jI
P(H
A
< , X
1
= j[X
0
= i)
=

jI
P(H
A
< [X
1
= j, X
0
= i)P(X
1
= j[X
0
= i)
=

jI
p
ij
h
A
j
.
El vector de medias de tiempos de llegada k
A
= (k
A
i
, i I) satisface
el siguiente sistema de ecuaciones lineales
(6.3.3)
_
k
A
i
= 0 for i A
k
A
i
= 1 +

j / A
p
ij
k
A
j
for i / A
.
De hecho, si X
0
= i A, entonces H
A
= 0 so k
A
i
= 0. Si X
0
= i / A,
entonces H
A
1, por lo que, por la propiedad de Markov
E(H
A
[X
1
= j, X
0
= i) = 1 +E(H
A
[X
0
= j)
y
k
A
i
= E(H
A
[X
0
= i)
=

jI
E(H
A
1
{X
1
=j}
[X
0
= i)
=

jI
E(H
A
[X
1
= j, X
0
= i)P(X
1
= j[X
0
= i)
= 1 +

j / A
p
ij
k
A
j
.
Observaci on: El sistema de ecuaciones (6.3.2) y (13.0.30) puede
tener mas de una solucion. En ese caso, el vector de probabilidades de
llegada h
A
y el vector de medias de tiempo de llegada k
A
son la solucion
mnima no negativa de este sistema.
Ejemplo 5 Considerar la cadena cuya matriz es
P =
_
_
_
_
1 0 0 0
1
2
0
1
2
0
0
1
2
0
1
2
0 0 0 1
_
_
_
_
.
Comenzando en 1 cual es la probabilidad de absorcion en 3? Como
de larga sera la cadena antes de caer en el 0 o en el 3?
3. TIEMPLOS DE LLEGADA Y PROBABILIDADES DE ABSORCI

ON 65
Sea h
i
= P(alcanzar 3[X
0
= i). Claramente h
0
= 0, h
3
= 1, y
h
1
=
1
2
h
0
+
1
2
h
2
h
2
=
1
2
h
1
+
1
2
h
3
Por lo tanto, h
2
=
2
3
y h
1
=
1
3
.
Por otro lado, si k
i
= E(alcanzar 0, 3[X
0
= i), entonces k
0
=
k
3
= 0, y
k
1
= 1 +
1
2
k
0
+
1
2
k
2
k
2
= 1 +
1
2
k
1
+
1
2
k
3
Por eso, k
1
= 2 y k
2
= 2.
Ejemplo 6 (La ruina del jugador) Sea 0 < p = 1 q < 1, y conside-
rar la cadena de Markov con estados 0, 1, 2, . . . y probabilidades de
transicion
p
00
= 1,
p
i,i1
= q, p
i,i+1
= p, for i = 1, 2, . . .
Suponer X
0
= i. Entonces X
n
representa la ganancia del jugador
desp ues de la n-esima jugada, si se inicia el juego con un capital de
i euros , y con cada jugada gana 1 euro con probabilidad p y con pro-
babilidad q se pierde un euro. Cual es la probabilidad de ruina? Aqui 0
es el estado absorbente y queremos conocer la probabilidad de alcanzar
el cero. Sea h
i
= P(alcanzar 0[X
0
= i). Entonces h satisface
h
0
= 1,
h
i
= ph
i+1
+qh
i1
, para i = 1, 2, . . .
Si p ,= q la solucion general de esta relacion de recurrencia es
h
i
= A +B
_
q
p
_
i
.
Si p < q, entonces, la restriccion 0 h
i
1 obliga a que B = 0, por lo
que h
i
= 1 para todo i. Si p > q, entonces, como h
0
= 1 se obtiene la
familia de soluciones
h
i
=
_
q
p
_
i
+A
_
1
_
q
p
_
i
_
;
66 6. CADENAS DE MARKOV
para una solucion no negativa necesitamos que A 0, por lo que la
solucion no negativa mnima es h
i
=
_
q
p
_
i
. Finalmente, si p = q la
relacion de recurrencia tiene como solucion general
h
i
= A +Bi
y,de nuevo, la restriccion 0 h
i
1 obliga a que B = 0, por lo que
h
i
= 1 para todo i.
El modelo anterior representa el caso en el que el jugador juega
contra un casino. Suponer ahora que el oponente tiene una fortuna
inicial de N i, siendo N el capital total de ambos jugadores. En este
caso, el conjunto de posibles estados es nito I = 0, 1, 2, . . . , N y la
matriz de transicion de la cadena de Markov es
P =
_
_
_
_
_
_
_
_
_
1 0 0 0
q 0 p
0 q 0 p
0 q 0 p

q 0 p
0 0 0 1
_
_
_
_
_
_
_
_
_
..
Si se tiene h
i
= P(alcanzar 0[X
0
= i). Entnces h satisface
h
0
= 1,
h
i
= ph
i+1
+qh
i1
, para i = 1, 2, . . . , N 1
h
N
= 0.
La solucion de estas ecuaciones es
h
i
=
_
q
p
_
i

_
q
p
_
N
1
_
q
p
_
N
if p ,= q, and
h
i
=
N i
N
si p = q =
1
2
. Observar que si N se obtiene el resultado anterior
para el caso de una fortuna innita.
Ejemplo 7 (Cadena nacer-morir) Sea la cadena de Markov con el
conjunto de estados 0, 1, 2, . . . y probabilidades de transicion
p
00
= 1,
p
i,i1
= q
i
, p
i,i+1
= p
i
, for i = 1, 2, . . .
4. RECURRENCIA Y TRANSITORIEDAD 67
donde, para i = 1, 2, . . ., se tiene 0 < p
i
= 1q
i
< 1. Considerar X
0
= i.
Al igual que en el ejemplo anterior, el 0 es un estado de absorcion y se
quiere calcular la probabilidad de absorcion comenzando en i. Dado que
esta cadena sirve para modelizar el tama no de la poblacion , recordar
que el tama no cambia a cada instante, p
i
siendo la probabilidad de tener
un nacimiento despues de una muerte en una poblacion de tama no i.
Sea h
i
= P(alcanzar 0[X
0
= i). Entonces h satisface
h
0
= 1,
h
i
= p
i
h
i+1
+q
i
h
i1
, para i = 1, 2, . . .
Esta relacion de recurrencia tiene coecientes variables por lo que la
tecnica usual no funciona. Sea u
i
= h
i1
h
i
,, entonces p
i
u
i+1
= q
i
u
i
,
por lo que
u
i+1
=
q
i
p
i
u
i
=
q
i
q
i1
q
1
p
i
p
i1
p
1
u
1
=
i
u
1
,
donde

i
=
q
i
q
i1
q
1
p
i
p
i1
p
1
.
Por lo que,
h
i
= h
0
(u
1
+ +u
i
) = 1 A(
0
+
1
+ +
i1
),
donde
0
= 1 y A = u
1
es una constante a determinar. Hay dos casos
distintos:
(i): Si

i=0

i
= , la restriccion 0 h
i
1 obliga a A = 0 y
h
i
= 1 para todo i.
(ii): Si

i=0

i
< se puede tomar A > 0 tan grande como
1A(
0
+
1
+ +
i1
) 0 para todo i. Entonces la solucion
mnima no negativa es, tal que, A = (

i=0

i
)
1
y,entonces
h
i
=

j=i

j=0

j
.
En este caso, para i = 1, 2, . . ., se tiene h
i
< 1, por lo que la
probabilidad de supervivencia de la poblacion es positiva.
4. Recurrencia y transitoriedad
Consideremos una cadena de Markov X
n
, n 0 con matriz de
probabilidades de transicion P. Fijado un estado i, designamos por T
i
el primer tiempo de paso por el estado i, es decir,
T
i
=nfn 1 : X
n
= i,
68 6. CADENAS DE MARKOV
con la convencion T
i
= si nunca pasamos por el estado i. Desig-
naremos por P
i
la probabilidad condicionada por X
0
= i, es decir,
P
i
= P([X
0
= i).
Definici on 6.3. Diremos que un estado i es recurrente si
P
i
(T
i
< ) = 1.
Definici on 6.4. Diremos que un estado i es transitorio si
P
i
(T
i
< ) < 1.
Partiendo de un estado recurrente con probabilidad uno regresamos
a el alguna vez. En cambio, partiendo de un estado transitorio hay una
probabilidad estrictamente positiva de no regresar nunca.
Designemos por
f
(n)
ij
= P
i
(X
1
,= j, X
2
,= j, . . . , X
n1
,= j, X
n
= j)
la probabilidad de que la primera visita al estado j partiendo del estado
i se produzca en la etapa n. Ponemos
f
ij
=

n=1
f
(n)
ij
= P
i
(T
j
< ).
Un estado i sera recurrente si y solo si f
ii
= 1. Denimos las funciones
generatrices
P
ij
(s) =

n=0
s
n
p
(n)
ij
, F
ij
(s) =

n=0
s
n
f
(n)
ij
,
donde por convencion f
(0)
ij
= 0, para [s[ < 1. Por otra parte considere-
mos el n umero de visitas al estado i, denido por
V
i
=

n=0
1
{Xn=i}
.
Tenemos
E
i
(V
i
) =

n=0
P
i
(X
n
= i) =

n=0
p
(n)
ii
.
Teorema 6.1. (a) P
ii
(s) = 1 +F
ii
(s)P
ii
(s),
(b) P
ij
(s) = F
ij
(s)P
jj
(s).
Demostracion. Fijemos i, j I y pongamos A
m
= X
m
= j para
m 1, y
B
m
= X
r
,= j, para 1 r < m, X
m
= j.
4. RECURRENCIA Y TRANSITORIEDAD 69
Es decir, B
m
denota el suceso de que la primera visita a j tiene lugar
en la etapa m. Los sucesos B
m
son disjuntos y tenemos que
P
i
(A
m
) =
m

r=1
P
i
(A
m
B
r
).
Ahora bien, usando la propiedad de Markov, obtenemos
P
i
(A
m
B
r
) = P
i
(A
m
[B
r
)P
i
(B
r
)
= P
j
(A
mr
)P
i
(B
r
),
por lo tanto
p
(m)
ij
=
m

r=1
f
(r)
ij
p
(mr)
jj
.
Multiplicando por s
m
esta igualdad y sumando sobre m desde m = 1
se obtiene P
ij
(s)
ij
= F
ij
(s)P
jj
(s).
Teorema 6.2. Un estado i es recurrente si

n=0
p
(n)
ii
= . Un
estado i es transitorio si

n=0
p
(n)
ii
< .
Demostracion.
Sea la cadena de Markov X
n
, n 0 irreducible y recurrente con
matriz de transicion P. Para un estado jo i, consideremos el tiempo
medio en regresar al estado i
m
i
= E
i
(T
i
)
Observar que, aunque este estado i es recurrente, es decir, P
i
(T
i
<
) = 1, m
i
puede ser innito. Si el tiempo medio en regresar m
i
=
E
i
(T
i
) es nito, entonces se puede decir que i es recurrente positivo.
Un estado recurrente que no posee esta propiedad (stronger property)
se llama recurrente nula. En una cadena de Markov nita todos los
estados recurrentes son recurrentes positivos. Si un estado es recurrente
positivo, todos los estados de la misma clase son tamben recurrentes
positivos.
Estados recurrentes nulos y recurrentes positivos (Grimmett)
Los estados de una clase tienen el mismo caracter (Grimmett)
Caso de cadenas nitas. Si una clase es recurrente es cerrada,
y el reciproco es cierto en el caso nito (Grimmett).
Ejemplos: Paseo aleatorio.
70 6. CADENAS DE MARKOV
5. Comportamiento asint otico: Distribuciones estacionarias
Se dice que una distribucion en el conjunto de estados I es inva-
riante para una cadena de Markov con matriz de transicion P si
P = .
Si la distribucion inicial de una cadena de Markov es invariante,
entonces la distribucion de X
n
es para todo n. De hecho, de(13.0.19)
esta distribucion es P
n
= .
Sea el conjunto de estados I nito. Las distribuciones invariantes
autovectores la de P con autovalor 1. La suma de las de P son todas
1, por lo que el vector columna de unos es un autovector con autova-
lor 1. Por lo tanto, P debe tener una autovector la con autovalor 1,
es decir, siempre existen distribuciones invariantes. Las distribuciones
invariantes se obtienena partir del comportamiento en el lmite de P
n
.
Veamoslo en el siguiente resultado.
Proposici on 6.2. Sea el conjunto de estados I nito. Suponer para
alg un i I que
p
(n)
ij

j
seg un n tiende a innito, para todo j I. Entonces = (
j
, j I) es
una distribucion invariante.
Demostraci on. Se tiene

iI

j
=

iI
lm
n
p
(n)
ij
= lm
n

iI
p
(n)
ij
= 1
y

j
= lm
n
p
(n+1)
ij
= lm
n

kI
p
(n)
ik
p
kj
=

kI
lm
n
p
(n)
ik
p
kj
=

kI

k
p
kj
donde se usa que I es nito para justicar el intercambiodel sumatorio
y el lmite.Entonces es una distribucion invariante.
Este resultado no se mantiene en el caso de cadenas de Markov
innitas.
Ejemplo 6.6. Sea la cadena de Markov de dos estados en (13.0.22)
con ,= 0, 1. La distribucion invariante es (

+
,

+
). Observar que
estas son las las de lm
n
P
n
.
5. COMPORTAMIENTO ASINT

OTICO: DISTRIBUCIONES ESTACIONARIAS71


Ejemplo 6.7. Sea la cadena de Markov de dos estados dada por
(13.0.23). Para encontrar la distribucion invariante se tiene que resol-
ver la ecuacion lineal P = . Con esta ecuacion junto a la restriccion

1
+
2
+
3
= 1
se obtiene = (1/5, 2/5, 2/5).
Distribuciones estacionarias.
1. Estados erg odicos. Se dice de los estados recurrentes no pe-
riodicos.
5.1. Tipos de cadenas.
1. Cadenas regulares.
Una cadena se dice regular si la matriz P es regular, que
quiere decir que alguna potencia de P tiene todos sus elementos
no nulos.
Propiedades de cadenas regulares:
Existe un unico vector de probabilidades estrictamente
positivas que cumple P = .
Cuando n , P
n
se aproxima a la matriz cuyas las
son todas iguales al vector la . La matriz tiene unica-
mente un valor propio igual a uno y el resto de modulo
estrictamente menor.
Si una matriz P tiene un uno en la diagonal principal,
entonces no es regular.
2. Cadenas estacionarias
Se denominan cadenas estacionarias a aquellas en la que las
probabilidades de transicion son independientes del n umero de
etapas intermedias, y por tanto, la matriz P es idempotente.
Esto es,
P
n
= P n
3. Cadenas erg odicas
Aquellas en las que las probabilidades p
i
(n) convergen a
un cierto valor p
i
, independiente de n, cuando n , inde-
pendiente de la distribucion inicial p
i
(0). Es decir, una cadena
ergodica es una cadena asintoticamente estacionaria, cuando el
n umero de etapas es sucientemente grande, las probabilida-
des de transicion se estabilizan. De acuerdo a esta denicion,
si una cadena es ergodica debe cumplirse en el lmite que
p
i
=

k
p
i
p
ki
72 6. CADENAS DE MARKOV
C omo caracterizar el tipo de cadena?
1. Se obtienen los valores propios de la matriz de transicion P.
Por ser una matriz de transicion, hay al menos un valor propio
igual a 1. Si hay mas de un valor propio de modulo 1, la cadena
no puede ser regular. El lmite de P
n
es una matriz de rango
mayor que uno, con lo que no hay convergencia a un unico
vector de probabilidades de transicion.
2. Resolvemos
P =
Si el vector solucion es unico, la cadena es ergodica. Si el vector
tiene todas sus componentes estrictamente positivas, la ca-
dena es regular. En otro caso, la cadena no es regular y existen
en ella estados transitorios, aquellos en los que la componente
de es nula.
3. En el caso de varios valores propios unitarios, la cadena no
es regular. Puede que las matrices de transicion converjan a
una matriz, pero sera de rango mayor que uno y por tanto
estara formada por las distintas. O podemos obtener una ca-
dena periodica.
5.2. Ejemplos. Ejemplo 1. P =
_
1/3 2/3
0 1
_
; p(0) = (0,5, 0,5)
P
n
=
_
1/3
n
(3
n
1) /3
n
0 1
_

_
0 1
0 1
_
p(n) = p(0)P
n
(0, 1)
Para encontrar el lmite de forma no recursiva, obtenemos los valo-
res propios

1/3 2/3
0 1

= 0
(1/3 ) (1 ) = 0
de donde
1
= 1;
2
= 1/3. Hay un unico valor propio unitario, por
lo que el lmite de P
n
es una matriz de rango uno.
Resolvemos el sistema
P =
5. COMPORTAMIENTO ASINT

OTICO: DISTRIBUCIONES ESTACIONARIAS73


donde es un vector de probabilidades, que podemos escribir =
(x, 1 x). El sistema queda
(x, 1 x)
_
1/3 2/3
0 1
_
= (x, 1 x)
1
3
x = x
La solucion es = (0, 1), vector la del lmite de P
n
.
La cadena es erg odica, no regular. El estado 2 es un estado
absorbente y el estado 1 es transitorio.
Ejemplo 2. P =
_
1/3 2/3
1/2 1/2
_
; p(0) = (0,5, 0,5)
Esta cadena es regular. Los elementos de P
1
= P son todos estric-
tamente positivos. Podemos comprobar que hay un unico valor propio
unitario.
Resolvemos
P =
y obtenemos = (0,42857, 0,57142)
Ejemplo 3. P =
_
0 1
1 0
_
.
Se trata de una cadena periodica,
P
2k
=
_
1 0
0 1
_
, P
2k+1
=
_
0 1
1 0
_
y todos los estados son recurrentes
Ejemplo 4. P =
_
_
_
_
0,5 0,5
0,9 0,1
0,3 0,7
0,4 0,6
_
_
_
_
; p
1
(0) = (1, 0, 0, 0) ;
p
2
(0) = (0, 0, 0,5, 0,5)
Ejemplo 5 Para un determinado tipo de accion se considera la
siguiente estructura. La probabilidad de que suban despues de una
bajada es de 0.7 y la probabilidad de que bajen despues de una subida
es de 0.3. La probabilidad de que el valor de la accion se mantenga
exactamente igual en dos periodos consecutivos es nula.
i) Si en t se ha producido una subida, cual es la probabilidad de
que en t + 5 tambien suban?
ii) Cual es la probabilidad de que hayan subido durante los 5 pe-
riodos?
74 6. CADENAS DE MARKOV
iii) Analiza el comportamiento de estas acciones en el largo plazo.
iv) El valor inicial de la accion es de 100 u.m. Cuando sube, sube
2 u.m. y cuando baja, baja 7 u.m. recomendaras la inversion a un
horizonte de 100 periodos de cotizacion? Cual es el valor esperado del
valor de la accion a ese horizonte?
Ejemplo 6. Los sistemas de valoracion del riesgo de credito pasan
por la clasicacion de las entidades nancieras en categoras denotadas,
por grupos de letras, seg un su riesgo asociado. As, a una empresa AAA
se le asocia una solvencia altsima; es decir, una peque nsima probabi-
lidad de quiebra. En un contexto sencillo pensemos en que existen 3
categoras A, B y C, y la categora R de ruina. Consideremos que la
matriz de transicion asociada a un periodo es la siguiente (ordenados
las categoras como A,B,C,R)
P =
_
_
_
_
0,9 0,08 0,0199 0,0001
0,3 0,4 0,299 0,001
0,1 0,4 0,49 0,01
0 0 0 1
_
_
_
_
Despues de 3 periodos, obtener la probabilidad de permanecer en
la misma categora para cada una de ellas.
Ejercicio:
Estudia las siguientes matrices de transicion clasicando las cade-
nas, los estados, obteniendo el lmite de la matriz P
n
e interpretando
las probabilidades incondicionadas, comentando si dependen o no de
las probabilidades iniciales.
P
1
=
_
_
1 0 0
0,3 0,3 0,4
0,1 0,3 0,6
_
_
, P
2
=
_
_
0 1 0
0,3 0,3 0,4
0,1 0,3 0,6
_
_
, P
3
=
_
_
0 0,5 0,5
0 0,3 0,6
1 0 0
_
_
CAPTULO 7
Procesos estacionarios
Consideremos procesos estocasticos X = X
t
, t Z con tiempo
discreto Z = . . . . 2, 1, 0, 1, 2, . . ..
Definici on 7.1. Diremos que un proceso estocastico X
t
, t Z,
que llamaremos X = X
t
, t Z es estacionario si su funcion de media
es constante
E(X
t
) = m
X
(t) = m
y su funcion de autocovarianza cumple

X
(s, t) =
X
(s +h, t +h),
para todo s, t, h Z.
Si denimos
X
(h) =
X
(h, 0), entonces podemos escribir la funcion
de autocovarianza como
X
(s, t) =
X
(s t). La funcion
X
(h) se
denomina la funcion de autocovarianza del proceso estacionario X.
Observemos que:
(i): El valor
X
(0) es la varianza V(X
t
) que es constante al igual
que la media.
(ii):
X
(h) =
X
(h). Por tanto, es la funcion de autocovarianza
esta determinada por sus valores en los tiempos positivos h =
0, 1, 2, . . .
(iii): [
X
(h)[
X
(0).
La funcion de autocorrelacion del proceso X se dene como

X
(h) =

X
(h)

X
(0)
= Corr(X
t+h
, X
t
).
Se cumple:
(i):
X
(0) = 1.
(ii):
X
(h) =
X
(h).
(iii): [
X
(h)[ 1.
Veamos algunos ejemplos sencillos de procesos estacionarios.
75
76 7. PROCESOS ESTACIONARIOS
Ejemplo 7.1. Sea X
t
= Acos (t)+Bsin (t), donde A y B son va-
riables aleatorias incorrelacionadas con media cero y varianza unitaria
y [0, 2]. Se trata de un proceso estacionario ya que
C(X
t+h
, X
t
) = cos (t) cos ((t +h)) + sin (t) sin ((t +h))
= cos (h) =
X
(h).
Ejemplo 7.2. Sea u = u
t
, t Z un proceso formado por variables
aleatorias incorrelacionadas dos a dos con media cero y varianza
2
.
Se trata de un proceso estacionario con funcion de autocovarianza

Z
(h) =
_

2
si h = 0
0 si h ,= 0
Este proceso se denomina ruido blanco con varianza
2
.
A partir del ruido blanco se pueden construir procesos estacionarios
autorregresivos y de medias moviles. Los ejemplos mas simples son los
siguientes.
Ejemplo 7.3. Sea u
t
un ruido blanco con varianza
2
. Denimos
X
t
= u
t
+u
t1
.
Se trata de un proceso estacionario de media movil con media cero y
funcion de autocovarianza dada por
C(X
t+h
, X
t
) = C(u
t+h
+u
t+h1
, u
t
+u
t1
)
=
X
(h) =
_
_
_
(1 +
2
)
2
si h = 0

2
si h = 1
0 si h 1
Ejemplo 7.4. Consideremos el proceso generado de la forma
X
t
= X
t1
+u
t
, t 0
donde u
t
es un ruido blanco con varianza
2
y [[ < 1 e incorrelado
con X
t
. Suponemos ademas que X
0
tiene media cero y varianza

2
0
=

2
1
2
.
Veamos que X
t
es un proceso estacionario. De forma recursiva com-
probamos que su funcion media es cero:
E(X
t
) = E(X
t1
) +E(u
t
) = 0.
De forma recursiva, se obtiene que la varianza es constante igual a
2
0
:
V(X
t
) =
2
V(X
t1
) +
2
=
2

2
1
2
+
2
=

2
1
2
.
7. PROCESOS ESTACIONARIOS 77
Calculemos ahora la covarianza entre dos tiempos consecutivos:
C(X
t+1
, X
t
) = C(X
t
, X
t
) +C(u
t+1
, X
t
) =
2
0
.
En general,
C(X
t+h
, X
t
) = C(X
t+h1
, X
t
) +C(u
t+h
, X
t
)
= C(X
t+h1
, X
t
) =

h
1
2

2
=
X
(h)
Si la variable aleatoria inicial X
0
es arbitraria con media E(X
0
) y va-
rianza V(X
0
), se puede demostrar que el proceso tiene la misma es-
tructura a largo plazo, es decir,
E(X
t
) =
t
E(X
0
) 0,
V(X
t
) =
2t
V(X
0
) +
2(t1)

2
+ +
2

2
0
.
La proposicion siguiente nos proporciona un metodo para transfor-
mar un proceso estacionario.
Proposici on 7.1. Sea X = X
t
, t Z un proceso estacionario.
Consideremos una sucesion de coecientes
j
, j Z tales que

j=0
[
j
[ < .
Entonces, el proceso de medias moviles
(7.0.1) Y
t
=

j=0

j
X
tj
es de nuevo un proceso estacionario con funcion de autocovarianza dada
por
(7.0.2)
Y
(h) =

j,k=0

X
(h j +k).
Escribiremos formalmente
Y
t
= (B)X
t
,
donde B es el operador de retardos denido por
BX
t
= X
t1
y (B) =

j=0

j
B
j
.
En particular, estos operadores heredan las propiedades algebraicas de
las series de potencias. Es decir, si

j=0
[
j
[ < ,

j=0
[
j
[ < ,
(z) =

j=0

j
z
j
, (z) =

j=0

j
z
j
y (z)(z) = (z), para [z[ 1,
entonces (B)(B)X
t
= (B)X
t
.
78 7. PROCESOS ESTACIONARIOS
1. Procesos ARMA
1.1. Procesos de medias m oviles MA(q). Los procesos de me-
dias moviles en general son de la forma
X
t
= u
t
+
1
u
t1
+
2
u
t2
+. . . +
q
u
tq
, t 0
donde u
t
es un ruido blanco de varianza
2
.
Estos procesos tienen la siguiente estructura de covarianzas
(0) =
2
(1 +
2
1
+. . . +
2
q
),
(1) =
2
(
1
+
1

2
+. . . +
q1

q
),
.
.
. =
.
.
.
(q 1) =
2
(
q1
+
q

1
),
(q) =
2

q
,
(h) = 0, h > q.
que se obtiene sustituyendo en la expresion C(X
t
, X
th
), X
t
y X
th
por
su valor en funcion de las us. Es decir,
(h) =
_

2

qh
j=0

j

j+h
si h q
0 si h > q
con la convencion
0
= 1. Dividiendo por (0) obtenemos la estructura
de la funcion de autocorrelacion.
(h) =
_

2

qh
j=0

j

j+h

q
j=0

2
j
si h q
0 si h > q
Simbolicamente, podemos escribir en forma compacta
X
t
= (B)Z
t
,
donde (z) es el polinomio de grado q
(7.1.1) (z) = 1 +
1
z + +
q
z
q
.
y B designa el operador de retardo denido por B
j
X
t
= X
tj
.
1.2. Procesos autorregresivos AR(p). Diremos que un proce-
so estacionario X = X
t
, t Z es un proceso autorregresivo de orden
p, AR(p), si satisface una ecuacion del tipo
(7.1.2) X
t

1
X
t1
. . .
p
X
tp
= u
t
,
donde u
t
es un ruido blanco de varianza
2
.
1. PROCESOS ARMA 79
Consideremos el caso particular p = 1, es decir
(7.1.3) X
t

1
X
t1
= u
t
.
Iterando esta igualdad obtenemos
X
t
= u
t
+
1
u
t1
+
2
1
X
t2
,
=
= u
t
+
1
u
t1
+ +
k
1
u
tk
+
k+1
1
X
tk1
.
Si [
1
[ < 1, tendremos
E
_
_

X
t

j=0

j
1
u
tj

2
_
_
=
2k+2
1
V(X
1
) 0
cuando k tiende a innito. En consecuencia, la serie

j=0

j
1
u
tj
es
convergente en media cuadratica y concluimos que
(7.1.4) X
t
=

j=0

j
1
u
tj
.
Es decir, el proceso X
t
denido como la suma de la serie (7.1.4) es un
proceso estacionario que es la unica solucion de la ecuacion (7.1.3). En
efecto, calculemos la funcion media y la funcion de autocovarianza de
este proceso:
E(X
t
) =

j=0

j
1
E(u
tj
) = 0.
y para h 0
C(X
t+h
, X
t
) = lm
n
E
__
n

j=0

j
1
u
t+hj
__
n

j=0

j
1
u
tj
__
= lm
n
n

j,k=0

j
1

k
1
E(u
t+hj
u
tk
)
=
2
lm
n
n

k=0

k+h
1

k
1
=
2

h
1
1
2
1
.
En general, se demuestra que existe una unica solucion de la ecua-
cion (7.1.2) si las races de la ecuacion
1
1
z . . .
p
z
p
= 0.
80 7. PROCESOS ESTACIONARIOS
estan todas fuera del crculo unidad (sean reales o no, [
i
[ > 1). Por
ejemplo, en el caso p = 1, esto signica que [
1
[ < 1.
La ecuacion (7.1.2) se puede escribir de forma compacta como sigue:
(B)X
t
= u
t
,
donde (z) es el polinomio de grado p dado por
(7.1.5) (z) = 1
1
z . . .
p
z
p
.
1.3. Procesos ARMA(p, q). Diremos que un proceso estacio-
nario X = X
t
, t Z es un proceso ARMA(p, q) si satisface una
ecuacion del tipo
(7.1.6) X
t

1
X
t1
. . .
p
X
tp
= u
t
+
1
u
t1
+. . . +
q
u
tq
,
where u
t
es un ruido blanco de varianza
2
.
La ecuacion (7.1.6) puede escribirse utilizando el operador de retar-
dos como
(7.1.7) (B)X
t
= (B)u
t
.
Supongamos que (z) ,= 0 para todo z C tal que [z[ 1. Esto implica
que existe un r > 1 tal que el cociente
(z)
(z)
tiene un desarrollo en serie
(7.1.8)
(z)
(z)
=

j=0

j
z
j
,
absolutamente convergente para [z[ < r. En efecto, el polinomio auto-
rregresivo (z) se puede factorizar como
(z) =
p

k=1
(1 a
1
k
z),
donde los a
k
son los ceros de (z). Observemos que [a
k
[ > 1 para todo
k = 1, . . . , p. Por lo tanto, para todo k
1
1 a
1
k
z
=

j=0
a
j
k
z
j
,
y esta serie converge absolutamente si [z[ < [a
k
[. En consecuencia,
se obtiene el desarrollo (7.1.8) para [z[ < r = mn([a
1
[, . . . , [a
p
[). En
particular obtenemos

j=0
[
j
[ < .
Por consiguiente, la ecuacion ARMA (7.1.6) tiene una unica solu-
cion estacionaria de la forma
(7.1.9) X
t
=

j=0

j
u
tj
.
1. PROCESOS ARMA 81
En fecto, sea (z) =
1
(z)
=

j=0

j
z
j
, donde de nuevo la serie converge
absolutamente para [z[ < r. Por la Proposicion 7.1 , podemos aplicar
el operador (B) a ambos miembros de la ecuacion (7.1.6) y obtenemos
X
t
= (B)(B)X
t
= (B)(B)u
t
= (B)u
t
.
1.4. Sistema de ecuaciones de Yule Walker. La funcion de
covarianzas de un proceso AR(p) posee la siguiente estructura
(0)
1
(1) . . .
p
(p) =
2
,
(1)
1
(0) . . .
p
(p 1) = 0,
(2)
1
(1) . . .
p
(p 2) = 0,
.
.
. =
.
.
.
(p)
1
(p 1) . . .
p
(0) = 0,
que se obtiene sustituyendo u
t+h
en las relaciones C(X
t
, u
t
) =
2
y
C(X
t
, u
t+h
) = 0, para h = 1, . . . , p.
A este sistema de ecuaciones se le denomina sistema de Yule-Walker,
y una vez obtenida la solucion, cualquier otra covarianza () se obtiene
de forma recursiva ya que se cumple la ecuacion:
() +a
1
( 1) +. . . +a
p
( p) = 0.
Sin mas que dividir por (0) obtenemos la estructura de la funcion
de autocorrelacion.
Por ejemplo, en el caso simple X
t
= u
t
+ bu
t1
, despejando u
t
obtenemos u
t
= X
t
bu
t1
, y podemos escribir,
X
t
= u
t
+b(X
t1
bu
t2
) = u
t
+bX
t1
b
2
(X
t2
bu
t3
)
= u
t
+bX
t1
b
2
X
t2
+b
3
u
t3
.
y nalmente, si b
n
0 cuando n , el proceso autorregresivo
equivalente es
X
t
+

j=1
(b)
j
X
tj
= u
t
.
que es estacionario si se cumple [b[ < 1, donde b es la raz de la
ecuacion +b = 0.
82 7. PROCESOS ESTACIONARIOS
2. Representaci on espectral
La funcion de autocovarianza de un proceso estacioario
X
(h) es
semidenida positiva, es decir,
n

i.j=1
a
i
a
j

X
(t
i
t
j
) 0
para todos los enteros positivos n y para todos los n umeros reales
a
1
, . . . , a
n
y enteros t
1
, . . . , t
n
. En efecto,
n

i.j=1
a
i
a
j

X
(t
i
t
j
) =
n

i.j=1
a
i
a
j
Cov(X
t
i
, X
t
j
)
= Var
_
n

i=1
a
i
X
t
i
_
.
Proposici on 7.2. Una funcion que toma valores reales denida en
los enteros es la funcion de autocovarianzas de un proceso estacionario
si y solo si es par y semidenida positiva.
Los resultados siguientes caracterizan las funciones simetricas no nega-
tivas sobre los enteros:
Teorema 7.1 (Herglotz). Una funcion (h) sobre los enteros es
simetrica y denida no negativa (es decir, es una funcion de autoco-
varianzan) si y solo si existe una funcion continua por la derecha no
decreciente sobre [, ] tal que F() = 0, F(b) F(0) = F(0)
F(b+), para todo 0 < b < y
(7.2.1) (h) =
_

e
ih
dF()
para todo h = 0, 1, 2, . . ..
Como consecuencia de este teorema, una funcion (h) sobre ente-
ros es una funcion de autocovarianza si se puede escribir en la forma
(11.0.1). La funcion F se llama funcion de distribucion espectral del
proceso estacionario, y si
F() =
_

f(x)dx,
, entonces f se llama densidad espectral del proceso. En
este caso, la ecuacion (11.0.1) se transforma en
(h) =
_

e
ih
f()d.
2. REPRESENTACI

ON ESPECTRAL 83
La funcion F esta inequivocamente determinado por las condiciones
anteriores y se considera la medida no negativa [, ], llamada medida
espectral, que le da masa cero a y que es simetrica en (, ). La
propiedad simetrica de la medida espectral implica que se puede escribir
(h) =
_

cos (h) dF().


En particular, la densidad espectral verica f() = f() y
(h) = 2
_

0
cos (h) f()d.
Considerar que (k) es absolutamente sumable, esto es,

k=0
[(k)[ < ,
entonces, existe una densidad espectral dada por
(7.2.2) f() =
1
2

k=
e
ik
(k).
De hecho, usando el teorema de Fubini, se obtiene
_

e
ih
f()d =
1
2
_

k=
e
i(kh)
(k)
_
d
=
1
2

k=
__

e
i(kh)
d
_
(k)
= (h),
ya que el unico sumando que no es nulo es aquel que cumple k = h.
Si (h) es una funcion simetrica tal que es absolutamente sumable,
una condicion suciente y necesaria para que sea una funcion de auto-
covarianza es que la funcion f denida en (11.0.2) sea no negativa. Por
ejemplo, si es la funcion del Ejemplo 5, entonces
f() =
1
2

k=
e
ik
(k) =
1
2
(1 + 2 cos )
y f() 0 para todo [, ] si y solo si [[ 1/2.
Ejemplo 6 Sean A
1
, . . . , A
n
, B
1
, . . . , B
n
v.a. centradas incorreladas.
Considerar
X
t
=
n

j=1
[A
j
cos(
j
t) +B
j
sin(
j
t)] ,
84 7. PROCESOS ESTACIONARIOS
con
j
(0, ). El proceso X
t
es estacionario con funcion de autocova-
rianza
(h) = E(X
t+h
X
t
) =
n

j=1
_
E(A
2
j
) +E(B
2
j
)

cos(
j
h).
Como consecuencia, la distribucion espectral es unafuncion a salto con
saltos
1
2
_
E(A
2
j
) +E(B
2
j
)

en los puntos
j
.
Ejemplo 7 Sea Z ruido blanco con media cero y varinza
2
. La den-
sidad espectral es constante e igual a

2
2
. De hecho, esto se obtiene
inmediatamente de (11.0.2).
Sea X = X
t
, t Z un proceso estacionario con funcion de distri-
bucion espectral F y media cero. Considerar la secuencia de coecien-
tes
j
, j Z tal que

j=
[
j
[ < .
Entonces, el proceso ltrado
Y
t
=

j=

j
X
tj
tiene unafuncion de distribucion espectral dada por
F
Y
() =
_

j=

j
e
ij

2
F
Y
().
En particular, si X tiene densidad espectral f
X
entonces Y tiene den-
sidad espectral dada por
f
Y
() = (e
i
)f
X
(),
donde (e
i
) =

j=

j
e
ij

2
. De hecho, a partir de (11.0.7) se
obtiene

Y
(h) =

j=

X
(h j +k)
=

j=

k
_

e
i(hj+k)
dF
X
()
=
_

e
ih

j=

j
e
ij

2
dF
X
().
3. FUNCI

ON DE AUTOCORRELACI

ON PARCIAL 85
Esto implica que X
t
tiene densidad espectral dada por
f
X
() =

j=

j
e
ij

2
2
.
Por otro lado, suponiendo que los polinomios (z) y (z) no tienen
solucion com un y que (z) no tiene solucion en el crculo unidad,
de(B)X
t
= (B)Z
t
se tiene

(e
i
)

2
f
X
() =

(e
i
)

2
f
Z
()
y de (e
i
) ,= 0 para todo [, ] se puede dividir por

(e
i
)

2
para obtener
f
X
() =

2
2

(e
i
)

2
[(e
i
)[
2
.
Ejemplo 8 La densidad espectral del proceso de medias moviles X
t
=
Z
t
+Z
t1
es
f
X
() =

2
2
[1 +e
i
[
2
=

2
2
(1 + 2 cos +
2
).
Ejemplo 9 La densidad espectral del proceso autoregresivo X
t

X
t1
= Z
t
es
f
X
() =

2
2
[1 e
i
[
2
=

2
2
(1 2cos +
2
)
1
.
3. Funci on de autocorrelaci on parcial
La funcion de autocorrelacion parcial de un proceso estacionario
X = X
t
, t Z viene denida por
(1) = Corr(X
2
, X
1
) = (1),
y
(k) = Corr(X
k+1
P
k
X
k+1
, X
1
P
k
X
1
),
para k 2, donde P
k
denota el operador de proyeccion en elsubespacio
geerado por las variables aleatorias X
2
, . . . , X
k
.
La funcion de autocorrelacion parcial (k), k 2, es tal que la
correlacion entre dos residuos se obtiene despues de regresar X
k+1
y
X
1
en las observaciones intermedias X
2
, . . . , X
k
.
86 7. PROCESOS ESTACIONARIOS
Ejemplo 11 Sea un proceso autoregresivo causal dado por las ecua-
ciones
X
t

1
X
t1

p
X
tp
= Z
t
.
Se tiene para k > p,
P
k
X
k+1
=
p

j=1

j
X
k+1j
.
De hecho, a partir X
2
, . . . , X
k
) Z
j
, j k), la diferencia
X
k+1

j=1

j
X
k+1j
= Z
k+1
es ortogonal a X
2
, . . . , X
k
). Como consecuencia, se concluye que, para
k > p,
(k) = Corr(X
k+1

j=1

j
X
k+1j
, X
1
P
k
X
1
)
= Corr(Z
k+1
, X
1
P
k
X
1
) = 0.
Ejemplo 12 Sea el proceso de medias moviles
X
t
= Z
t
+Z
t1
,
donde Z
t
es ruido blanco con varianza
2
y [[ < 1. Primero, se tiene
(1) = (1) =

1 +
2
.
De forma sencilla se obtiene
P
2
X
3
=

1 +
2
X
2
= P
2
X
1
.
Entonces,
(2) = Corr(X
3


1 +
2
X
2
, X
1


1 +
2
X
2
)
=

2
1 +
2
+
4
.
Unas operaciones mas complicadas permiten obtener (k) =
()
k
(1
2
)
1
2(k+1)
.
Por lo tanto, al contrario que la funcion de autocorrelacion parcial
de un proceso AR(p), la funcion de un proceso MA(q) no desaparece
para retardos largos. De hecho, su valor absoluto esta acotado por una
funcion geometrica decreciente.
4. PROCESOS ESTRICTAMENTE ESTACIONARIOS 87
Sea X
t
un proceso estacionario de media cero y funcion de auto-
covarianza (h) tal que (h) 0 a medida que htiende a innito. Esto
implica que las matrices Toeplitz

k
=
_
_
_
_
_
_
1 (1) (2) (k 1)
(1) 1 (1) (k 2)
(2) (1) 1 (k 3)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
(k 1) (k 2) (k 3) 1
_
_
_
_
_
_
son invertibles para todo k 1.
Llamemos
kj
, j = 1, . . . , k, k = 1, 2, . . . a los coecientes de la
representacion
P
k
X
k+1
=
k

j=1

kj
X
k+1j
.
Entonces, a partir de las ecuaciones
_
X
k+1

j=1

kj
X
k+1j
, X
j
_
= 0
para j = k, k 1, . . . , 1 se obtiene
(7.3.1)
k
_
_
_
_

k1

k2
.
.
.

kk
_
_
_
_
=
_
_
_
_
(1)
(2)
.
.
.
(k)
_
_
_
_
,
y para todo k 1, se tiene
(k) =
kk
4. Procesos estrictamente estacionarios
Un proceso estocastico X = X
t
, t T diremos que es estricta-
mente estacionario si sus distribuciones nito dimensionales son inva-
riantes por traslacion, es decir, si
F
t
1
,...tn
(x
1
, x
2
, . . . , x
n
) = F
t
1
+h,...,tn+h
(x
1
, x
2
, . . . , x
n
)
para cualesquiera t
1
, . . . , t
n
, t
1
+h, . . . , t
n
+h T .
Observemos que un proceso formado por variables aleatorias inde-
pendientes e identicamente distribuidas es estrictamente estacionario.
Tambien un proceso gaussiano y estacionario es estrictamente estacio-
nario.
Veamos algunos ejemplos de procesos estrictamente estacionarios.
88 7. PROCESOS ESTACIONARIOS
Ejemplo 7.5. Consideremos el proceso
X
t
= Acos( +t),
t R, donde A y son variables aleatorias reales cualesquiera, mientas
que es independiente del par (A, ) y tiene distribucion uniforme
en el intervalo [0, 2]. Este proceso es estrictamente estacionario. En
efecto,
X
t+h
= Acos( +(t +h))
= A[cos( +h) cos t sin( +h) sin t] ,
y, condicionando a , se puede comprobar facilmente que las variables
cos(+h) y sin(+h) tienen la misma ley que cos y sin , respec-
tivamente. De la misma forma veramos que las distribuciones nito
dimensionales son invariantes por traslacion.
Ejemplo 7.6. Consideremos una funcion medible g : R
N+1
R y
denimos
X
n
= g(
n
,
n+1
, . . . ,
n+N
),
n Z, donde las
n
son variables aleatorias independientes e identi-
camente distribuidas. El proceso X
n
, n Z es estrictamente estacio-
nario. Si la funcion g es lineal, entonces X
n
es un proceso de medias
moviles del tipo estudiado antes.
Ejemplo 7.7. Consideremos una cadena de Markov X
n
, n Z
con matriz de transicion P y distribucion inicial p(0). Si la distribucion
inicial es invariante, entonces la cadena es un proceso estrictamente
estacionario. En fecto,
P(X
h
= i
0
, X
1+h
= i
1
, . . . , X
n+h
= i
n
) = p
i
0
(0)p
i
0
i
1
p
i
n1
in
= P(X
0
= i
0
, X
1
= i
1
, . . . , X
n
= i
n
).
4.1. Ergodicidad de un proceso estrictamente estaciona-
rio. Ilustramos primero la condicion de ergodicidad considerando dos
casos extremos de procesos estrictamente estacionarios.
1): Consideremos una variable aleatoria X con media cero y va-
rianza unitaria. Denimos el proceso X = X
t
, t = 0, 1, . . .
una sucesion estacionaria dada por X
n
= X, para todo n. La
media muestral en este caso es
1
n
n

i=1
X
i
X.
2): Sea Z
n
: n 0 una sucesion de variables aleatorias inde-
pendientes, todas con la misma distribucion que X. La media
4. PROCESOS ESTRICTAMENTE ESTACIONARIOS 89
muestral es en este caso una variable aleatoria que, por la ley
fuerte de grandes n umeros es igual a la media:
Z =
1
n
n

i=1
Z
i

c.s.
E(X).
Es decir, en ambos casos la media muestral converge casi segura-
mente. En el primer caso a una variable aleatoria y en el segundo a
una constante, que es la media com un a las variables que forman el
proceso.
El siguiente resultado es el teorema de ergodicidad para procesos
estrictamente estacionarios, que se puede considerar como una genera-
lizacion de la ley fuerte de los grandes n` umeros.
Teorema 7.2 (Teorema de ergodicidad). Sea X
n
, n 0 un pro-
ceso estrictamente estacionario, tal que E[X
1
[ < . Existe una variable
aleatoria Y con la misma media que X
n
tal que
1
n
n

j=1
X
j

c.s.
Y.
Definici on 7.2. Decimos que el proceso estrictamente estaciona-
rio X
n
, n 0 es ergodico, si la media muestral
1
n
n

i=1
X
i
.
converge hacia E(X
n
) con probabilidad uno.
De esta denicion obtenemos que la sucesion denida en 1) no es
ergodica y que s lo es la denida en 2).
Ejercicios
1. Cuales de las siguientes funciones denidas sobre n umeros en-
teros es funcion de autocovarianza de un proceso estacionario?
2. Determinar cuales de los procesos siguientes son causal pro-
cess y/o invertibles y encontrar una representacion invertible
90 7. PROCESOS ESTACIONARIOS
y causal:
X
t
+ 0,2X
t1
0,48X
t2
= Z
t
.
X
t
+ 1,9X
t1
+ 0,88X
t2
= Z
t
+ 0,2Z
t1
+ 0,7Z
t2
.
X
t
+ 0,6X
t2
= Z
t
+ 1,2Z
t1
.
X
t
+ 1,8X
t1
+ 0,81X
t2
= Z
t
.
X
t
+ 1,6X
t1
= Z
t
0,4Z
t1
+ 0,04Z
t2
.
3. Sea X
t
el proceso
X
t
= Acos
t
3
+Bsin
t
3
+Y
t
.
donde Y
t
= Z
t
+ 2,5Z
t1
, Z
t
es ruido blanco con varianza

2
, y A y B son v.a. incorreladas (0,
2
) que tambien son in-
correladas con Z
t
. Encontrar la funcion de autocovarianza y
la funcion de distribucion espectral de X
t
.
4. Calcular la funcion de autocovarianza de un proceso cuya den-
sidad espectral es
f() = ( [[)/
2
.
4. PROCESOS ESTRICTAMENTE ESTACIONARIOS 91
4.2. Procesos arm onicos o deterministas. Sea el proceso ge-
nerado de la forma
X
t
= a cos t +b sin t.
donde a y b son v.a. independientes, de media cero y varianza
2
com un. Se cumple,
X
t+2
= a cos (t + 2) +b sin (t + 2) = a cos t +b sin t = X
t
.
Veamos que este proceso es estacionario.
E(X
t
) = 0,

2
t
=
2
(cos
2
t + sin
2
t) =
2
.
Como tenemos que
X
t+1
= a cos (t + 1) +b sin (t + 1) = a cos t b sin t,
resulta la relacion X
t+1
= X
t
. Por tanto, la estructura de la covarianza
es, para = 0, 1, 2, . . .
C(t + 2, t) = (2) =
2
,
C(t + 2 + 1, t) = (2 + 1) =
2
.
que no depende de t. El proceso es entonces estacionario en covarianzas.
En general consideremos procesos generados de la forma
X
t
=
m

j=1
z
t
j
,
donde
z
t
j
= c
j
e
i
j
t
.
con
j
jo y c
j
= (a
j
+ib
j
)/2, donde
E(a
j
) = E(b
j
) = 0, E(a
2
j
) = E(b
2
j
) = 1, E(a
j
b
j
) = 0,
E(a
j
a
j
) = 0 = E(b
j
b
j
) = E(a
j
b
j
), para j ,= j

Estos procesos se pueden escribir de la forma


X
t
+c
1
X
t1
+c
2
X
t2
+. . . +c
k
X
tk
= 0.
donde las races del polinomio
k
+c
1

k1
+. . .+c
k
tienen todas modulo
1. En general, estos procesos no son ergodicos (puede serlo en algunos
casos).
92 7. PROCESOS ESTACIONARIOS
4.3. Teorema de descomposici on de Wold. Cualquier proce-
so estacionario en sentido amplio se puede descomponer en la suma de
dos procesos incorrelacionados, uno de ellos armonico y otro de sumas
moviles (autorregresivo, de medias moviles o combinacion de ambos).
Es decir, si Z
t
es un proceso cualquiera de media nula, estacionario en
sentido amplio, se puede escribir:
Z
t
= X
t
+Y
t
.
donde X
t
(componente no determinista) es de la forma
X
t
+a
1
X
t1
+. . . +a
p
X
tp
= u
t
+b
1
u
t1
+. . . b
q
u
tq
.
y Y
t
es armonico (componente determinista) de la forma
Y
t
+c
1
Y
t1
+. . . +c
k
Y
tk
= 0.
Si el proceso no es de media nula, e incorporamos la media a la
componente autorregresiva tenemos que
E(X
t
) +a
1
E(X
t1
) +. . . +a
p
E(X
tp
), = c y entonces
E(X
t
) =
c
1 a
1
. . . a
p
.
Ejercicio 1: Estudia los siguientes procesos, justicando si son o
no estacionarios y obteniendo, en el caso de los estacionarios, la media,
la varianza, la funcion de autocovarianzas y la de autocorrelacion.
Los errores son siempre i.i.d. de media cero, varianza unitaria e
independientes del pasado de X
t
.
1. X
t
= 0,9X
t12
+u
t
2. X
t
= 0,6X
t3
0,3X
t5
+u
t
3. X
t
= u
t
+ 0,7u
t2
CAPTULO 8
Procesos de Poisson
1. Procesos con saltos
1.1. Procesos de Poisson. Una variable aleatoria T :
(0, ) tiene distribucion exponencial de parametro > 0 si
P(T > t) = e
t
para todo t 0. Entonces T tiene funcion de densidad
f
T
(t) = e
t
1
(0,)
(t).
La media de T viene dada por E(T) =
1

, y su varianza es Var(T) =
1

2
.
La distribucion exponencial juega un papel fundamental en los procesos
de Markov en tiempo continuo debido al siguiente resultado.
Proposici on 8.1 (Memoryless property). Una variable aleato-
ria T : (0, ) tiene distribucion exponencial si y solo si tiene la
siguiente memoryless property
P(T > s +t[T > s) = P(T > t)
para todo s, t 0.
Demostraci on. Suponer inicialmente que T tiene distribucion ex-
ponencial de parametro > 0. Entonces
P(T > s +t[T > s) =
P(T > s +t)
P(T > s)
=
e
(s+t)
e
s
= e
t
= P(T > t).
La implicacion contraria se deduce del hecho de que la funcion g(t) =
P(T > t) satisface
g(s +t) = g(s)g(t),
para todo s, t 0 y g(0) = 1.
Un proceso estocastico N
t
, t 0 denido en el espacio de proba-
bilidad (, T, P) se dice que es un proceso de Poisson de razon si
verica las siguientes propiedades:
93
94 8. PROCESOS DE POISSON
i): N
t
= 0,
ii): Para cualquier n 1 y para cualquier 0 t
1
< < t
n
los
incrementos N
tn
N
t
n1
, . . . , N
t
2
N
t
1
, son v.a. independientes,
iii): Para cualquier 0 s < t, el incremento N
t
N
s
tiene
distribucion de Poisson con parametro (t s), es decir,
P(N
t
N
s
= k) = e
(ts)
[(t s)]
k
k!
,
k = 0, 1, 2, . . ., donde > 0 es una constante jada.
Observar que las condiciones i) y iii) caracterizan las distribuciones
marginales de dimension nita del proceso N
t
, t 0. La condicion
ii) signica que el proceso de Poisson tiene incrementos estacionarios e
independientes.
Un proceso de Poisson se puede construir de forma exacta de la
siguiente manera. Consideremos una secuencia X
n
, n 1 de variables
aleatorias independientes con ley exponencial de parametro . Sea T
0
=
0 y para n 1, T
n
= X
1
+ +X
n
. Observar que lm
n
T
n
= casi
seguramente, porque, por la ley fuerte de grandes n umeros
lm
n
T
n
n
=
1

.
Sea N
t
, t 0 el proceso de llegada asociado con el tiempo entre lle-
gadas interarrival times X
n
. Esto es,
(8.1.1) N
t
=

n=1
n1
{Tnt<T
n+1
}
.
Proposici on 8.2. El proceso estocastico N
t
, t 0 denido en
(13.0.20) es un proceso de Poisson de parametro > 0.
Demostraci on. Claramente N
0
= 0. Veamos primero que N
t
tie-
ne distribucion de Poisson de parametro t. Tenemos
P(N
t
= n) = P(T
n
t < T
n+1
) = P(T
n
t < T
n
+X
n+1
)
=
_
{xt<x+y}
f
Tn
(x)e
y
dxdy
=
_
t
0
f
Tn
(x)e
(tx)
dx.
La variable aleatoria T
n
tiene distribucion gamma (n, ) con densidad
f
Tn
(x) =

n
(n 1)!
x
n1
e
x
1
(0,)
(x).
1. PROCESOS CON SALTOS 95
Entonces,
P(N
t
= n) = e
t
(t)
n
n!
.
Veamos ahora que N
t+s
N
s
es independiente de las variables aleatorias
N
r
, r s y que esta tiene distribucion de Poisson de parametro t.
Considerar el suceso
N
s
= k = T
k
s < T
k+1
,
donde 0 s < t y 0 k. En este suceso los tiempos entre llegadas del
proceso N
t
N
s
, t s son

X
1
= X
k+1
(s T
k
) = T
k+1
s
y

X
n
= X
k+n
para n 2. Entonces, condicionado a N
s
= k y a los valores de las
variables aleatorias X
1
, . . . , X
k
, debido a la memoryless property de
la ley exponencial y la independencia de X
n
, los tiempos entre llega-
das
_

X
n
, n 1
_
son independientes y con distribucion exponencial de
parametro . Entonces, N
t+s
N
s
, t 0 tiene la misma distribucion
que N
t
, t 0, y es independiente de N
r
, r s.
Observar que E(N
t
) = t. Entonces es el n umero esperado de
llegadas en el intervalo de longitud uno, o en otras palabras, es el
ratio de llegada. Por otro lado, el tiempo esperado hasta una nueva
llegada es
1

. Finalmente, Var(N
t
) = t.
Hemos visto que las trayectorias de un proceso de Poisson son dis-
continuas con saltos de tama no 1. Sin embargo, el proceso de Poisson
es continuo en media de orden 2:
E
_
(N
t
N
s
)
2

= (t s) + [(t s)]
2 st
0.
Observar que no se puede aplicar el criterio de continuidad de Kolmo-
gorov.
El proceso de Poisson de razon > 0 tambien se puede caracterizar
como un proceso que toma valores enteros, comenzando en el 0, con
caminos no decrecientes, de incrementos independientes, y tal que, dado
h 0, uniformemente en t,
P(X
t+h
X
t
= 0) = 1 h +o(h),
P(X
t+h
X
t
= 1) = h +o(h).
Ejemplo 1 Una pieza tiene vida aleatoria random lifetime con dis-
tribucion exponencial de parametro = 0,0002 (el tiempo se mide en
96 8. PROCESOS DE POISSON
horas). La vida esperada de una pieza es
1

= 5000 horas, y la varianza


es
1

2
= 2510
6
horas
2
. Cuando la pieza falla, se reemplaza inmediata-
mente por una pieza identica; etc. Si N
t
es el n umero de fallos en [0, t],
se puede concluir que el proceso de fallidos N
t
, t 0 es un proceso
de Poisson de razon > 0.
Considerar que el coste de reemplazamiento es euros, y considerar
que el el tipo de descuento del dinero es > 0. Por lo que, el valor
presente de todos los costes de reemplazamientos futuros es
C =

n=1
e
Tn
.
Su valor esperado sera
E(C) =

n=1
E(e
Tn
) =

.
Para = 800, = 0,24/(365 24) se obtiene E(C) = 5840 euros.
El siguiente resultado presenta una relacion interesante entre el pro-
ceso de Poisson y la distribucion uniforme. Este resultado dice que los
saltos de un proceso de Poisson estan distribuidos tan aleatoriamente
como sea posible.
Proposici on 8.3. Sea N
t
, t 0 un proceso de Poisson. Enton-
ces, condicionado a N
t
, t 0 teniendo exactamente n saltos en el
intervalo [s, s+t], los tiempos en los cuales se dan saltos se distribuyen
uniformemente e independientemente en [s, s +t].
Demostraci on. Veamos este resultado unicamente para el caso
n = 1. Por la estacionariedad de los incrementos, es suciente con
considerar el caso s = 0. Entonces, para 0 u t
P(T
1
u[N
t
= 1) =
P(T
1
u N
t
= 1)
P(N
t
= 1)
=
P(N
u
= 1 N
t
N
u
= 0)
P(N
t
= 1)
=
ue
u
e
(tu)
te
t
=
u
t
.

1. PROCESOS CON SALTOS 97


1.2. Superposici on de los procesos de Poisson. Sean L =
L
t
, t 0 y M = M
t
, t 0 dos procesos de Poisson independientes
de razon y , respectivamente. El proceso N
t
= L
t
+ M
t
se llama
superposicion de los procesos Ly M.
Proposici on 8.4. N = N
t
, t 0 es un proceso de Poisson de
razon +.
Demostraci on. Claramente, el proceso N es de incrementos in-
dependientes yN
0
= 0. Entonces, es suciente con demostrar que para
cada 0 s < t, la variable aleatoria N
t
N
s
tiene distribucion de
Poisson de parametro ( +)(t s):
P(N
t
N
s
= n) =
n

k=0
P(L
t
L
s
= k, M
t
M
s
= n k)
=
n

k=0
e
(ts)
[(t s)]
k
k!
e
(ts)
[(t s)]
nk
(n k)!
=
e
(+)(ts)
[( +)(t s)]
n
n!
.

A este respecto los procesos de Poisson son unicos.


1.3. Descomposici on del proceso de Poisson. Sea N = N
t
, t
0 un proceso de Poisson de razon . Sea Y
n
, n 1 una secuencia de
variables aleatorias Bernoulli de parametro p (0, 1), independientes
de N. Es decir,
P(Y
n
= 1) = p
P(Y
n
= 0) = 1 p.
Sea S
n
= Y
1
+ + Y
n
. Se toma S
n
como el n umero de exitos en los
primeros n intentos, y se considera que el n-esimo intento se realiza
en el instante T
n
de la n-esima llegada. En este sentido, el n umero de
exitos obtenidos durante el intervalo temporal [0, t] es
M
t
= S
Nt
,
y el n umero de fallos es
L
t
= N
t
S
Nt
.
Proposici on 8.5. Los procesos L = L
t
, t 0 y M = M
t
, t
0 son procesos de Poisson independientes de razon p y (1 p),
respectivamente.
98 8. PROCESOS DE POISSON
Demostraci on. Es suciente demostrar que, para cada 0 s < t,
el suceso
A = M
t
M
s
= m, L
t
L
s
= k
es independiente de las variables aleatorias M
u
, L
u
; u s y que tiene
probabilidad
P(A) =
e
p(ts)
[p(t s)]
m
m!
e
(1p)(ts)
[(1 p)(t s)]
k
k!
.
Se tiene
A = N
t
N
s
= m +k, S
Nt
S
Ns
= m .
La -algebra generada por las variables aleatorias M
u
, L
u
; u s es
la misma que la -algebra H generada por N
u
, u s; Y
1
, . . . , Y
Ns
.
Claramente, el suceso A es independiente de H. Finalmente, se tiene
P(A) =

n=0
P(A N
s
= n)
=

n=0
P(N
s
= n, N
t
N
s
= m +k, S
m+k+n
S
n
= m)
=

n=0
P(N
s
= n, N
t
N
s
= m +k)P(S
m+k+n
S
n
= m)
= P(N
t
N
s
= m +k)P(S
m+k
= m)
=
e
(ts)
[(t s)]
m+k
(m +k)!
(m +k)!
m!k!
p
m
(1 p)
k
.

1.4. Proceso de Poisson compuesto. Sea N = N


t
, t 0 un
proceso de Poisson de razon . Considerar la secuencia Y
n
, n 1 de
variables aleatorias independientes e identicamente distribuidas, que
tambien son independientes del proceso N. Sea S
n
= Y
1
+ + Y
n
.
Entonces, el proceso
Z
t
= Y
1
+ +Y
Nt
= S
Nt
,
con Z
t
= 0 if N
t
= 0, se denomina Proceso de Poisson compuesto.
Ejemplo 2 Si N
t
modeliza el n umero de clientes que han llegado a una
tienda en el instante t. La cantidad de dinero gastada por el n-esimo
cliente es una variable aleatoria Y
n
independiente de todas las llegadas
(incluida la propia llegada) y de las cantidades de dinero gastadas por
otros clientes. La cantidad total de dinero gastada por los n primeros
clientes es S
n
= Y
1
+ +Y
n
if n 1, y se tiene que Y
0
= 0. Dado que
1. PROCESOS CON SALTOS 99
le n umero de clientes que llegan en el intervalo temporal (0, t] es N
t
, la
cantidad total de dinero gastada por los clientes que han llegado en el
intervalo (0, t] se representa por Z
t
= S
Nt
.
Proposici on 8.6. El proceso de Poisson compuesto tiene incre-
mentos independientes, Z
0
= 0, y la ley de un incremento Z
t
Z
s
tiene
una funcion caracterstica dada por
e
(
Y
1
(x)1)(ts)
,
donde
Y
1
(x) es la funcion caracterstica de Y
1
.
Demostraci on. Fijemos 0 s < t. La -algebra generada por
las variables aleatorias Z
u
, u s esta incluida en la -algebra H ge-
nerada por N
u
, u s; Y
1
, . . . , Y
Ns
. Por consiguiente, el incremento
Z
t
Z
s
= S
Nt
S
Ns
es independiente de la -algebra generada por las
variables Z
u
, u s. La funcion caracterstica de este incremento sera
E(e
ix(ZtZs)
) =

m,k=0
E(e
ix(ZtZs)
1
{Ns=m,NtNs=k}
)
=

m,k=0
E(e
ix(S
m+k
Sm)
1
{Ns=m,NtNs=k}
)
=

m,k=0
E(e
ixS
k
)P(N
s
= m, N
t
N
s
= k)
=

k=0
_
E(e
ixY
1
)

k e
(ts)
[(t s)]
k
k!
= exp [(
Y
1
(x) 1) (t s)] .

Si E(Y
1
) = , entonces E(Z
t
) = t.
1.5. Proceso de Poisson no estacionario. Un proceso de Pois-
son no estacionario es un proceso estocastico N
t
, t 0 denido en el
espacio de probabilidad (, T, P) que cumple las siguientes propieda-
des:
i): N
t
= 0,
ii): Para cualquier n 1 y para cualquier 0 t
1
< < t
n
los
incrementos N
tn
N
t
n1
, . . . , N
t
2
N
t
1
, son variables aleatorias
independientes,
100 8. PROCESOS DE POISSON
iii): Para cualquier 0 t, la variable N
t
tiene distribucion de
poisson de parametro a(t), donde a es una funcion no decre-
ciente.
Suponer que a es continuo, y denir la inversa temporal of a por
(t) =nfs : a(s) > t,
t 0. Entonces es tambien una funcion no decreciente, y el proceso
M
t
= N
(t)
es un proceso de Poisson estacionario de razon 1.
Ejemplo 3 Los tiempos en los que las demandas sucesivas
ocurren para un artculo fad costoso son un proceso de Poisson
no estacionario N siendo el ratio de llegada en el instante t
(t) = 5625te
3t
,
para t 0. Es decir
a(t) =
_
t
0
(s)ds = 625(1 e
3t
3te
3t
).
La demanda total N

de este artculo en el intervalo [0, ) tiene dis-


tribucion de Poisson de parametro 625. Si, basandose en este analisis,
la empresa factura 700 artculos, la probabilidad de que escasez es
P(N

> 700) =

k=701
e
625
(625)
k
k!
.
Usando la aproximacion a la distribucion normal , se tiene
P(N

> 700) = P(
N

625

625
> 3)
_

3
1

2
e
x
2
/2
dx = 0,0013.
El instante en que se vende el ultimo artculo es T
700
. dado que T
700
t
si y solo si N
t
700, su distribucion es
P(T
700
t) = P(N
t
700) = 1
699

k=0
e
625
a(t)
k
k!
.
Ejercicios
2.1: Sea N
t
, t 0 un proceso de Poisson de razon = 15.
Calcular
a): P(N
6
= 9),
b): P(N
6
= 9, N
20
= 13, N
56
= 27)
c): P(N
20
= 13[N
9
= 6)
d): P(N
9
= 6[N
20
= 13)
1. PROCESOS CON SALTOS 101
2.2: La llegada de clientes a una tienda se modeliza como un
proceso de Poisson N de razon = 20 por hora. Encontrar el
n umero de ventas hechas durante un da de trabajo de 8 horas
si la probabilidad de que los clientes compren algo es de 0,30.
2.3: Una tienda tiene 3 puertas. Las llegadas de clientes a cada
puerta se modelizan con un proceso de Poisson de razon
1
=
110,
2
= 90,
3
= 160 por hora, respectivamente. El 30 %
de los clientes son varones. La probabilidad de que un cliente
varon compre algo es 0,80, y la probabilidad de que un cliente
femenino compre algo es 0,10. La compra media es de 4,50
euros.
a): Cual es el valor medio de ventas totales que se hace en
un da de 10 horas?
b): Cual es la probabilidad de que el tercer cliente feme-
nino que compre algo llegue durante los primeros 15 mi-
nutos? Cual es el momento esperado de su llegada?
El proceso de Poisson N
t
, t T es un proceso estocastico formado
por v.a. discretas con valores en Z
+
caracterizado por las condiciones
1. N
0
= 0
2. Para 0 s < t < u < v, los incrementos N
v
N
u
, ..., N
t
N
s
son variables independientes
3. Si s < t, el incremento N
t
N
s
sigue una distribucion de
Poisson de parametro (t s) ; es decir,
P(N
t
N
s
= k) = e
(ts)
[(t s)]
k
k!
para k = 0, 1, 2, ...
Nota: Un proceso de Poisson es un proceso de trayectorias con
saltos (no continuas), que sin embargo es continuo en media de orden
2.
E
_
(N
t
N
s
)
2

= V[(N
t
N
s
)] + (E[N
t
N
s
])
2
= (t s) + [(t s)]
2

st
0
1.6. Construcci on de un proceso de Poisson. Consideremos
el proceso Y
n
, n = 1, 2, ... formado por v.a. independientes y con ley
exponencial de parametro ; es decir,
P(Y
n
t) = e
t
Con T
0
= 0 y
T
n
= Y
1
+... +Y
n
102 8. PROCESOS DE POISSON
para n 1, el proceso determinado por
N
t
= n si T
n
t < T
n+1
es un proceso de Poisson de parametro . Es decir, un proceso de
Poisson as denido tiene saltos de amplitud 1 y los tiempos entre cada
par de saltos son v.a. independientes con ley exponencial de parametro
. Para las v.a. N
t
se tiene que
P(N
t
= j) =
(t)
j
j!
e
t
Es decir, la distribucion de N
t
es Poisson de parametro t.
Veamos que en efecto, si N
t
es Poisson de parametro t, con incre-
mentos independientes, las v.a. Y
n
son exponenciales,
Y
n
= T
n
T
n1
P(Y
1
> t) = P(N
t
= 0) = e
t
Tenemos que Y
1
sigue una ley exponencial de parametro . Para Y
2
P(Y
2
> t[Y
1
= t
1
) = P(no haya salto en (t
1
, t
1
+t][Y
1
= t
1
)
Como se trata de un proceso de incrementos independientes, el su-
ceso P(no haya salto en (t
1
, t] es independiente del suceso Y
1
= t
1
.
Por tanto,
P(Y
2
> t[Y
1
= t
1
) = P(no haya salto en (t
1
, t
1
+t]) = P(N
t
= 0) = e
t
Ejemplo gura
CAPTULO 9
Martingalas
Aqu resulta fundamental entender el concepto de esperanza con-
dicionada a una algebra.
Consideremos un espacio de probabilidad (, T, P) y una alge-
bra o T. Sea X una v.a. denida en el espacio de probabilidad
(, T, P). Se denomina esperanza condicionada de X respecto de o
a la variable aleatoria o-medible Z que cumple
E(Z1
A
) = E(X1
A
), para todo A o
Se mantienen las propiedades de la esperanza condicionada vistas
para v.a. Ademas
Si X es o-medible
E(X[o) = X.
Si Z es una v.a. acotada y o-medible, entonces
E(ZX[o) = ZE(X[o).
Las v.a. o-medibles se comportan como constantes y se
pueden sacar fuera de la esperanza condicionada.
Si ( o,
E(E(X[o)[() = E(E(X[()[o) = E(X[().
Denici on de martingala: Sea (T
t
)
t0
una ltracion; es decir,
una familia creciente (en tiempo discreto o continuo) de algebras
contenidas en T.
El proceso (M
t
) es una martingala respecto a la ltracion si cumple
(i) (M
t
) es adaptable a la ltracion; es decir, cada M
t
es medible
respecto de T
t
,
(ii) E([M
t
[) < para todo t
(iii) E(M
t
[T
s
) = M
s
, si s t
(iii) Una supermartingala: si E(M
t
[T
s
) M
s
, si s t
(iii) Una submartingala: si E(M
t
[T
s
) M
s
, si s t
Ejemplo 1 Sea
n
, n 1 una sucesion de v.a. independientes de
media nula. Construimos de forma natural la ltracion denida por
T
n
= (
1
, . . . ,
n
), para n 1, y T
0
= , . El proceso denido por
103
104 9. MARTINGALAS
M
0
= 0; M
n
=
1
+. . . +
n
es una martingala respecto de la ltracion
T
n
= (
1
, . . . ,
n
).
Demostracion:
E(M
n+1
[T
n
) = E(M
n
+
n+1
[T
n
)
= M
n
+E(
n+1
[T
n
)
= M
n
+E(
n+1
)
= M
n
Ejemplo 2 Sea
n
, n 1 una sucesion de v.a. i.i.d. que toman los
valores 1 y 1 con probabilidad P(
n
= 1) = p, P(
n
= 1) = 1 p,
respectivamente y donde 0 < p < 1. El proceso denido por
M
0
= 1,
M
n
=
_
1 p
p
_

1
+...+n
.
es una martingala respecto de la ltracion denida de manera natural
T
n
= (
1
, . . . ,
n
) = (M
1
, . . . , M
n
).
Demostraci on:
E(M
n+1
[T
n
) = E
_
_
1 p
p
_

1
+...+n+
n+1
[T
n
_
=
_
1 p
p
_

1
+...+n
E
_
_
1 p
p
_

n+1
[T
n
_
= M
n
E
_
_
1 p
p
_

n+1
_
= M
n
.
Propiedades:
1.- Podemos tomar siempre la ltracion natural ya que, si un pro-
ceso M
t
es una martingala respecto de otra ltracion (
t
, que incluye
a la ltracion natural; es decir, T
t
(
t
, entonces M
t
es tambien una
martingala respecto de T
t
.
Demostraci on
Sea s t, usando la ley de esperanzas iteradas
E(M
t
[T
s
) = E(E(M
t
[(
s
) [T
s
) = E(M
s
[T
s
) = M
s
.
9. MARTINGALAS 105
2.- La condicion (iii) puede escribirse de la forma
E(M
t
M
s
[T
s
) = 0.
Es decir, la propiedad de martingala signica que la esperanza con-
dicionada de los incrementos es cero. Por ello, se utilizan martingalas
para modelizar los benecios obtenidos en un juego justo. Que el be-
necio esperado tenga valor nulo caracteriza el caracter equitativo del
juego. Sin embargo, el hecho de que al jugar se asuma un riesgo hace
que se asocie una prima por asumir este riesgo en el juego por lo que,
de forma general, la propiedad de martingala se asocia a los benecios
esperados bajo la medida riesgo neutral que veremos mas adelante.
3.- Si el intervalo de tiempo es nito, p ej. [0, T], tenemos que
E(M
T
[T
t
) = M
t
.
Es decir, podemos determinar la martingala a partir de la variable
terminal M
T
, tomando las esperanzas condicionadas.
4.- La esperanza incondicionada de M
t
es constante
E(M
t
) = E(E(M
t
[T
s
)) = E(M
s
)
= . . .
= E(M
0
) .
5.- En tiempo discreto, la condicion (iii) equivale a
E(M
n+1
[T
n
) = M
n
.
A partir de ah, tenemos que, para todo m > n,
E(M
m
[T
n
) = M
n
.
En efecto,
E(M
m
[T
n
) = E(E(M
m
[T
m1
) [T
n
)
= E(M
m1
[T
n
)
= . . .
= E(M
n+1
[T
n
) = M
n
.
0.7. Transformada de una martingala. Este es uno de los
conceptos cruciales en las aplicaciones en Finanzas. El concepto de
transformada modelizara el valor de una cartera formada por activos
donde las actualizaciones del n umero de activos se realizan de forma
discreta. El concepto en tiempo continuo nos llevara a la construccion
de la integral estocastica.
106 9. MARTINGALAS
Denici on: Consideremos una martingala M
n
, n 0 y la ltra-
cion natural T
n
. Decimos que el proceso H
n
, n 1 es previsible
si, para cada n 1, H
n
es T
n1
medible.
Denimos como transformada de la martingala M
n
, n 0
por H
n
, n 1 al proceso denido de la forma
(H M)
n
= M
0
+
n

j=1
H
j
M
j1
.
Es decir,
(H M)
0
= M
0
,
(H M)
1
= M
0
+H
1
(M
1
M
0
),
(H M)
2
= M
0
+H
1
(M
1
M
0
) +H
2
(M
2
M
1
),
.
.
.
(H M)
n
= M
0
+H
1
(M
1
M
0
) +... +H
n
(M
n
M
n1
).
Proposici on 9.1. La transformada de una martingala es tambien
una martingala
Demostraci on
Por construccion, (H M)
n
es una sucesion T
n
medible e integra-
ble, por lo que cumple las condiciones i) y ii). Veamos que se cumple
iii)
E
_
(H M)
n+1
(H M)
n
[T
n

= E[H
n+1
(M
n+1
M
n
)[T
n
]
= H
n+1
E[(M
n+1
M
n
)[T
n
]
= 0.
0.7.1. Aplicacion a carteras en mercados nancieros discretos
. Contexto sencillo: Un activo libre de riesgo y una accion.
Sea S
n
= (S
0
n
, S
1
n
)
n0
, el vector de precios donde S
0
n
= (1 + r)
n
es
el precio del activo libre de riesgo en el periodo n, y S
1
n
el precio de la
accion.
Estrategias
Una estrategia de inversion es una sucesion
(
0
n
,
1
n
)
n
, donde

1
n
representa el n umero de ttulos de la accion en el periodo n.

j
n
es T
n1
medible, (la cartera se decide con la informacion dispo-
nible en n 1).
9. MARTINGALAS 107
El valor de la cartera en n es
V
n
=
0
n
S
0
n
+
1
n
S
1
n
.
Y el valor descontado por el tipo de interes libre de riesgo es

V
n
=
0
n
+
1
n

S
1
n
.

S
1
n
= S
1
n
(1 +r)
n
valor de la accion descontado al momento inicial.
Una estrategia es autonanciada si

0
n+1
S
0
n
+
1
n+1
S
1
n
=
0
n
S
0
n
+
1
n
S
1
n
.
Es decir, que la ganancia neta de la cartera en n+1 se produce
por los cambios en precios, y no por reajustes en las posiciones;
o lo que es lo mismo, si los precios de los activos no varan, la
cartera mantiene su valor.
Si los precios de los activos descontados

S
1
n
constituyen una
martingala, el valor descontado de una cartera formada
por una estrategia autonanciada es la transformada
de la martingala

S
1
n
, y por tanto es tambien una martingala.
Demostracion:
Comprobamos que

V
n
= V
0
+

n
j=1

1
j
_

S
1
j


S
1
j1
_
V
0
+
n

j=1

1
j
_

S
1
j


S
1
j1
_
= V
0
+
1
1
_

S
1
1


S
1
0
_
+
1
2
_

S
1
2


S
1
1
_
+
. . . +
1
n
_

S
1
n


S
1
n1
_
=
0
0
+
1
0

S
1
0
+
1
1

S
1
1

1
1

S
1
0
+
1
2

S
1
2

1
2

S
1
1
+ +
1
n

S
1
n

1
n

S
1
n1
=
0
0
+
_

1
0

1
1
_

S
1
0
+
_

1
1

1
2
_

S
1
1
+
. . . +
_

1
n1

1
n
_

S
1
n1
+
1
n

S
1
n
(por ser autonanciada)
=
0
0
+
_

0
1

0
0
_
+
_

0
2

0
1
_
+. . . +
_

0
n

0
n1
_
+
1
n

S
1
n
=
0
n
+
1
n

S
1
n
=

V
n
.
Estrategias admisibles
Decimos que una estrategia es admisible si es autonanciada y
V
n
() 0 para todo n 0
Arbitraje
Una estrategia de arbitraje es una estrategia admisible con
valor inicial cero y valor nal no nulo.
108 9. MARTINGALAS
Si la igualdad no se diera, podramos encontrar una estrategia que
consista en comprar el lado mas peque no de la desigualdad y vender el
lado mayor.
Mercado viable
Aquel en el que no existen oportunidades de arbitraje.
Con estas deniciones hemos formalizado los conceptos denidos
al principio en un contexto dinamico, en el que, como se aprecia en
la denicion de estrategia de inversion, en cada periodo se permite
negociar la cartera para el siguiente.
0.8. Tiempos de parada (Stopping times). Se trata de un
concepto util en valoracion de opciones americanas.
Una variable aleatoria que toma valores en 0, 1, 2, . . . , , se
dice que es un tiempo de parada o stopping time con respecto a la
ltracion T, si = t T
t
, para todo t > 0.
Ejemplo 1. Considera una moneda equilibrada lanzada repetida-
mente. Sea la v.a. que denota la tirada en la que se obtiene cara
por primera vez. Sea X
t
la v.a. n umero de caras en las t tiradas.
Considerando la ltracion natural generada por (X
t
)
= t = X
t
= 1, X
t1
= 0, . . . , X
1
= 0 T
t
.
Claramente, el suceso la primera cara se obtiene en t es conocido
en la tirada t.
Consideremos otra v.a. : tirada en la que se obtiene la ultima
cruz antes de la primera cara. Claramente esta v.a. no es un tiempo de
parada
= t = X
t+1
= 1, X
t
= 0, . . . , X
1
= 0 / T
t
.
Ejemplo 2. Consideremos un proceso estocastico X
t

t0
con tra-
yectorias continuas, adaptado a la ltracion T
t

t0
. Denotemos por

a
al primer tiempo de paso (rst passage time) por un nivel predeter-
minado a R. Es decir,

a
:=nf t > 0 : X
t
= a .

a
es un tiempo de parada. Para comprobarlo, tenemos que ver que

a
t T
t
.
Si
a
t, quiere decir que alg un X
s
con s t han debido tomar el
valor a, y por tanto el valor mas alto que se ha tomado ha de ser a.
Podemos escribir
9. MARTINGALAS 109

a
t =
_
sup
0st
X
s
a
_
=
_
sup
0st;sQ
X
s
a
_
=
0st;sQ
X
s
a T
t
.
De forma general, el tiempo de llegada de un proceso continuo y
adaptado a un suceso de Borel es un tiempo de parada siempre que la
ltracion sea continua por la derecha; es decir, para todo t,

s>t
T
s
= T
t
.
Propiedades de los tiempos de parada
1. Las constantes son tiempos de parada
2. Si y son tiempos de parada, tambien lo son las variables
= max(, ) y = mn(, ).
t = t t T
t
.
t = t t T
t
.
3. Dado un tiempo de parada , podemos construir la algebra,
T

= A : A t T
t
, para todo t 0 .
Es decir, T
t
contiene todos los sucesos tales que su parte com un
con t pertenece a T
t
, para todo t. Podemos comprobar
que efectivamente T

es una algebra utilizando el hecho de


que
A
c
t = (A t
c
)
c
= (A > t)
c
( como A = (A t) (A > t))
= ((A t) > t)
c
T
t
.
4. Consideremos dos tiempos de parada tales que , se tiene
que T

. La prueba es sencilla, ya que t t


y
A t = (A t) t .
Por tanto, si un suceso A T

, entonces A T

.
5. Sea X
t

t0
un procesos con trayectorias continuas, adaptado
a la ltracion T
t
. Sea un tiempo de parada. Entonces, la
variable aleatoria denida X

denida de la forma
X

() = X
()
().
es T

medible.
110 9. MARTINGALAS
6. Optional sampling theorem
Si M
t

t[0,T]
es una martingala con trayectorias continuas
y un tiempo de parada acotado por T, se tiene que
E (M
T
[T

) = M

.
1. Paseo aleatorio
Considera el proceso (X
t
)
t=0,1,...
generado de la forma
X
t
= X
t1
+
t
.
donde X
0
= 0, y los errores
t
son independientes entre s e in-
dependientes de X
t1
= X
t1
, X
t2
, ... con distribucion com un
t

N(0,
2
).
Que tipo de proceso es?
Es un proceso en tiempo discreto, formado por v.a. continuas.
No es un proceso de variables independientes. X
t
depende de X
t1
.
La sucesion de medias es

0
= E(X
0
) = 0,
1
= E(X
1
) = 0 + 0 = 0, . . .

t
= E(X
t
) = 0 + 0 = 0, . . .
t
= 0 para todo t
La sucesion de varianzas

2
1
= 0 +
2
=
2
,

2
2
=
2
+
2
= 2
2
,
.
.
.

2
t
= t
2
,
.
.
.
Las covarianzas son de la forma
C(X
t+1
, X
t
) = C(X
t
, X
t
) +C(
t+1
, X
t
) = t
2
,
C(X
t+2
, X
t
) = C(X
t+1
, X
t
) +C(
t+2
, X
t
) = t
2
,
.
.
.
C(X
t+
, X
t
) = C(X
t+1
, X
t
) +C(
t+
, X
t
) = t
2
.
De forma general,
C(X
t
, X
s
) = mn(t, s)
2
,
(X
t
, X
s
) =
mn(t, s)

t s
.
1. PASEO ALEATORIO 111
X
1
N(0,
2
),
X
2
[X
1
N(0,
2
),
X
2
N(0, 2
2
),
.
.
.
X
t
[X
t1
X
t
[X
t1
N(0,
2
),
X
t
N(0, t
2
).
Es un proceso normal, de Markov, no estacionario.
Es un proceso de incrementos independientes. Si s < t < u < v,
X
t
X
s
=
s+1
+. . . +
t
,
X
v
X
u
=
u+1
+. . . +
v
.
y claramente los incrementos son variables independientes.
Consideremos la sucesion de algebras T
t
generadas por las v.a.
X
t
,
t
, X
t1
,
t1
, . . .. El proceso es una martingala respecto de esta
ltracion. X
t
es T
t
medible y,
E(X
t+1
[T
t
) = X
t
,
.
.
.
E(X
t+
[T
t
) = X
t
.
Este tipo de procesos es muy util en Finanzas. En el caso en que
los errores son independientes pero no estan identicamente distribuidos
X
t
= X
t1
+
t
.
se sigue manteniendo estructura de incrementos independientes, y
la estructura de varianzas y covarianzas es mas complicada.
1.1. Paseo aleatorio con deriva. Sea ahora el proceso
X
t
= +X
t1
+
t
.
con las mismas condiciones que antes.
En este caso, la sucesion de medias es

0
= 0,
1
= ,
2
= 2,

t
= t.
La sucesion de varianzas se mantiene, as como las covarianzas.
112 9. MARTINGALAS
Se trata de un proceso no estacionario, normal, de Markov y de
incrementos independientes. No se mantiene la propiedad de martingala
E(X
t+1
[T
t
) = +X
t
,= X
t
,
.
.
.
E(X
t+
[T
t
) = +X
t
,= X
t
.
Si relajamos la distribucion de los errores, de nuevo mantenemos la
estructura de incrementos independientes, y se complica la forma de
las varianzas y covarianzas.
La version en tiempo continuo de un paseo aleatorio es el movi-
miento browniano, que es esencial en la modelizacion de la dinamica
de activos nancieros. Un paseo aleatorio considera que los incrementos
se mueven alrededor de una media constante
X
t
= X
t+1
X
t
= +
t+1
.
Si consideramos los incrementos en terminos relativos, mas acorde si
pensamos en X
t
como precios y que en ese caso los incrementos relativos
son rendimientos.
X
t
X
t
=
X
t+1
X
t
X
t
= +
t+1
.
La version en tiempo continuo de este proceso es el movimiento
geometrico browniano.
CAPTULO 10
Movimiento browniano
El nombre de este proceso se debe al botanico ingles Robert Brown,
que observo por primera vez en este tipo de movimiento en las partcu-
las de polen al chocar con moleculas de lquido. En 1905, Louis Ba-
chelier utilizo en su tesis doctoral este movimiento para modelizar los
precios de los activos en un mercado nanciero. Sin embargo, no fue
hasta los a nos 20 hasta que este movimiento se caracterizo formalmen-
te con la teora de procesos estocasticos, labor que desarrollo Norbert
Wiener. Por ello, a este proceso se le denomina indistintamente movi-
miento browniano o proceso de Wiener.
Denici on.
Un proceso estocastico B
t
, t > 0 es un movimiento browniano si
se cumplen las condiciones:
i) B
0
= 0.
ii) Si s < t, el incremento B
t
B
s
sigue una ley normal N(0, t s).
iii) Fijados n instantes 0 t
1
< . . . < t
n
los incrementos
B
tn
B
t
n1
, . . . , B
t
2
B
t
1
.
son variables independientes
iv) Las trayectorias del proceso son continuas
Propiedades:
1) El movimiento browniano es un proceso gaussiano.
Para ver que es un proceso gaussiano, tenemos que comprobar que
todas las leyes nito-dimensionales son gaussianas. Para ello tomemos
un vector aleatorio cualquiera (B
t
1
, . . . , B
tn
) . La ley de este vector es
normal ya que dicho vector se puede reescribir como una transforma-
cion lineal
_
B
t
1
, B
t
2
B
t
1
, . . . , B
tn
B
t
n1
_
, que tiene ley normal al
tener las componentes normales e independientes. Por tanto, el vector
(B
t
1
, . . . , B
tn
) tiene ley normal.
2)
(t) = E(B
t
) = 0,
(t, s) = C(B
t
, B
s
) = mn(s, t).
113
114 10. MOVIMIENTO BROWNIANO
Demostracion
E(B
t
B
0
) = 0 =E(B
t
) = 0.
Para la covarianza tomemos, sin perdida de generalidad, s t
C(B
t
, B
s
) = E(B
t
B
s
) = E(B
s
(B
t
B
s
+B
s
))
= E(B
s
(B
t
B
s
)) +E
_
B
2
s
_
= s = mn(s, t).
0.1.1. Existencia del movimiento browniano. Tomemos un proce-
so B
t
, t > 0 , gaussiano de media cero y funcion de autocovarianza
(t, s) = mn(s, t). Primero, comprobemos que (t, s) = mn(s, t) es
una buena funcion de autocovarianza; es decir, que es una funcion se-
midenida positiva. Para ello, escribimos mn(s, t) de forma alternativa
como
mn(s, t) =
_

0
1
[0,s]
(r)1
[0,t]
(r)dr.
y por lo tanto
n

i,j=1
a
i
a
j
mn(t
i
, t
j
) =
n

i,j=1
a
i
a
j
_

0
1
[0,t
i
]
(r)1
[0,t
j
]
(r)dr
=
_

0
n

i,j=1
a
i
a
j
1
[0,t
i
]
(r)1
[0,t
j
]
(r)dr
=
_

0
_
n

i=1
a
i
1
[0,t
i
]
(r)
_
2
dr 0.
De la condicion de compatibilidad de Kolmogorov tenemos que exis-
te un proceso estocastico normal con esta funcion de autocovarianza.
Veamos que un proceso de este tipo cumple las condiciones del
movimiento browniano.
i)
E(B
2
t
) = mn(t, t) = t.
En particular E(B
2
0
) = 0, y por tanto B
0
= 0.
ii) Si s < t, el incremento B
t
B
s
es normal por ser combinacion
de normales y su varianza es
E
_
(B
t
B
s
)
2

= E(B
2
t
) +E(B
2
s
) 2E(B
t
B
s
)
= t +s 2s = t s.
10. MOVIMIENTO BROWNIANO 115
iii) Fijados n instantes 0 t
1
< . . . < t
n
se tiene que los incremen-
tos B
t
j
B
t
j1
, B
t
i
B
t
i1
, con i < j cumplen
E
__
B
t
j
B
t
j1
_ _
B
t
i
B
t
i1
_
= E
_
B
t
j
B
t
i

E
_
B
t
j
B
t
i1

E
_
B
t
j1
B
t
i

+E
_
B
t
j1
B
t
i1

= t
i
t
i1
t
i
+t
i1
= 0.
Los incrementos son incorrelacionados y, al tratarse de un proceso
normal, esto implica que son independientes.
iv) Usaremos el criterio de continuidad de Kolmogorov para asegu-
rar la existencia de una version del proceso con trayectorias continuas.
Al ser los incrementos variables normales, sabemos que
E
_
(B
t
B
s
)
2k

=
(2k)!
2
k
k!
(t s)
k
.
Tomando k = 2,
E
_
(B
t
B
s
)
4

= 3(t s)
2
.
Es decir, se cumple la condicion, = 2 > 1; p = 4 > 0, para la
existencia de una version continua del proceso.
0.2. Regularidad de las trayectorias. B
t
cumple la condi-
cion de continuidad y tenemos que las trayectorias son Holder continuas
de orden , para cualquier < 1/2. De forma intuitiva, esto signica
que
B
t
= B
t+t
B
t
(t)
1/2
.
En media cuadratica, el orden es exacto,
E
_
(B
t
)
2

= t.
0.2.1. Propiedad de autosimilaridad. Si B
t

t0
es un movimien-
to browniano, el proceso transformado de la forma
_
a
1/2
B
at
_
t0
es
tambien un movimiento browniano para todo valor a > 0.
Claramente el proceso es normal de media cero. Solo falta compro-
bar la estructura de autocovarianza. Sea s > t,
(s, t) = E
_
a
1/2
B
as
a
1/2
B
at

= a
1
mn(as, at) = mn(s, t).
116 10. MOVIMIENTO BROWNIANO
0.3. Variaci on cuadratica y variaci on total del movimien-
to browniano. Veamos que la variacion cuadratica del movimiento
browniano esta acotada, pero que no sucede as con la variacion total.
Consideremos un intervalo jo de tiempo [0,T]. Una subdivision
(tambien llamada particion) , es una sucesion de tiempos tal que
0 = t
0
< t
1
< . . . < t
n
= t.
La norma de la particion se dene como [[ = max
k
t
k
, donde
t
k
= t
k+1
t
k
. La variacion total de un proceso X
t
se dene como
V = sup

k=1
[X
k
[ ,
con X
k
= X
t
k+1
X
t
k
.
Veamos en primer lugar que el movimiento browniano

n
k=1
(B
k
)
2
converge a t en media cuadratica cuando [[ 0.
E
_
_
_
n1

k=0
(B
k
)
2
t
_
2
_
_
= E
_
_
_
n1

k=0
_
(B
k
)
2
t
k

_
2
_
_
por ser independientes y centradas
=
n1

k=0
E
_
_
(B
k
)
2
t
k

2
_
=
n1

k=0
_
3 (t
k
)
2
2 (t
k
)
2
+ (t
k
)
2

= 2
n1

k=0
(t
k
)
2
= 2
n1

k=0
t
k
t
k
2 [[
n1

k=0
t
k
= 2 [[ t
||0
0.
Por otra parte, si la variacion total fuera acotada, tendramos que
n1

k=0
(B
k
)
2
=
n1

k=0
[B
k
[ [B
k
[ sup
k
[B
k
[
_
n1

k=0
[B
k
[
_
V sup
k
[B
k
[
||0
0.
que contradice la convergencia a t en media cuadratica que acaba-
mos de demostrar.
10. MOVIMIENTO BROWNIANO 117
Veamos ahora algunos procesos derivados del movimiento brow-
niano.
1.- Puente browniano
X
t
= B
t
tB
1
, t [0, 1]
Es un proceso que parte siempre de X
0
= B
0
= 0, y termina siempre
en X
1
= B
1
B
1
= 0. Es un proceso normal, centrado y con funcion
de autocovarianzas
(s, t) = E[(B
t
tB
1
) (B
s
sB
1
)]
= mn(t, s) ts ts +ts
= mn(t, s) ts.
2.- Movimiento browniano con deriva
X
t
= B
t
+t, > 0; R.
Se trata de un proceso normal, con media y autocovarianza
(t) = t,
(t, s) =
2
mn(t, s).
3.- Movimiento geometrico browniano
Bachelier propuso un movimiento browniano para la modelizacion
de precios de activos nancieros. Esta modelizacion nos puede conducir
a precios negativos, lo que no parece muy sensato. Black, Scholes y
Merton pensaron que era mas sensata esta modelizacion para la variable
que representa el logaritmo de los precios, lo que les llevo a proponer
el movimiento geometrico browniano, denido por
X
t
= exp [B
t
+t] .
0.4. Martingalas relacionadas con el movimiento brow-
niano. Consideramos la ltracion natural T
t
, t 0 generada por el
movimiento browniano a la que se a naden todos los sucesos de pro-
babilidad nula. Incluir estos sucesos permite que toda version de un
proceso adaptado sea tambien adaptado y que la familia de alge-
bras sea continua por la derecha; es decir, para todo t 0,

s>t
T
s
= T
t
.
Ejemplos
B
t
. Sea s < t,
E(B
t
[T
s
) = E(B
t
B
s
+B
s
[T
s
) = 0 +B
s
= B
s
.
B
2
t
t. Sea s < t,
118 10. MOVIMIENTO BROWNIANO
E(B
2
t
[T
s
) = E((B
t
B
s
+B
s
)
2
[T
s
)
= E((B
t
B
s
)
2
[T
s
) +E(B
2
s
[T
s
) + 2E((B
t
B
s
) B
s
[T
s
)
= t s +B
2
s
.
= E(B
2
t
t[T
s
) = B
2
s
s.
exp
_
aB
t

a
2
t
2
_
E
_
exp
_
aB
t

a
2
t
2
_
[T
s
_
= exp [aB
s
] E
_
exp
_
a(B
t
B
s
)
a
2
t
2
_
[T
s
_
= exp [aB
s
] E
_
exp
_
a(B
t
B
s
)
a
2
t
2
_
[T
s
_
_
_
_
_
exp
_
a(B
t
B
s
)
a
2
t
2
_
es una variable log-normal
de media exp
_
a
2
(ts)
2

a
2
t
2
_
_
_
_
_
= exp [aB
s
] exp
_

a
2
s
2
_
= exp
_
aB
s

a
2
s
2
_
.
0.4.1. Ley del tiempo de llegada del movimiento browniano a un
nivel prejado a > 0. Sea B
t

t0
un movimiento browniano con la
ltracion natural T
t
. Tomemos el tiempo de parada que nos propor-
ciona la primera vez que el proceso alcanza el valor a,

a
=nf t 0 : B
t
= a .
La variable
a
tiene esperanza innita.
E(
a
) = .
Demostraci on:
Sea M
t

t0
la martingala denida por
M
t
= exp
_
B
t


2
t
2
_
, > 0
Sabemos que E(M
t
) = E(M
0
) = 1. Por la propiedad 1 y 2 de tiempos
de parada tenemos que
a
N es un tiempo de parada para todo N 1.
De la propiedad 6 de tiempos de parada (optional sampling theo-
rem), tenemos que
E(M
aN
) = E(E(M
N
[T
aN
)) = E(M
N
) = 1.
10. MOVIMIENTO BROWNIANO 119
Por otra parte
M
aN
= exp
_
B
aN


2
(
a
N)
2
_
exp [B
aN
] exp [a] .
Trayectoria por trayectoria (para cada ) tenemos que si
a
< ,
existe n tal que N n
M
aN
exp
_
B
aN


2
N
2
_
,
lm
N
M
aN
= M
a
, si
a
<
lm
N
M
aN
= 0, si
a
=
Tenemos entonces que la sucesion M
aN
si
a
< , esta acotada
por una variable integrable y su valor esperado es siempre la unidad.
Utilizando el teorema de convergencia dominada tenemos que el valor
esperado de la variable lmite es tambien la unidad; es decir,
E
_
I
{a<}
M
a
_
= 1.
E
_
I
{a<}
exp
_

a
2
__
= e
a
.
Tomando lmites cuando 0,
E
_
I
{a<}
_
= P(
a
< ) = 1.
= E
_
exp
_

a
2
__
= e
a
.
Haciendo

2
2
= , obtenemos
g() = E(exp (
a
)) = exp
_
(2)
1/2
a
_
.
De aqu,
g

()[
=0
= E(
a
exp (
a
)) [
=0
= E(
a
)
=
a
(2)
1/2
exp
_
(2)
1/2
a
_
.
Tomando lmites cuando 0, tenemos que
E(
a
) = .
120 10. MOVIMIENTO BROWNIANO
0.4.2. Reection principle. Consideremos de nuevo

a
=nf t 0 : B
t
= a .
Tenemos que

a
T
_
= sup
0tT
B
t
a
_
=
P
a
T = P a .
Principio de reexion (reection principle):
P
a
T =
_
2
T
_
1/2
_

a
exp
_

u
2
2T
_
du.
Es decir
P
_
sup
0tT
B
t
a
_
=
_
2
T
_
1/2
_

a
exp
_

u
2
2T
_
du
P
_
sup
0tT
B
t
a
_
=
_
2
T
_
1/2
_
a
0
exp
_

u
2
2T
_
du.
0.4.3. Principio de invarianza de Donsker (Teorema funcional del
lmite). Sea X
1
, X
2
, ..., X
n
, ... una sucesion de variables aleatorias de
media nula y varianza unitaria. Para cada n, denimos la funcion S
n
(t),
para t [0, 1], como
S
n
(t) =
_
_
_
S
1
n
1/2
si 0 t
1
n
S
i
n
1/2
si
i1
n
< t
i
n
Sn
n
1/2
si
n1
n
< t 1
Sea F : R R una funcion continua casi seguramente; se tiene que
lm
n
PF(S
n
(t)) = PF(B
t
) .
Ejemplo 1: Teorema central del lmite
F (S
n
(t)) = S
n
(1).
lm
n
PS
n
(1) = P
_
S
n
n
1/2

_
= PB
1
= ().
Ejemplo 2:
F (S
n
(t)) = max
0t1
S
n
(t)
10. MOVIMIENTO BROWNIANO 121
lm
n
P
_
max
_
S
1
n
1/2
,
S
2
n
1/2
, ...,
S
n
n
1/2
_

_
= P max B
t

reection principle
=
_
2

_
1/2
_

0
exp
_

u
2
2
_
du.
0.4.4. Simulacion del movimiento browniano. 1.- Mediante pa-
seos aleatorios: Del principio de invarianza de Donsker obtenemos
que la distribucion del movimiento browniano se puede obtener como
el lmite de los paseos aleatorios, y por tanto, considerando la funcion
S
n
(t), denida en el apartado anterior, obtenemos que S
n
(t) converge
en ley al movimiento browniano. As, el graco de funciones S
n
(t), nos
sirve para obtener simulaciones de trayectorias del movimiento brow-
niano.
2.- Mediante series de Fourier: Tomemos una base ortonormal
en el espacio de Hilbert L
2
([0, T]). Sea Z
n
, n 0 una sucesion de
variables aleatorias iid N(0, 1). La serie aleatoria denida por

n=0
Z
n
_
t
0
e
n
(s)ds.
converge uniformemente (casi seguramente) en [0, T], a un movimiento
browniano en [0, T]. Es decir, cuando N ,
sup
0tT

n=0
Z
n
_
t
0
e
n
(s)ds B
t

a.s.
0.
Se puede comprobar facilmente que la convergencia se da tambien
en media cuadratica.
Una base es la formada por las funciones trigonometricas, para t
[0, 2],
e
0
(t) = (2)
1/2
,
e
n
(t) =
1/2
cos(nt/2), para n 1
Con esta base se obtiene la representacion de Paley-Wiener,
B
t
= Z
0
t
(2)
1/2
+
2

1/2

n=1
Z
n
sin(nt/2)
n
, t [0, 2].
122 10. MOVIMIENTO BROWNIANO
En la practica, para la simulaciones, tomamos un n umero grande
M de funciones trigonometricas y un n umero grande N de puntos de
discretizacion, de la forma
Z
0
t
j
(2)
1/2
+
2

1/2
M

n=1
Z
n
sin(nt
j
/2)
n
, t
j
=
2j
N
, j = 0, 1, . . . , N.
Parte 3
Calculo estocastico
CAPTULO 11
Integraci on estocastica
Supongamos que B
t
, t 0 es un movimiento browniano denido
en un espacio de probabilidad (, T, P). Consideremos la familia cre-
ciente T
t
, t 0 de -algebras generadas por este proceso. Es decir,
para cada instante t 0, T
t
es la mnima -algebra que contiene los
sucesos de la forma
a B
s
b N
donde s [0, t], a b, y N es un conjunto de probabilidad cero.
La -algebra T
0
solo contiene conjuntos de probabilidad cero o uno.
Esto implica que las variables aleatorias T
0
-medibles seran constantes,
casi seguramente.
La inclusion de los sucesos de probabilidad cero en cada -algebra
T
t
tiene las siguientes consecuencias interesantes:
a): Toda version de un proceso adaptado es tambien adaptado.
b): La familia de -algebras es continua por la derecha, es decir,
para todo t 0

s>t
T
s
= T
t
.
Nuestro objetivo es la denicion de integrales estocasticas de la
forma
_
T
0
u
t
dB
t
donde u
t
, 0 t T es un proceso estoc`astico como, por ejemplo,
u
t
= f(B
t
).
Si las trayectorias del proceso B
t
fuesen continuamente diferencia-
bles, esta integral seria simplemente
_
T
0
u
t
B

t
dt. Sin embargo sabemos
que las trayectorias del movimiento browniano aunque son continuas,
son muy irregulares, con modulo de continuidad de orden (t)
1
2

.
Ademas, las trayectorias del movimiento browniano tienen variacion
total innita y se sabe tambien que no son derivables en ning un punto.
Por lo tanto, no puede utilizarse la formula
_
T
0
u
t
B

t
dt como denicion
de la integral
_
T
0
u
t
dB
t
.
Observemos, si embargo, que si las trayectorias del proceso u son
continuamente diferenciables, entonces, la integral
_
T
0
u
t
dB
t
existe y
125
126 11. INTEGRACI

ON ESTOC

ASTICA
puede calcularse mediante una integracion por partes:
_
T
0
u
t
dB
t
= u
T
B
T

_
T
0
u

t
B
t
dt.
Seguidamente, presentaremos una construccion de la integral
_
T
0
u
t
dB
t
mediante un procedimiento global de tipo probabilstico, sin suponer
ninguna regularidad de las trayectorias del proceso u
t
. En primer lugar
deniremos la clase de procesos que integraremos. Fijamos un intervalo
de tiempo [0, T].
Designaremos por L
2
a,T
el conjunto de los procesos estocasticos
u = u
t
, t [0, T]
tales que:
a): El proceso u es adaptado (es decir u
t
es T
t
-medible para
cada t [0, T]), y medible (es decir, la aplicacion (s, )
u
s
() denida en [0, T] es medible respecto de la -algebra
producto B
[0,T]
T).
b): E
_
_
T
0
u
2
t
dt
_
< .
La condicion b) signica que el momento de segundo orden es in-
tegrable en [0, T], ya que, el teorema de Fubini y la medibilidad del
proceso u nos permite escribir
E
__
T
0
u
2
t
dt
_
=
_
T
0
E
_
u
2
t
_
dt.
La propiedad b) nos dice que el proceso u como funcion de las dos
variables (t, ) pertenece al espacio L
2
([0, T] ).
Deniremos la integral estocastica
_
T
0
u
t
dB
t
para procesos u de la
clase L
2
a,T
como el lmite en L
2
() de la integral de procesos elementales.
Por denicion un proceso u de L
2
a,T
es elemental si se puede expresar
de la forma
(11.0.1) u
t
=
n

j=1

j
1
(t
j1
,t
j
]
(t),
donde 0 = t
0
< t
1
< < t
n
= T y las
j
son variables aleatorias de
cuadrado integrable T
t
j1
-medibles.
Si u es un proceso elemental de la forma (11.0.1) se dene la integral
estocastica de u respecto del movimiento browniano B como
(11.0.2)
_
T
0
u
t
dB
t
=
n

j=1

j
_
B
t
j
B
t
j1
_
.
11. INTEGRACI

ON ESTOC

ASTICA 127
La integral estocastica denida en el espacio c de los procesos ele-
mentales tiene las siguientes propiedades:
(11.0.3)
E
_
_
T
0
u
t
dB
t
_
= 0
(11.0.4) E
_
_
_
T
0
u
t
dB
t
_
2
_
= E
_
_
T
0
u
2
t
dt
_
Demostraci on de (11.0.3): Pongamos B
j
= B
t
j
B
t
j1
. Entonces
E (
j
B
j
) = E (
j
) E ( B
j
) = 0,
ya que las variables aleatorias
j
y B
j
son independientes.
Demostraci on de (11.0.4):
E (
i

j
B
i
B
j
) =
_
0 si i ,= j
E
_

2
j
_
(t
j
t
j1
) si i = j
ya que si i < j las variables aleatorias
i

j
B
i
y B
j
son independientes
y si i = j las variables aleatorias
2
i
y (B
i
)
2
son independientes. Por lo
tanto se obtiene
E
__
T
0
u
t
dB
t
_
2
=
n

i,j=1
E (
i

j
B
i
B
j
) =
n

i=1
E
_

2
i
_
(t
i
t
i1
)
= E
__
T
0
u
2
t
dt
_
.

La extension de la integral estocastica a todos los procesos de la


clase L
2
a,T
se basa en el siguiente resultado de aproximacion:
Lema 1. Si u es un proceso de la clase L
2
a,T
existe una sucesion de
procesos elementales u
(n)
tales que
(11.0.5) lm
n
E
__
T
0

u
t
u
(n)
t

2
dt
_
= 0.
Demostraci on: La demostracion de este resultado la haremos en dos
etapas:
1. Supongamos que el proceso u es continuo en media cuadratica. En
tal caso, podemos tomar la sucesion aproximadora
u
(n)
t
=
n

j=1
u
t
j1
1
(t
j1
,t
j
]
(t),
128 11. INTEGRACI

ON ESTOC

ASTICA
siendo t
j
=
jT
n
. La continuidad en media cuadratica del proceso u
nos garantiza que
E
__
T
0

u
t
u
(n)
t

2
dt
_
=
_
T
0
E
_

u
t
u
(n)
t

2
_
dt
=
n

j=1
_
t
j
t
j1
E
_

u
t
u
t
j1

2
_
dt
T sup
|ts|T/n
E
_
[u
t
u
s
[
2
_
converge hacia cero cuando n tiende a innito.
2. Supongamos que u es un proceso arbitrario de la clase L
2
a,T
. En tal
caso, existe una sucesion de procesos v
(n)
, pertenecientes a la clase
L
2
a,T
, continuos en media cuadratica y tales que
(11.0.6) lm
n
E
__
T
0

u
t
v
(n)
t

2
dt
_
= 0.
En efecto, denimos
v
(n)
t
= n
_
t
t
1
n
u
s
ds = n
__
t
0
u
s
ds
_
t
0
u
s
1
n
ds
_
,
con la convencion u(s) = 0 si s < 0. Estos procesos son conti-
nuos en media cuadratica (tambien tienen trayectorias continuas),
y pertenecen a la clase L
2
a,T
, debido a la propiedad a). Ademas se
cumple (11.0.6) ya que para cada tenemos, debido a un
resultado de analisis matematico,
_
T
0

u(t, ) v
(n)
(t, )

2
dt
n
0
y podemos aplicar el teorema de convergencia dominada en el es-
pacio ya que
_
T
0

v
(n)
(t, )

2
dt = n
2
_
T
0
_
_
t
t
1
n
u
s
ds
_
2
dt
n
_
T
0
_
_
t
t
1
n
u
2
s
ds
_
dt
_
T
0
[u(t, )[
2
dt L
1
().

11. INTEGRACI

ON ESTOC

ASTICA 129
Definici on 11.1. Si u es un proceso de la clase L
2
a,T
, la integral
estocastica se dene como el lmite en L
2
()
(11.0.7)
_
T
0
u
t
dB
t
= lm
n
_
T
0
u
(n)
t
dB
t
,
donde u
(n)
es una sucesion de procesos elementales tales que cumplen
(11.0.5).
Que el lmite (11.0.7) existe es debido a que la sucesion de variables
aleatorias
_
T
0
u
(n)
t
dB
t
es de Cauchy en el espacio L
2
(), debido a la
propiedad de isometra (11.0.4):
E
_
__
T
0
u
(n)
t
dB
t

_
T
0
u
(m)
t
dB
t
_
2
_
= E
__
T
0
_
u
(n)
t
u
(m)
t
_
2
dt
_
2E
__
T
0
_
u
(n)
t
u
t
_
2
dt
_
+2E
__
T
0
_
u
t
u
(m)
t
_
2
dt
_
n,m
0.
Tambien puede demostrarse que el lmite (11.0.7) no depende de la
sucesion u
(n)
siempre que esta sucesion cumpla (11.0.5).
La integral estocastica tiene las siguientes propiedades importantes:
1.-: Isometra:
E
_
__
T
0
u
t
dB
t
_
2
_
= E
__
T
0
u
2
t
dt
_
.
2.-: Media cero:
E
___
T
0
u
t
dB
t
__
= 0.
3.-: Linealidad:
_
T
0
(au
t
+bv
t
) dB
t
= a
_
T
0
u
t
dB
t
+b
_
T
0
v
t
dB
t
.
4.-: Localidad: Se cumple
_
T
0
u
t
dB
t
= 0 casi seguramente, en el
conjunto G =
_
_
T
0
u
2
t
dt = 0
_
.
La propiedad de localidad es una consecuencia de que en el conjunto
G la sucesion aproximadora
u
(n,m,N)
t
=
n

j=1
m
_
_ (j1)T
n
(j1)T
n

1
m
u
s
ds
_
1
(
(j1)T
n
,
jT
n
]
(t)
130 11. INTEGRACI

ON ESTOC

ASTICA
se anula.
Como generalizacion de la propiedad de isometra, para cada par
de procesos u, v de la clase L
2
a,T
se cumple
E
___
T
0
u
t
dB
t
___
T
0
v
t
dB
t
__
= E
__
T
0
u
t
v
t
dt
_
.
Ejemplo
_
T
0
B
t
dB
t
=
1
2
B
2
T

1
2
T.
Como el proceso B
t
es continuo en media cuadratica podemos tomar
como sucesion aproximadora
u
(n)
t
=
n

j=1
B
t
j1
1
(t
j1
,t
j
]
(t),
donde t
j
=
jT
n
, y tendremos
_
T
0
B
t
dB
t
= lm
n
n

j=1
B
t
j1
_
B
t
j
B
t
j1
_
=
1
2
lm
n
n

j=1
_
B
2
t
j
B
2
t
j1
_

1
2
lm
n
n

j=1
_
B
t
j
B
t
j1
_
2
=
1
2
B
2
T

1
2
T. (11.0.8)
Si x
t
es una funcion derivable, las reglas del calculo diferencial e integral
nos dicen que
_
T
0
x
t
dx
t
=
_
T
0
x
t
x

t
dt =
1
2
_
x
2
T
x
2
0
_
.
Observemos que en el caso del movimiento browniano nos aparece un
termino adicional igual a
1
2
T.
Ejemplo Consideremos una funcion determinista g tal que
_
T
0
g(t)
2
dt <
. En este caso, la integral estocastica
_
T
0
g
t
dB
t
es una variable alea-
toria con ley normal
N(0,
_
T
0
g(t)
2
dt).
1. INTEGRALES ESTOC

ASTICAS INDEFINIDAS 131


Por ejemplo, la integral estocastica
_
T
0
tdB
t
es una variable aleatoria
con ley N(0,
T
3
3
).
1. Integrales estocasticas indenidas
Consideremos un proceso u de la clase L
2
a,T
. El proceso u1
[0,t]
tam-
bien pertenece a L
2
a,T
, y por lo tanto, podemos denir su integral:
_
t
0
u
s
dB
s
:=
_
T
0
u
s
1
[0,t]
(s)dB
s
.
De esta forma hemos construido un nuevo proceso estocastico
__
t
0
u
s
dB
s
, 0 t T
_
que es la integral indenida del proceso u respecto de B. En este apar-
tado estudiaremos las propiedades de las integrales indenidas. En pri-
mer lugar, debido a la linealidad de la integral estocastica, tenemos la
propiedad de aditividad siguiente:
_
b
a
u
s
dB
s
+
_
c
b
u
s
dB
s
=
_
c
a
u
s
dB
s
,
si a b c.
Si a < b y X es una variable aleatoria acotada y medible respecto
de la -algebra T
a
entonces,
_
b
a
Xu
s
dB
s
= X
_
b
a
u
s
dB
s
.
Las integrales indenidas tienen las siguientes propiedades:
Proposici on 11.1. Supongamos que u es un proceso de la clase
L
2
a,T
. Entonces, la integral estocastica I(t) =
_
t
0
u
s
dB
s
tiene las si-
guientes propiedades:
1. I(t), t [0, T] es una martingala de cuadrado integrable.
2. I(t), t [0, T] tiene una version continua.
Demostraci on: Consideremos una sucesion de procesos elementales
u
(n)
tal que
lm
n
E
__
T
0

u
t
u
(n)
t

2
dt
_
= 0.
132 11. INTEGRACI

ON ESTOC

ASTICA
Pongamos
I(t) =
_
t
0
u
s
dB
s
,
I
n
(t) =
_
t
0
u
(n)
s
dB
s
.
El proceso I
n
tiene trayectorias continuas y es una martingala respecto de
la familia creciente de -algebras T
t
. En efecto, si s < t y
j
es el valor del
proceso estocastico u
(n)
cada el intevalo (t
j1
, t
j
] tendremos, si s (t
k1
, t
k
]
y t (t
l1
, t
l
] con k l 1
E (I
n
(t) I
n
(s)[T
s
)
= E
_
(B
t
k
B
s
)
k
+
l1

j=k+1

j
B
j
+ (B
t
B
t
l1
)
l
[T
s
_
=
k
E ((B
t
k
B
s
)[T
s
) +
l1

j=k+1
E
_
E
_

j
B
j
[T
t
j1
_
[T
s
_
+E
_
E
_
(B
t
B
t
l1
)
l
[T
t
l1
_
[T
s
_
=
l1

j=k+1
E
_

j
E
_
B
j
[T
t
j1
_
[T
s
_
+E
_

l
E
_
(B
t
B
t
l1
)[T
t
l1
_
[T
s
_
= 0.
Como I
n
(t) converge en L
2
() hacia I(t), obtenemos que I(t) es una mar-
tingala.
La continuidad de las trayectorias se deduce de desigualdad maximal
de Doob para martingalas, que es una generalizacion de la desigualdad de
Tchebychev. En efecto, la diferencia I
n
I
m
sera una martingala, y la de-
sigualdad de Doob nos permite escribir
P
_
sup
0tT
[I
n
(t) I
m
(t)[ >
_

1

2
E
_
[I
n
(T) I
m
(T)[
2
_
=
1

2
E
__
T
0

u
(n)
t
u
(m)
t

2
dt
_
n,m
0.
Podemos elegir una sucesion creciente de n umeros naturales n
k
, k = 1, 2, . . .
tal que
P
_
sup
0tT
[I
n
k+1
(t) I
n
k
(t)[ > 2
k
_
2
k
.
1. INTEGRALES ESTOC

ASTICAS INDEFINIDAS 133


Los sucesos A
k
:=
_
sup
0tT
[I
n
k+1
(t) I
n
k
(t)[ > 2
k
_
tienen probabili-
dades que forman una serie convergence, es decir,

k=1
P(A
k
) < .
El lema de Borel-Cantelli nos dice que la probabilidad de que ocurra un
n umero innito de estos sucesos es cero. Por lo tanto, existe un suceso N
de probabilidad cero tal que para todo / N podemos encontrar un ndice
k
1
() tal que si k k
1
()
sup
0tT
[I
n
k+1
(t, ) I
n
k
(t, )[ 2
k
.
Por lo tanto, si / N, la sucesion I
n
k
(t, ) es uniformemente convergente
en [0, T] hacia una funcion continua J
t
(). Por otra parte, sabemos que
para cada t [0, T], I
n
k
(t) converge en media cuadratica hacia
_
t
0
u
s
dB
s
.
Por consiguiente, J
t
() =
_
t
0
u
s
dB
s
casi seguramente, para todo t [0, T],
y ello nos dice que la integral indenida tiene una version con trayectorias
continuas.
La integral indenida M
t
=
_
t
0
u
s
dB
s
satisface tambien la desigual-
dad siguiente, para todo > 0,
(11.1.1) P
_
sup
0tT
[M
t
[ >
_

2
E
__
T
0
u
2
t
dt
_
.
La martingala M
t
=
_
t
0
u
s
dB
s
tiene trayectorias continuas, pero
son irregulares como las del movimiento browniano. En particular, las
trayectorias de las integrales indenidas tienen variacion cuadratica
nita como nos dice la propiedad siguiente:
Proposici on 11.2 (Variacion cuadratica ). Sea u un proceso de la
clase L
2
a,T
. Entonces,
n

j=1
_
_
t
j
t
j1
u
s
dB
s
_
2
L
1
()

_
t
0
u
2
s
ds
cuando n tiende a innito, donde t
j
=
jt
n
.
La proposicion seguiente proporciona una formula para el calculo
de la integral estocastica hasta un tiempo de parada.
Proposici on 11.3. Si u es un proceso de la clase L
2
a,T
y es un
tiempo de paro acotado por T, el proceso u1
[0,]
tambien pertenece a
134 11. INTEGRACI

ON ESTOC

ASTICA
L
2
a,T
y se verica la relacion siguiente:
(11.1.2)
_
T
0
u
t
1
[0,)
(t)dB
t
=
_

0
u
t
dB
t
.
Demostraci on: La demostracion se hara en dos etapas:
1. Supongamos primero que el proceso u es de la forma u
t
= F1
(a,b]
(t),
donde 0 a < b T y F L
2
(, T
a
, P). Los tiempos de paro

n
=

2
n
i=1
t
i
n
1
A
i
n
, donde t
i
n
=
iT
2
n
, A
i
n
= t
i1
n
< t
i
n
forman
una sucesion decreciente que converge hacia . Si i = 2
n
, ponemos
A
n
n
=
_
(2
n
1)T
2
n
T
_
. Para cada n tendremos
_
n
0
u
t
dB
t
= F(B
bn
B
an
).
Por otra parte,
_
T
0
u
t
1
[0,n]
(t)dB
t
=
2
n

i=1
_
T
0
1
A
i
n
1
[0,t
i
n
]
(t)u
t
dB
t
=
2
n

i=1
_
T
0
1
1
B
i
n
1
(t
i1
n
,t
i
n
]
(t)u
t
dB
t
,
donde B
i
n
= A
i
n
A
i+1
n
. . . A
2
n
n
. El proceso 1
B
i
n
1
(t
i1
n
,t
i
n
]
(t) es
elemental porque B
i
n
=
(i1)T
2
n
F
t
i1
n
. En consecuencia,
_
T
0
u
t
1
[0,n]
(t)dB
t
=
2
n

i=1
_
T
0
1
B
i
n
1
(a,b](t
i1
n
,t
i
n
]
(t)FdB
t
= F
2
n

i=1
1
B
i
n
_
T
0
1
(a,b](t
i1
n
,t
i
n
]
(t)dB
t
= F
2
n

i=1
1
A
i
n
_
T
0
1
(a,b][0,t
i
n
]
(t)dB
t
=
2
n

i=1
1
A
i
n
F(B
bt
i
n
B
at
i
n
)
= F(B
bn
B
an
).
Tomando el lmite cuando n tiende a innito se deduce la igualdad
en el caso de un proceso elemental.
2. En el caso general, basta con aproximar el proceso u por procesos
elementales. La convergencia del miembro de la derecha de (11.1.2)
se deduce de la desigualdad maximal de Doob.
2. EXTENSIONES DE LA INTEGRAL ESTOC

ASTICA 135
2. Extensiones de la integral estocastica
La integral estocastica de Ito
_
T
0
u
s
dB
s
puede denirse para clases
de procesos mas amplias que L
2
a,T
.
A) En primer lugar, podemos substituir la familia creciente de -
algebras T
t
por una familia mayor H
t
tal que el movimiento browniano
B
t
sea una martingala respecto de H
t
. En efecto, en todas las demos-
traciones anteriores solo se ha utilizado la propiedad
E(B
t
B
s
[T
s
) = 0.
Como ejemplo de esta situacion, consideremos el caso en que T
(n)
t
es
la familia creciente de -algebras generadas por un movimiento brow-
niano n-dimensional B
t
. Cada componente B
k
(t) es una martingala
respecto de T
(n)
t
, pero T
(n)
t
no es la familia de -algebras generada por
B
k
(t). De esta forma, con la extension indicada antes, se pueden denir
integrales como
_
T
0
B
2
(s)dB
1
(s),
_
T
0
sin(B
2
1
(s) +B
2
1
(s))dB
2
(s).
B) La segunda extension consiste en substituir la propiedad E
_
_
T
0
u
2
t
dt
_
<
por la hipotesis mas debil siguiente:
b): P
_
_
T
0
u
2
t
dt <
_
= 1.
Esta extension nos permitira considerar integrales estocasticas de
la forma
_
T
0
f(B
t
)dB
t
, donde f es una funcion continua. En general,
un proceso de la forma u
t
= f(B
t
) no pertenece a L
2
a,T
. Por ejemplo, si
f(x) = e
fracx
4
2
_
T
0
E(e
B
4
t
)dt = .
La clase de procesos que cumplen las propiedades a) y b) la desig-
naremos por L
a,T
. Extenderemos la integral estocastica a la clase L
a,T
mediante un argumento de localizacion.
Consideremos un proceso estocastico u de L
a,T
. Para cada n 1
denimos el tiempo de paro
(11.2.1)
n
=nf
_
t 0 :
_
t
0
u
2
s
ds = n
_
,
136 11. INTEGRACI

ON ESTOC

ASTICA
donde suponemos que
n
= T si
_
T
0
u
2
s
ds < n. De esta forma tendremos
una sucesion creciente de tiempos de paro tal que
n
T. Ademas,
t <
n

_
t
0
u
2
s
ds < n.
Los procesos
u
(n)
t
= u
t
1
[0,n)
(t)
pertenecen a L
2
a,T
ya que E
_
_
T
0
_
u
(n)
s
_
2
ds
_
n. Para cada n m,
en el conjunto s
n
, se tiene u
(n)
s
= u
(m)
s
. Por lo tanto,
_
t
0
u
(n)
s
dB
s
=
_
t
0
u
(m)
s
1
[0,n)
(s)dB
s
=
_
T
0
u
(m)
s
1
[0,nt)
(s)dB
s
=
_
nt
0
u
(m)
s
dB
s
, (11.2.2)
donde la ultima igualdad es debida a (11.1.2).
Tomando n = m en (11.2.2) obtenemos
_
t
0
u
(n)
s
dB
s
=
_
nt
0
u
(n)
s
dB
s
,
lo que nos dice que el proceso
_
t
0
u
(n)
s
dB
s
se mantiene constante a partir
del instante
n
. Por otra parte, si n < m, en el conjunto t
n
se
cumple
_
t
0
u
(n)
s
dB
s
=
_
t
0
u
(m)
s
dB
s
,
es decir, las trayectorias de los procesos
_
t
0
u
(n)
s
dB
s
y
_
t
0
u
(m)
s
dB
s
coin-
ciden hasta
n
.
Por consiguiente, existira un proceso continuo y adaptado que de-
notaremos por
_
t
0
u
s
dB
s
tal que
_
t
0
u
(n)
s
dB
s
=
_
t
0
u
s
dB
s
si t
n
.
La integral estocastica de procesos de la clase L
a,T
satisface las
propiedades de linealidad y continuidad de trayectorias de la integral
indenida. En cambio, la integral de procesos de la clase L
a,T
puede no
tener esperanza ni varianza nitas.
La desigualdad de la proposicion siguiente es una generalizacion
de la propiedad de isometra en el caso de integrales estocasticas de
procesos que no tienen varianza nita.
2. EXTENSIONES DE LA INTEGRAL ESTOC

ASTICA 137
Proposici on 11.4. Consideremos un proceso u L
a,T
. Para todo
K, > 0 se cumple la desigualdad siguiente:
P
_

_
T
0
u
s
dB
s

K
_
P
__
T
0
u
2
s
ds
_
+

K
2
.
Demostraci on: Consideremos el tiempos de paro denido por
=nf
_
t 0 :
_
t
0
u
2
s
ds =
_
,
con la convencion = T si
_
T
0
u
2
s
ds < .Tendemos
P
_

_
T
0
u
s
dB
s

K
_
P
__
T
0
u
2
s
ds
_
+P
_

_
T
0
u
s
dB
s

K,
_
T
0
u
2
s
ds <
_
,
por otra parte, aplicando la desigualdad de Tchebychev en el suceso =
T,se obtiene
P
_

_
T
0
u
s
dB
s

K,
_
T
0
u
2
s
ds <
_
P
_

_
T
0
u
s
dB
s

K, = T
_
P
_

_

0
u
s
dB
s

K
_

1
K
2
E
_

_

0
u
s
dB
s

2
_
=
1
K
2
E
_

_
T
0
u
s
1
[0,)
(s)dB
s

2
_
=
1
K
2
E
__
T
0
u
2
s
1
[0,)
(s)ds
_


K
2
.

Como consecuencia de la proposicion anterior, si u


(n)
es una sucesion
de procesos de la clase L
a,T
que converge hacia un proceso u L
a,T
en
probabilidad:
_
T
0
_
u
(n)
s
u
s
_
2
ds
P
0
entonces,
_
T
0
u
(n)
s
dB
s
P

_
T
0
u
s
dB
s
.
CAPTULO 12
F ormula de It o
La formula de Ito es la version estocastica de la clasica regla de la
cadena en el calculo diferencial ordinario.
Consideremos el ejemplo
_
t
0
B
s
dB
s
=
1
2
B
2
t

1
2
t,
que podemos escribir en la forma
B
2
t
=
_
t
0
2B
s
dB
s
+t.
Podemos comprobar que la igualdad es cierta tomando esperanzas
y utilizando la propiedad de media nula de la integral estocastica:
E(B
2
t
) = t. En notacion diferencial podemos escribir
dB
2
t
= 2B
t
dB
t
+dt.
Vemos que el proceso estocastico B
2
t
es la suma de una integral
estocastica y de una funcion diferenciable. Mas generalmente cualquier
funcion f(B
t
), donde f es dos veces continuamente diferenciable, puede
expresarse como una suma de una integral estocastica y de un proceso
con trayectorias diferenciables. Esto nos lleva a introducir la nocion de
proceso de Ito que sera una suma de una integral estocastica mas una
integral ordinaria. La clase de los procesos de Ito sera invariante por
transformaciones funcionales regulares. Designaremos por L
1
a,T
la clase
de los procesos v que satisfacen las propiedades a) y
b) P
_
_
T
0
[v
t
[ dt <
_
= 1.
Definici on 12.1. Un proceso de Ito X
t
sera un proceso estocastico
de la forma
(12.0.3) X
t
= X
0
+
_
t
0
u
s
dB
s
+
_
t
0
v
s
ds,
donde u pertenece a la clase L
a,T
y v pertenece a la clase L
1
a,T
.
En notacion diferencial escribiremos
dX
t
= u
t
dB
t
+v
t
dt.
139
140 12. F

ORMULA DE IT

O
Teorema 12.1 (Formula de Ito). Supongamos que X es un proceso
de Ito de la forma (12.0.3). Sea f(t, x) una funcion dos veces derivable
respecto de la variable x y una vez respecto de la variable t, con to-
das las derivadas parciales continuas (diremos que f es de clase C
1,2
).
Entonces el proceso Y
t
= f(t, X
t
) es tambien un proceso de Ito con la
representacion
Y
t
= f(0, X
0
) +
_
t
0
f
t
(s, X
s
)ds +
_
t
0
f
x
(s, X
s
)u
s
dB
s
+
_
t
0
f
x
(s, X
s
)v
s
ds +
1
2
_
t
0

2
f
x
2
(s, X
s
)u
2
s
ds.
1.-: En notacion diferencial la formula de Ito puede escribirse de
la forma
df(t, X
t
) =
f
t
(t, X
t
)dt +
f
x
(t, X
t
)dX
t
+
1
2

2
f
x
2
(s, X
s
) (dX
t
)
2
,
donde (dX
t
)
2
se calcula mediante la convencion
dB
t
dt
dB
t
dt 0
dt 0 0
2.-: El proceso Y
t
es un proceso de Ito con la representacion
Y
t
= Y
0
+
_
t
0
u
s
dB
s
+
_
t
0
v
s
ds,
donde
Y
0
= f(0, X
0
),
u
t
=
f
x
(t, X
t
)u
t
,
v
t
=
f
t
(t, X
t
) +
f
x
(t, X
t
)v
t
+
1
2

2
f
x
2
(t, X
t
)u
2
t
.
3.-: En el caso particular u
t
= 1, v
t
= 0, X
0
= 0, el proceso X
t
es precisamente el movimiento browniano B
t
, y la formula de
Ito adopta la expresion mas simple siguiente
f(t, B
t
) = f(0, 0) +
_
t
0
f
x
(s, B
s
)dB
s
+
_
t
0
f
t
(s, B
s
)ds
+
1
2
_
t
0

2
f
x
2
(s, B
s
)ds.
12. F

ORMULA DE IT

O 141
4.-: En el caso particular en que la funcion f no depende del
tiempo se obtiene la formula
f(X
t
) = f(0) +
_
t
0
f

(X
s
)u
s
dB
s
+
_
t
0
f

(X
s
)v
s
ds +
1
2
_
t
0
f

(X
s
)u
2
s
ds.
La formula de Ito se deduce del desarrollo de Taylor hasta el orden
dos. Indicaremos seguidamente, de forma heurstica, las ideas principa-
les que conducen a la formula de Ito. Supongamos v = 0. Fijemos un
instante de tiempo t > 0.
Consideremos los instantes t
j
=
jt
n
. La formula de Taylor hasta el
segundo orden nos da
f(X
t
) f(X
0
) =
n

j=1
_
f(X
t
j
) f(X
t
j1
)

=
n

j=
f

(X
t
j1
)X
j
+
1
2
n

j=1
f

(X
j
) (X
j
)
2
, (12.0.4)
donde X
j
= X
t
j
X
t
j1
y X
j
es un valor comprendido entre X
t
j1
y
X
t
j
.
El primer sumando de la expresion anterior converge en probabili-
dad hacia
_
t
0
f

(X
s
)u
s
dB
s
, mientras que el segundo sumando converge
en probabilidad hacia
1
2
_
t
0
f

(X
s
)u
2
s
ds.
Veamos algunos ejemplos de aplicacion de la fomula de Ito.
Ejemplo Si f(x) = x
2
y X
t
= B
t
, tendremos
B
2
t
= 2
_
t
0
B
s
dB
s
+t,
ya que f

(x) = 2x y f

(x) = 2.
Ejemplo Si f(x) = x
3
y X
t
= B
t
, tendremos
B
3
t
= 3
_
t
0
B
2
s
dB
s
+ 3
_
t
0
B
s
ds,
ya que f

(x) = 3x
2
y f

(x) = 6x. Mas generalmente, si n 2 es un


n umero natural,
B
n
t
= n
_
t
0
B
n1
s
dB
s
+
n(n 1)
2
_
t
0
B
n2
s
ds.
142 12. F

ORMULA DE IT

O
Ejemplo Si f(t, x) = e
ax
a
2
2
t
, X
t
= B
t
, y Y
t
= e
aBt
a
2
2
t
, tendremos
Y
t
= 1 +a
_
t
0
Y
s
dB
s
ya que
(12.0.5)
f
t
+
1
2

2
f
x
2
= 0.
Este importante ejemplo nos permite deducir las observaciones siguien-
tes:
1.-: Si una funcion f(t, x) satisface la igualdad (12.0.5), enton-
ces, el proceso estocastico f(t, B
t
) sera una integral estocastica
indenida (mas un termino constante), y por lo tanto, sera una
martingala, suponiendo que f satisface la propiedad:
E
_
_
t
0
_
f
x
(s, B
s
)
_
2
ds
_
<
2.-: La solucion de la ecuacion diferencial estocastica
dY
t
= aY
t
dB
t
no es Y
t
= e
aBt
, como en el caso del calculo diferencial ordina-
rio, sino Y
t
= e
aBt
a
2
2
t
.
Como consecuencia de la formula de Ito, podemos deducir la si-
guiente formula de integracion por partes:
Supongamos que f(t) es una funcion continuamente diferenciable
en [0, T]. En tal caso tendremos
_
t
0
f
s
dB
s
= f(t)B
t

_
t
0
B
s
f

s
ds.
En efecto, aplicando la formula de Ito a la funcion f(t)x se obtiene
f(t)B
t
=
_
t
0
f
s
dB
s
+
_
t
0
B
s
f

s
ds.
Veamos seguidamente la version multidimensional de la formula de
Ito. Supongamos que B
t
= (B
1
t
, B
2
t
, . . . , B
m
t
) es un movimiento brow-
niano m-dimensional, es decir, las componentes son movimientos brow-
nianos independientes. Consideremos un proceso de Ito n-dimensional
de la forma
12. F

ORMULA DE IT

O 143
_

_
X
1
t
= X
1
0
+
_
t
0
u
11
s
dB
1
s
+ +
_
t
0
u
1m
s
dB
m
s
+
_
t
0
v
1
s
ds
.
.
.
X
n
t
= X
n
0
+
_
t
0
u
n1
s
dB
1
s
+ +
_
t
0
u
nm
s
dB
m
s
+
_
t
0
v
n
s
ds
.
En notacion diferencial y vectorial podemos escribir
dX
t
= u
t
dB
t
+v
t
dt,
donde X
t
, v
t
, son procesos n-dimensionales, y u
t
es un proceso con
valores en el conjunto de las matrices n m. Supondremos que las
componentes de u pertenecen a L
a,T
y las de v pertenecen a L
1
a,T
.
Entonces, si f : [0, ) R
n
R
p
es una funcion de clase C
1,2
, el
proceso Y
t
= f(t, X
t
) es tambien un proceso de Ito con la representacion
(en notacion diferencial)
dY
k
t
=
f
k
t
(t, X
t
)dt +
n

i=1
f
k
x
i
(t, X
t
)dX
i
t
+
1
2
n

i,j=1

2
f
k
x
i
x
j
(t, X
t
)dX
i
t
dX
j
t
.
El producto de los diferenciales dX
i
t
dX
j
t
se calcula aplicando las reglas
siguientes:
dB
i
t
dB
j
t
=
_
0 si i ,= j
dt si i = j
dB
i
t
dt = 0
(dt)
2
= 0.
De esta forma se obtiene
dX
i
t
dX
j
t
=
_
m

k=1
u
ik
t
u
jk
t
_
dt = (u
t
u

t
)
ij
dt.
Por consiguiente, obtenemos
df(t, X
t
) =
f
k
t
(t, X
t
)dt +
n

i=1
m

j=1
f
k
x
i
(t, X
t
)u
ij
t
dB
i
t
+
n

i=1
f
k
x
i
(t, X
t
)v
i
t
dt +
1
2
n

i,j=1
m

k=1

2
f
k
x
i
x
j
(t, X
t
)u
ik
t
u
jk
t
dt.
144 12. F

ORMULA DE IT

O
1. Representaci on integral de martingalas
Consideremos un proceso u de la clase L
2
a,T
. Sabemos que la integral
indenida
X
t
=
_
t
0
u
s
dB
s
es una martingala respecto de la ltracion T
t
. En este apartado demos-
traremos que todas las martingalas de cuadrado integrable respecto de
esta ltracion son de este tipo.
Veamos un resultado preliminar.
Lema 2. El conjunto de variables que son combinaciones lineales
de exponenciales de la forma
(12.1.1) exp
__
T
0
h
s
dB
s

1
2
_
T
0
h
2
s
ds
_
,
donde h es una funcion determinista tal que
_
T
0
h
2
s
ds < , es denso
en L
2
(, T
T
, P).
Demostraci on: Sea Y una variable de L
2
(, T
T
, P) ortogonal a todas
las exponenciales de la forma (12.1.1). Queremos demostrar que Y = 0.
Fijados m instantes 0 t
1
< t
m
T y m n umeros reales
1
, . . . ,
m
sabemos que
E
_
Y e

1
Bt
1
++mBtm
_
= 0.
Esto implica que la medida
(A) = E (Y 1
A
(B
t
1
, . . . , B
tm
))
tiene una transformada de Laplace identicamente nula. Por lo tanto,
E(Y 1
G
) = 0
para todo suceso G de la -algebra generada por las variables B
t
1
, . . . , B
tm
.
Por un argumento de clases monotonas, esto sera cierto para todo G de la
-algebra T
T
, y por lo tanto, Y = 0.
Teorema 12.2 (Teorema de representacion de Ito). Consideremos
una variable aleatoria F de L
2
(, T
T
, P). Entonces existe un unico
proceso estocastico u de la clase L
2
a,T
tal que
F = E(F) +
_
T
0
u
s
dB
s
.
Demostraci on: Supongamos primero que la variable F es de la forma
exp
__
T
0
h
s
dB
s

1
2
_
T
0
h
2
s
ds
_
,
1. REPRESENTACI

ON INTEGRAL DE MARTINGALAS 145


donde h es una funcion determinista tal que
_
T
0
h
2
s
ds < . Denimos
Y
t
= exp
__
t
0
h
s
dB
s

1
2
_
t
0
h
2
s
ds
_
.
Por la formula de Ito aplicada a la funcion f(x) = e
x
y al proceso X
t
=
_
t
0
h
s
dB
s

1
2
_
t
0
h
2
s
ds, obtenemos
dY
t
= Y
t
_
h(t)dB
t

1
2
h
2
(t)dt
_
+
1
2
Y
t
(dX
t
)
2
= Y
t
h(t)dB
t
,
es decir,
Y
t
= 1 +
_
t
0
Y
s
h(s)dB
s
.
Por lo tanto,
F = Y
T
= 1 +
_
T
0
Y
s
h(s)dB
s
y se cumple la representacion buscada porque E(F) = 1,
E
__
T
0
Y
2
s
h
2
(s)ds
_
=
_
T
0
E
_
Y
2
s
_
h
2
(s)ds
exp
__
T
0
h
2
s
ds
__
T
0
h
2
s
ds <
ya que
E
_
Y
2
t
_
= E
_
exp
_
2
_
t
0
h
s
dB
s

_
t
0
h
2
s
ds
__
= exp
__
t
0
h
2
s
ds
_
.
Por linealidad, la representacion se cumplira en el caso en que F sea una
combinacion lineal de exponenciales del tipo (12.1.1). En el caso general, el
Lema 2 nos permite aproximar una variable arbitraria F de L
2
(, T
T
, P)
por una sucesion F
n
de combinaciones lineales de exponenciales de la forma
(12.1.1). Tendremos, entonces,
F
n
= E(F
n
) +
_
T
0
u
(n)
s
dB
s
.
Como lm
n
E(F
n
) = E(F) y F
n
converge en L
2
() a F, la sucesion
_
T
0
u
(n)
s
dB
s
sera convergente L
2
(). Por tanto, sera una sucesion de Cauchy,
146 12. F

ORMULA DE IT

O
y por la propiedad de isometra de la integral estocastica, tambien lo sera la
sucesion u
(n)
en el espacio L
2
a,T
L
2
([0, T] ):
E
__
T
0
_
u
(n)
s
u
(m)
s
_
2
ds
_
= E
_
__
T
0
_
u
(n)
s
u
(m)
s
_
dB
s
_
2
_
n,m
0.
Por lo tanto u
(n)
sera convergente hacia un proceso u de L
2
([0, T] ). Por
otra parte, puede comprobarse que u pertenece a la clase L
2
a,T
, teniendo en
cuenta que una sucesion parcial de u
(n)
(t, ) converge casi por todo (t, )
hacia u(t, ). Aplicando de nuevo la propiedad de isometra, se obtiene
F = lm
n
F
n
= lm
n
_
E(F
n
) +
_
T
0
u
(n)
s
dB
s
_
= E(F) +
_
T
0
u
s
dB
s
.
Finalmente, la unicidad sale tambien de la propiedad de isometra: Su-
pongamos que u
(1)
y u
(2)
fuesen dos procesos de L
2
a,T
tales que
F = E(F) +
_
T
0
u
(1)
s
dB
s
= E(F) +
_
T
0
u
(2)
s
dB
s
.
Entonces
0 = E
_
__
T
0
_
u
(1)
s
u
(2)
s
_
dB
s
_
2
_
= E
__
T
0
_
u
(1)
s
u
(2)
s
_
2
ds
_
y, por lo tanto, u
(1)
s
(t, ) = u
(2)
s
(t, ) casi por todo (t, ).
Teorema 12.3 (Teorema de representacion de martingalas). Su-
pongamos que M
t
, t [0, T] es una martingala respecto de la ltra-
cion T
t
, tal que E(M
2
T
) < . Entonces existe un unico proceso es-
tocastico u de la claseL
2
a,T
tal que
M
t
= E(M
0
) +
_
t
0
u
s
dB
s
para todo t [0, T].
Demostraci on: Aplicando el teorema de representacion de Ito a
F = M
T
obtenemos que existe un unico proceso u L
2
T
tal que
M
T
= E(M
T
) +
_
T
0
u
s
dB
s
= E(M
0
) +
_
T
0
u
s
dB
s
.
2. COMPLETITUD DEL MODELO DE BLACK-SCHOLES 147
Supongamos que 0 t T. Tendremos
M
t
= E[M
T
[T
t
] = E(M
0
) +E[
_
T
0
u
s
dB
s
[T
t
]
= E(M
0
) +
_
t
0
u
s
dB
s
.

Ejemplo Queremos encontrar la representacion integral de F = B


3
T
.
Aplicando la formula de Ito
B
3
T
=
_
T
0
3B
2
t
dB
t
+ 3
_
T
0
B
t
dt,
e integrando por partes,
_
T
0
B
t
dt = TB
T

_
T
0
tdB
t
=
_
T
0
(T t)dB
t
.
Por tanto, obtenemos la representacion
B
3
T
=
_
T
0
3
_
B
2
t
+ (T t)

dB
t
.
2. Completitud del modelo de Black-Scholes
Consideremos el modelo de Black y Scholes para la curva de precios
de un activo nanciero. El precio S
t
en un instante t viene dado por
un movimiento browniano geometrico:
S
t
= S
0
e
t

2
2
t+Bt
,
donde S
0
es el precio inicial, es una constante que representa la ten-
dencia a crecer (observemos que E(S
t
) = S
0
e
t
), y se denomina la
volatilidad. Sabemos que S
t
satisface una ecuacion diferencial estocasti-
ca lineal, debido a la formula de Ito:
dS
t
= S
t
dB
t
+S
t
dt,
es decir
dS
t
S
t
= dB
t
+dt.
Este modelo tiene las propiedades siguientes:
a): Las trayectorias t S
t
son continuas.
b): Para todo s < t, el incremento relativo
StSs
Ss
es independient
de la -algebra generada por S
u
, 0 u s.
c): La ley del cociente
St
Ss
es una distribucion lognormal con
parametros
_


2
2
_
(t s),
2
(t s).
148 12. F

ORMULA DE IT

O
Fijemos un intervalo de tiempo [0, T]. Una cartera de valores (o
estrategia de inversion) sera un proceso estocastico
= (
t
,
t
) , 0 t T
tal que sus componentes son procesos medibles y adaptados y verican
_
T
0
[
t
[ dt < ,
_
T
0
(
t
)
2
dt < .
La componente
t
representa el capital (activo nanciero sin riesgo) al
tipo de interes r. La componente
t
representa la cantidad de acciones
de que disponemos. En esta situacion el valor de la cartera en cada
instante t sera
V
t
() =
t
e
rt
+
t
S
t
.
Diremos que la cartera
t
es autonanciada si su valor es un proceso
de Ito con diferencial
dV
t
() = r
t
e
rt
dt +
t
dS
t
.
Esto signica que el incremento del valor solo depende del incremento
de los precios.
Se introducen los precios actualizados como

S
t
= e
rt
S
t
= S
0
exp
_
( r) t

2
2
t +B
t
_
.
El valor actualizado de una cartera sera, por denicion,

V
t
() = e
rt
V
t
() =
t
+
t

S
t
.
Observemos que
d

V
t
() = re
rt
V
t
()dt +e
rt
dV
t
()
= r
t
dt r
t

S
t
dt +r
t
dt +e
rt

t
dS
t
=
t
d

S
t
.
De estas ecuaciones de deduce que en una cartera autonanciada, el
valor inicial de la cartera V
0
y el proceso
t
determinan
t
. En efecto,
tenemos

V
t
() = V
0
+
_
t
0

s
d

S
s
,

t
=

V
t
()
t

S
t
.
2. COMPLETITUD DEL MODELO DE BLACK-SCHOLES 149
Supongamos = r. En este caso vemos que

S
t
es una martingala.
Veremos que esta situacion corresponde a trabajar con la probabilidad
neutra.
Consideremos un contrato derivado sobre el activo nanciero que
permita hacer un benecio a su propietario dado por una variable alea-
toria h 0, T
T
-medible. El tiempo T sera la fecha de vencimiento del
contrato.
En el caso de una opcion de compra europea de vencimiento
T y precio de ejercicio K, tendremos
h = (S
T
K)
+
.
En el caso de una opcion de venta europea de vencimiento T
y precio de ejercicio K, tendremos
h = (K S
T
)
+
.
Diremos que una cartera autonanciada replica el derivado si
V
T
() = h, y se dice entonces que la variable h es replicable.
Se dice que un modelo es completo si toda variable de cuadrado
integrable es replicable.
Demostraci on de la completitud del modelo de Black y
Scholes:
Suponemos = r y E(h
2
) < . Sabemos que existe un proce-
so estocastico K
t
medible, adaptado y de cuadrado integrable, o sea,
_
T
0
E(K
2
s
)ds < , tal que
e
rT
h = e
rT
E(h) +
_
T
0
K
s
dB
s
.
Consideremos la martingala de cuadrado integrable
M
t
= E
_
e
rT
h[T
t
_
= M
0
+
_
t
0
K
s
dB
s
,
donde M
0
= e
rT
E(h).
Denimos la cartera
t
= (
t
,
t
) por

t
=
K
t

S
t
,

t
= M
t

K
t

.
El valor actualizado de esta cartera sera

V
t
() =
t
+
t

S
t
= M
t
,
150 12. F

ORMULA DE IT

O
y, por lo tanto, su valor nal sera
V
T
() = e
rT

V
T
() = e
rT
M
T
= h.
Falta ver que esta cartera es autonanciada:
re
rt

t
dt +
t
dS
t
= rM
t
e
rt
dt
r

K
t
e
rt
dt +
K
t

S
t
dS
t
= rM
t
e
rt
dt
r

K
t
e
rt
dt +
K
t

e
rt
(rdt +dB
t
)
= rM
t
e
rt
dt +K
t
e
rt
dB
t
= rM
t
e
rt
dt +e
rt
dM
t
= d(e
rt
M
t
) = dV
t
().
Observemos que tambien
_
T
0
E(K
2
s
)ds =
2
_
T
0
E
_
(
t

S
t
)
2
_
ds < .
3. Cambios de probablidad: Teorema de Girsanov
El teorema de Girsanov nos dice que el movimiento browniano con
deriva B
t
+t puede verse como un movimiento browniano sin deriva,
cambiando la probabilidad. Analizaremos primero como funcionan los
cambios de probabilidad mediante densidades.
Si en un espacio de probabilidad (, T, P) consideramos una varia-
ble aleatoria L 0 de esperanza uno, entonces,
Q(A) = E
P
(1
A
L)
dene una nueva probabilidad. Que la esperanza de L sea igual a 1 nos
garantiza que
Q() = E(L) = 1.
Se dice que L es la densidad de Q respecto de P y se escribe formal-
mente
dQ
dP
= L.
La esperanza de una variable aleatoria X en el espacio de probabilidad
(, T, Q) se calcula de la forma siguiente
E
Q
(X) = E(XL).
La probabilidad Q es absolutamente continua respecto de P, lo que
signica que
P(A) = 0 = Q(A) = 0.
3. CAMBIOS DE PROBABLIDAD: TEOREMA DE GIRSANOV 151
Si la variable L es estrictamente positiva, entonces las probabilidades
P y Q son equivalentes (o sea, mutuamente absolutamente continuas),
lo que signica
P(A) = 0 Q(A) = 0.
Veamos seguidamente dos ejemplos simples de cambio de probabi-
lidades que representa una version sencilla del teorema de Girsanov:
Ejemplo
1) =
1
, . . . ,
m
, P(
i
) = p
i
, L(
i
) =
i
, Q(
i
) = p
i

i
.
En este ejemplo, las condiciones que tiene que cumplir L para ser una
densidad de probabilidad son

i
0
E(L) =
m

i=1

i
p
i
= 1.
2) Sea X una variable aleatoria con ley normal N(m,
2
). Conside-
remos la variable aleatoria L = (X), donde
(x) = e

2
x+
m
2
2
2
.
Comprobemos que tiene esperanza uno
E(L) = e

2
m+
m
2
2
2
+
1
2
m
2

4

2
= 1.
La densidad de la variable aleatoria X en el espacio de probabilidad
(, T, P) es
f
X
(x) =
1

2
2
e

(xm)
2
2
2
.
Entonces, la densidad de X en el espacio de probabilidad (, T, Q) sera
f
X
(x)(x) =
1

2
2
e

(xm)
2
2
2
e

2
x+
m
2
2
2
=
1

2
2
e

x
2
2
2
,
ya que
Q(a X b) = E
P
(1
aXb
L) = E
P
(1
aXb
(X))
=
_
b
a
f
X
(x)(x)dx.
Es decir, respecto de la probabilidad Q, la variable X tiene una ley
N(0,
2
). En este ejemplo el cambio de probabilidad nos ha servido
para eliminar la media de la variable X.
152 12. F

ORMULA DE IT

O
Seguidamente presentaremos un resultado similar de eliminacion
de la media mediante un cambio de probabilidad en el caso del movi-
miento browniano. Teniendo en cuenta que el movimiento browniano
es el lmite de paseos aleatorios, analizaremos primero el problema de
la eliminacion de la deriva en un paseo aleatorio:
Consideremos una succesion X
n
, n 1 de variables aleatorias
independientes tales que
X
n
=
_
+1, con probabilidad 1/2
1, con probabilidad 1/2
.
Pongamos S
0
= 0, y S
n
= X
1
+ + X
n
+ na, donde a > 0. La
succesion S
n
representa un paseo aleatorio con deriva igual a a, y no
es una martingala ya que
E(S
n
[T
n1
) = S
n1
+a,
donde T
n
es la -algebra generada por X
1
, ..., X
n
si n 1, y T
0
=
, . Podemos cambiar la asignacion de probabilidades de manera
que S
n
sea una martingala. Si suponemos que
P(X
n
= +1) = p,
P(X
n
= 1) = 1 p,
necesitaremos que E(a +X
n
) = 0, es decir,
p =
1 a
2
,
suponiendo que a < 1.
Multipliquemos los valores de la constante a por t y los valores
de las variables X
n
por

t. O sea supondremos que


S
0
= 0,
S
n
= at +X
n
,
P(X
n
=

t) =
1
2
.
En tal caso el valor de la probabilidad p respecto de la cual las S
n
forman una martingala es
P(X
n
=

t) = p =
1
2

a
2

t,
P(X
n
=

t) = 1 p =
1
2
+
a
2

t.
Podemos escribir
P(X
n
=

t) =
1
2
_
1
a

X
n
_
.
3. CAMBIOS DE PROBABLIDAD: TEOREMA DE GIRSANOV 153
Si consideramos un camino de longitud N formado por los sucesivos
valores que toman las variables X
n
, la probabilidad P de este camino
seria 2
N
, mientras que la probabilidad Q seria 2
N

N
n=1
_
1
a

X
n
_
.
Es decir, podemos escribir
Q(camino)
P(camino)
=
N

n=1
_
1
a

X
n
_
.
Observamos que la probabilidad Q esta bien denida si
t <
_

a
_
2
,
lo cual es cierto siempre que t sea sucientement peque no.
Supongamos ahora que las variables aleatorias S
n
se observan en
instantes que distan t. Si t tiende a cero y N tiende a innito
de manera que Nt = t, entonces, S
n
converge hacia un movimiento
browniano con deriva at +B
t
.
Por otra parte, el cociente entre las probabilidades Q y P converge
hacia un termino exponencial:
Q(camino)
P(camino)
=
N

n=1
_
1
a

X
n
_
= exp
_
N

n=1
log
_
1
a

X
n
_
_
exp
_
N

n=1
_

X
n

a
2
2
2
X
2
n
_
_
= exp
_

n=1
X
n

a
2
2
2
t
_
.
Es decir, en el lmite se obtiene
Q(camino)
P(camino)
= exp
_

B
t

a
2
2
2
t
_
.
Sea B
t
, t [0, T] un movimiento browniano. Fijemos un n umero
real . Consideremos la martingala
(12.3.1) L
t
= exp
_
B
t


2
2
t
_
.
Observemos que el proceso estocastico L
t
, t [0, T] es una martin-
gala positiva de esperanza uno que satisface la ecuacion diferencial
154 12. F

ORMULA DE IT

O
estocastica
L
t
= 1
_
t
0
L
s
dB
s
.
La variable L
T
es una densidad de probabilidad en el espacio (, T
T
, P)
que dene una probabilidad Q dada por
Q(A) = E (1
A
L
T
) ,
para todo A T
T
.
La propiedad de martingala del proceso L
t
implica que en el espacio
(, T
t
, P), la probabilidad Q tiene densidad igual a L
t
. En efecto, si A
pertenece a la -algebra T
t
se tiene
Q(A) = E (1
A
L
T
) = E (E (1
A
L
T
[T
t
))
= E (1
A
E (L
T
[T
t
))
= E (1
A
L
t
) .
Teorema 12.4 (Teorema de Girsanov). En el espacio de probabi-
lidad (, T
T
, Q) el proceso estocastico
W
t
= B
t
+t,
es un movimiento browniano.
Antes de demostrar este teorema probaremos un resultado tecnico:
Lema 3. Supongamos que X es una variable aleatoria real y ( es
una -algebra tales que
E
_
e
iuX
[(
_
= e

u
2

2
2
.
Entonces, la variable X es independiente de la -algebra ( y tiene una
ley normal N(0,
2
).
Demostraci on: Para todo suceso A ( se cumplira
E
_
1
A
e
iuX
_
= P(A)e

u
2

2
2
.
Por lo tanto, eligiendo A = obtenemos la funcion caracterstica de X, y
en consecuencia, X tiene una ley N(0,
2
). Por otra parte, jado un suceso
A (, la funcion caracterstica de la variable X respecto de la probabilidad
condicionada por A sera tambien
E
A
_
e
iuX
_
= e

u
2

2
2
.
Es decir, la ley de X condicionada por Aes tambien una ley normal N(0,
2
).
Por consiguiente, tendremos
P
A
(X x) = (x/) ,
3. CAMBIOS DE PROBABLIDAD: TEOREMA DE GIRSANOV 155
y
(12.3.2) P ((X x) A) = P(A)(x/) = P(A)P(X x),
donde representa la funcion de distribucion de la ley N(0, 1). La igualdad
(12.3.2) nos da la independencia entre la variable X y la -algebra ( .
Demostraci on del teorema de Girsanov: Sera suciente con
demostrar que, en el espacio de probabilidad (, T
T
, Q), para todo s <
t T el incremento W
t
W
s
es independiente de T
s
y tiene ley normal
N(0, t s).
Teniendo en cuenta el lemma anterior, estas dos propiedades se deducen
de la formula siguiente, para todo s < t, A T
s
, u R,
(12.3.3) E
Q
_
1
A
e
iu(WtWs)
_
= Q(A)e

u
2
2
(ts)
.
Para demostrar la formula (12.3.3) ponemos
E
Q
_
1
A
e
iu(WtWs)
_
= E
_
1
A
e
iu(WtWs)
L
t
_
= E
_
1
A
e
iu(BtBs)+iu(ts)(BtBs)

2
2
(ts)
L
s
_
= E(1
A
L
s
)E
_
e
(iu)(BtBs)
_
e
iu(ts)

2
2
(ts)
= Q(A)e
(iu)
2
2
(ts)+iu(ts)

2
2
(ts)
= Q(A)e

u
2
2
(ts)
.

El teorema de Girsanov admite la siguiente generalizacion:


Teorema 12.5. Sea
t
, t [0, T] un proceso adaptado y tal que
cumple la denominada condicion de Novikov:
(12.3.4) E
_
exp
_
1
2
_
T
0

2
t
dt
__
< .
Entonces, el proceso
W
t
= B
t
+
_
t
0

s
ds
es un movimiento browniano respecto de la probabilidad Q denida por
Q(A) = E (1
A
L
T
) ,
donde
L
t
= exp
_

_
t
0

s
dB
s

1
2
_
t
0

2
s
ds
_
.
156 12. F

ORMULA DE IT

O
Observemos que de nuevo L
t
es satisface la ecuacion diferencial
estocastica
L
t
= 1
_
t
0

s
L
s
dB
s
.
Para que el proceso L
t
sea una martingala y tengamos E(L
t
) = 1,
necesitamos que
s
L
s
pertenezca a la clase L
2
a,T
. La condicion (12.3.4)
sirve para asegurar esta propiedad.
3.1. Probabilidades neutras en el modelo de Black y Scho-
les. Valoraci on y cobertura de derivados. Consideremos el mode-
lo de Black y Scholes para la curva de precios S
t
de un activo nanciero:
S
t
= S
0
e
t

2
2
t+Bt
.
Diremos que una probabilidad Q equivalente P es neutra o sin
riesgo si

S
t
es una martingala respecto de Q. Se dice que un modelo es
viable si existen probabilidades neutras. A tiempo discreto esta condi-
cion es equivalente a que no haya arbitrajes (carteras autonanciadas
con valor inicial cero y tales que V
T
() 0 y P(V
T
() > 0) > 0).
El teorema de Girsanov permite encontrar facilmente una probabi-
lidad neutra en el modelo de Black y Scholes. En efecto, sabemos que
existe una probabilidad Q respecto de la cual el proceso
W
t
= B
t
+
r

t
es un movimiento browniano, y por tanto, una martingala. Esta pro-
babilidad viene dada por la densidad
dQ
dP
= e

Bt
1
2
(
r

)
2
t
.
Observemos que
dQ
dP
> 0, lo cual implica la equivalencia de las proba-
bilidades P y Q, y en consecuencia, Q es una probabilidad neutra.
En funcion del proceso W
t
los precios se escriben
S
t
= S
0
exp
_
rt

2
2
t +W
t
_
,
y los precios actualizados seran martingala:

S
t
= e
rt
S
t
= S
0
exp
_

2
2
t +W
t
_
.
Por lo tanto, trabajar con la probabilidad neutra Q, es equivalente
a suponer = r.
3. CAMBIOS DE PROBABLIDAD: TEOREMA DE GIRSANOV 157
El valor actualizado de una cartera autonanciada valdra
(12.3.5)

V
t
() = V
0
() +
_
t
0

u
d

S
u
,
y sera una martingala respecto de Q si
(12.3.6)
_
T
0
E
Q
(
2
u

S
2
u
)du < .
Observemos que una tal cartera no puede ser un arbitraje ya que si su
valor inicial es nulo, entonces,
E
Q
_

V
T
()
_
= V
0
() = 0.
Por lo tanto, QV
T
() = 0 = 0, y por la equivalencia entre las proba-
bilidades P y Q, obtenemos PV
T
() = 0 = 0.
Consideremos un contrato derivado sobre el activo nanciero que
permita hacer un benecio a su propietario dado por una variable alea-
toria h 0, T
T
-medible y de cuadrado integrable respecto de Q. El
tiempo T sera la fecha de vencimiento del contrato.
Sabemos, por la completitud del modelo de Black y Scholes que tal
derivado es replicable, es decir, existe una cartera autonanciada que
cumple (12.3.6) y replica el derivado, o sea, V
T
() = h.
En esta situacion, el precio del derivado en cualquier instante t T
se determina como el valor de una cartera replicadora, y vendra dado
por la formula
(12.3.7) V
t
() = E
Q
(e
r(Tt)
h[T
t
),
que se deduce de la propiedad de martingala de

V
t
() respecto de Q:
E
Q
(e
rT
h[T
t
) = E
Q
(

V
T
()[T
t
) =

V
t
() = e
rt
V
t
().
En particular,
V
0
() = E
Q
(e
rT
h).
Consideremos el caso particular h = g(S
T
). Para calcular el valor
del derivado en este ejemplo necesitamos el resultado siguiente:
Lema 4. Consideremos dos variables aleatorias X, Y , en un es-
pacio de probabilidad (, T, P) y una -algebra ( T. Supongamos
que X es (-medible e Y es independiente de (. Entonces, la esperanza
condicionada respecto de ( de la variable integrable f(X, Y ) se calcula
de la forma siguiente
E(f(X, Y )[() = F(X),
158 12. F

ORMULA DE IT

O
donde F(x) = E(f(x, Y )).
Aplicando el lema anterior obtenemos que el valor del derivado en
el instante t sera
V
t
= E
Q
_
e
r(Tt)
g(S
T
)[T
t
_
= e
r(Tt)
E
Q
_
g(S
t
e
r(Tt)
e
(W
T
Wt)
2
/2(Tt)
)[T
t
_
.
Por lo tanto,
(12.3.8) V
t
= F(t, S
t
),
donde
(12.3.9) F(t, x) = e
r(Tt)
E
Q
_
g(xe
r(Tt)
e
(W
T
Wt)
2
/2(Tt)
)
_
.
Bajo hipotesis muy generales sobre g (por ejemplo si es continua y
derivable a trozos) que incluyen, en particular, las funciones
g(x) = (x K)
+
,
g(x) = (K x)
+
,
la funcion F(t, x) es derivable respecto de t y dos veces derivable res-
pecto de x, con todas las derivadas parciales continuas. Supondremos
que existe una funcion F(t, x) de este tipo tal que se cumple (12.3.8).
Entonces, aplicando la formula de Ito a (12.3.8) se obtiene
V
t
= V
0
+
_
t
0

F
x
(u, S
u
)S
u
dW
u
+
_
t
0
r
F
x
(u, S
u
)S
u
du
+
_
t
0
F
t
(u, S
u
)du +
1
2
_
t
0

2
F
x
2
(u, S
u
)
2
S
2
u
du
= V
0
+
_
t
0

F
x
(u, S
u
)S
u
dW
u
+
_
t
0
K
u
du. (12.3.10)
Por otro lado, a partir de la expresion V
t
= e
rt

V
t
, y utilizando (12.3.5)
se obtiene
dV
t
= rV
t
dt +e
rt
d

V
t
= rV
t
dt +e
rt

t
d

S
t
= rV
t
dt +
t
S
t
dW
t
,
es decir, V
t
es un proceso de Ito con representacion
(12.3.11) V
t
= V
0
+
_
t
0

u
S
u
dW
u
+
_
t
0
rV
u
du.
3. CAMBIOS DE PROBABLIDAD: TEOREMA DE GIRSANOV 159
Comparando las dos expresiones (12.3.10) y (12.3.11) se deduce

t
=
F
x
(t, S
t
),
rF(t, S
t
) =
F
t
(t, S
t
) +
1
2

2
S
2
t

2
F
x
2
(t, S
t
)
+rS
t
F
x
(t, S
t
).
El soporte de la ley de probabilidad de la variable aleatoria S
t
es [0, ).
Per tanto, estas igualdades nos dicen que F(t, x) satisface la ecuacion
F
t
(t, x) +rx
F
x
(t, x) +
1
2

2
F
x
2
(t, x)
2
x
2
= rF(t, x), (12.3.12)
F(T, x) = g(x).
Esta es denominada ecuacion en derivadas parciales de Black-Scholes.
Por otra parte, la cartera recubridora sera

t
=
F
x
(t, S
t
),

t
= e
rt
(F(t, S
t
)
t
S
t
) .
La formula (12.3.9) puede escribirse como
F(t, x) = e
r(Tt)
E
Q
_
g(xe
r(Tt)
e
(W
T
Wt)
2
/2(Tt)
)
_
= e
r
1

2
_

g(xe
r

2
2
+

y
)e
y
2
/2
dy,
donde = T t. En el caso particular de una opcion de compra europea
de precio de ejercicio K y vencimiento T, g(x) = (xK)
+
, se obtiene
F(t, x) =
1

2
_

e
y
2
/2
_
xe

2
2
+

y
Ke
r
_
+
dy.
= x(d
+
) Ke
r(Tt)
(d

),
Esta integral puede calcularse a partir de la funcion de distribucion de
la ley normal N(0, 1):
(x) =
1

2
_
x

e
y
2
/2
dy.
En efecto, en primer lugar, cambiamos y por y:
F(t, x) =
1

2
_

e
y
2
/2
_
xe

2
2

y
Ke
r
_
+
dy.
160 12. F

ORMULA DE IT

O
Observemos que la cantidad
_
xe

2
2

y
Ke
r
_
+
se anula si y solo
si
xe

2
2

y
Ke
r
,
es decir,
y
log
x
K
+
_
r

2
2
_

:= d

.
Por lo tanto,
F(t, x) =
1

2
_
d

e
y
2
/2
_
xe

2
2

y
Ke
r
_
dy
= x
1

2
_
d

1
2
(y+

)
2
Ke
r
1

2
_
d

e
y
2
/2
dy
= x(d
+
) Ke
r(Tt)
(d

),
donde
d
+
=
log
x
K
+
_
r +

2
2
_

.
Por tanto, el precio en el instante t sera
C
t
= F(t, S
t
).
La composicion de la cartera de cobertura sera

t
=
F
x
(t, S
t
) = (d
+
).
CAPTULO 13
Ecuaciones diferenciales estocasticas
Queremos resolver ecuaciones diferenciales del tipo
(13.0.13) dX
t
= b(t, X
t
)dt +(t, X
t
)dB
t
.
Los coecientes b(t, x) y (t, x) se denominan, respectivamente, coe-
ciente de deriva y coeciente de difusion. Si el coeciente de difusion
se anula, entonces, tendremos una ecuacion diferencial ordinaria:
dX
t
dt
= b(t, X
t
),
que puede resolverse, si conocemos la condicion inicial X
0
. Por ejemplo,
en el caso lineal b(t, x) = b(t)x, la solucion es
X
t
= X
0
e

t
0
b(s)ds
.
Una interpretacion heurstica de la ecuacion diferencial (13.0.13)
sera la siguiente. El incremento X
t
= X
t+t
X
t
se expresa apro-
ximadamente como una suma de b(t, X
t
)t mas un termino que de-
pende del incremento del movimiento browniano: (t, X
t
)B
t
y que se
interpreta como un impulso aleatorio. Por tanto, el incremento X
t
tendra, aproximadamente, una ley normal de media b(t, X
t
)t y va-
rianza (t, X
t
)
2
t.
Una ecuacion diferencial del tipo (13.0.13) se denomina una ecua-
cion diferencial estocastica. La formalizacion de estas ecuaciones se
realiza transformandolas en ecuaciones integrales y utilizando integra-
les estocasticas:
(13.0.14) X
t
= X
0
+
_
t
0
b(s, X
s
)ds +
_
t
0
(s, X
s
)dB
s
.
Por tanto, la solucion sera un proceso de Ito X
t
, t 0. Los proce-
sos que satisfacen ecuaciones diferenciales estocasticas se denominan
procesos de difusion.
El resultado fundamental sobre la existencia y unicidad de solucio-
nes es el siguiente:
161
162 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
Teorema 13.1. Fijemos un intervalo de tiempo [0, T]. Supongamos
que los coecientes de la ecuacion (13.0.13) verican:
[b(t, x) b(t, y)[ D
1
[x y[ (13.0.15)
[(t, x) (t, y)[ D
2
[x y[ (13.0.16)
[b(t, x)[ C
1
(1 +[x[) (13.0.17)
[(t, x)[ C
2
(1 +[x[), (13.0.18)
para todo x, y R, t [0, T]. Supongamos que X
0
es una variable
aleatoria independiente de la -algebra T
T
generada por el movimiento
browniano en [0, T], tal que E(X
2
0
) < . Entonces, existe un unico
proceso X
t
, t [0, T] continuo, adaptado, solucion de (13.0.14) y tal
que
E
__
T
0
[X
s
[
2
ds
_
< .
Observaciones:
1.-: Este resultado es cierto en dimension superior, cuando B
t
es un movimiento browniano m-dimensional, la solucion X
t
es un proceso estocastico n-dimensional, y los coecientes son
funciones b : [0, T] R
n
R
n
, : [0, T] R
n
R
nm
.
2.-: La condicion de crecimiento lineal (13.0.17,13.0.18) garan-
tiza que la solucion no explota antes del tiempo nal T. Por
ejemplo, la ecuacion diferencial determinista
dX
t
dt
= X
2
t
, X
0
= 1,
tiene por unica solucion la funcion
X
t
=
1
1 t
, 0 t < 1,
que diverge en el instante t = 1.
3.-: La condicion de Lipschitz (13.0.15,13.0.16) garantiza que no
exista mas de una solucion. Por ejemplo, la ecuacion diferencial
determinista
dX
t
dt
= 3X
2/3
t
, X
0
= 0,
tiene innitas soluciones ya que para cada a > 0, la funcion
X
t
=
_
0 si t a
(t a)
3
si t > a
es solucion. En este ejemplo la funcion b(x) = 3x
2/3
no cumple
la condicion de Lipschitz ya que la derivada de b no esta aco-
tada.
13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS 163
4.-: Si los coecientes b(t, x) y (t, x) son diferenciables en la
variable x, la condicion de Lipschitz signica que las derivadas
parciales
b
x
y

x
estan acotadas por las constantes D
1
y D
2
,
respectivamente.
0.2. Soluciones explcitas de ecuaciones diferenciales es-
tocasticas. La formula de Ito permite resolver explcitamente algunas
ecuaciones diferenciales estocasticas. Veamos algunos ejemplos.
A): Ecuaciones lineales. El movimiento browniano geometrico
X
t
= X
0
e

2
2

t+Bt
satisface la ecuacion lineal
dX
t
= X
t
dt +X
t
dB
t
.
Mas generalmente, la solucion de la ecuacion lineal homogenea
dX
t
= b(t)X
t
dt +(t)X
t
dB
t
donde b(t) y (t) son funciones continuas, sera
X
t
= X
0
exp
_
_
t
0
_
b(s)
1
2

2
(s)
_
ds +
_
t
0
(s)dB
s
_
.
Aplicaci on: El modelo de Black-Scholes para la curva de pre-
cios de un activo nanciero con coecientes dependientes del
tiempo (t) y (t) > 0 sera en forma diferencial,
dS
t
= S
t
((t)dt +(t)dB
t
),
cuya solucion es
S
t
= S
0
exp
__
t
0
_
(s)
1
2

2
(s)
_
ds +
_
t
0
(s)dB
s
_
.
Si el tipo de interes tambien es una funcion r(t) continua del
tiempo, existira una probabilidad neutra respecto de la cual
W
t
= B
t
+
_
t
0
(s) r(s)
(s)
ds
es un movimiento browniano y los precios actualizados

S
t
=
S
t
e

t
0
r(s)ds
seran martigalas:

S
t
= S
0
exp
__
t
0
(s)dW
s

1
2
_
t
0

2
(s)ds
_
.
164 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
De esta forma se puede deducir una generalizacion de la formu-
la de Black y Scholes para parametros dependientes del tiem-
po, en la cual
2
y r se substituyen por

2
=
1
T t
_
T
t

2
(s)ds,
R =
1
T t
_
T
t
r(s)ds.
B): El proceso de Ornstein-Uhlenbeck. Consideremos la ecuacion
diferencial estocastica
dX
t
= a (mX
t
) dt +dB
t
X
0
= x,
donde a, > 0 y m es un n umero real. Como se trata de una
ecuacion lineal no homogenea, utilizaremos el metodo de varia-
cion de las constantes. La solucion de la ecuacion homogenea
dx
t
= ax
t
dt
x
0
= x
es x
t
= xe
at
. Entonces hacemos el cambio de variable X
t
=
Y
t
e
at
, es decir, Y
t
= X
t
e
at
. El proceso Y
t
satisface
dY
t
= aX
t
e
at
dt +e
at
dX
t
= ame
at
dt +e
at
dB
t
.
Por tanto,
Y
t
= x +m(e
at
1) +
_
t
0
e
as
dB
s
,
lo que implica
X
t
= m + (x m)e
at
+e
at
_
t
0
e
as
dB
s
.
13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS 165
El proceso estocastico X
t
es gaussiano. La media y la autoco-
varianza del proceso X
t
pueden calcularse facilmente:
E(X
t
) = m + (x m)e
at
,
Cov(X
t
, X
s
) =
2
e
a(t+s)
E
___
t
0
e
ar
dB
r
___
s
0
e
ar
dB
r
__
=
2
e
a(t+s)
_
s
0
e
2ar
dr
=

2
2a
e
a(t+s)
_
e
2as
1
_
=

2
2a
_
e
a(ts)
e
a(t+s)
_
,
si s t. En particular, la varianza de la variable X
t
vale
Var(X
t
) =

2
2a
_
1 e
2at
_
.
La distribucion de X
t
cuando t tiende a innito converge hacia
la ley normal
= N(m,

2
2a
).
Esta ley se denomina la ley invariante o estacionaria. Si su-
ponemos que la condicion inicial X
0
es una variable aleatoria
independiente del movimiento browniano con ley normal ,
entonces, para cada t > 0 la ley de X
t
sera tambien . En
efecto,
X
t
= m + (X
0
m)e
at
+e
at
_
t
0
e
as
dB
s
y por lo tanto,
E(X
t
) = m + (E(X
0
) m)e
at
= m,
VarX
t
= e
2at
VarX
0
+
2
e
2at
E
_
__
t
0
e
as
dB
s
_
2
_
=

2
2a
.
Ejemplos de aplicaci on de este modelo:
1. Modelo de Vasicek para el tipo de interes r(t):
(13.0.19) dr(t) = a(b r(t ))dt + dB
t
,
donde a, b y son constantes. Supongamos que trabaja-
mos con la probabilidad de riesgo neutro, lo cual quiere
166 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
decir que el precio actualizado del bono con vencimiento
T
_
e

t
0
r(s)ds
P(t, T), 0 t T
_
es una martingala. Como P(T, T) = 1, obtenemos la
formula siguiente para el precio en el instante t de un
bono con vencimiento T
(13.0.20) P(t, T) = E
_
e

T
t
r(s)ds
[T
t
_
.
La formula (13.0.20) se deduce de la propiedad P(T, T) =
1 y de que suponemos que el precio actualizado del bono
e

t
0
r(s)ds
P(t, T) es una martingala.
Resolviendo la ecuacion diferencial estocastica (13.0.19)
entre los instantes t y s, s t, se obtiene
r(s) = r(t)e
a(st)
+b(1 e
a(st)
) +e
as
_
s
t
e
ar
dB
r
.
De esta formula se deduce que la ley de probabilidad de la
variable
_
T
t
r(s)ds condicionada por T
t
es una ley normal
de media
(13.0.21) (r(t) b)
1 e
a(Tt)
a
+b(T t)
y varianza
(13.0.22)

2
2a
3
_
1 e
a(Tt)
_
2
+

2
a
2
_
(T t)
1 e
a(Tt)
a
_
.
Esto nos conduce a la siguiente formula para el precio de
los bonos:
(13.0.23) P(t, T) = A(t, T)e
B(t,T)r(t)
,
donde
B(t, T) =
1 e
a(Tt)
a
,
A(t, T) = exp
_
(B(t, T) T +t) (a
2
b
2
/2)
a
2


2
B(t, T)
2
4a
_
.
2. Modelo de Black y Scholes con volatilidad estocastica. Se
supone que la volatilidad (t) = f(Y
t
) es una funcion de
un proceso de Ornstein-Uhlenbeck:
dS
t
= S
t
(dt +f(Y
t
)dB
t
)
dY
t
= a (mY
t
) dt +dW
t
,
13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS 167
donde B
t
y W
t
son dos movimientos brownianos que pue-
den estar correlacionados:
E(B
t
W
s
) = (s t).
C): Consideremos una ecuacion diferencial estocastica del tipo
(13.0.24) dX
t
= f(t, X
t
)dt +c(t)X
t
dB
t
, X
0
= x,
donde f(t, x) y c(t) son funciones deterministas continuas, ta-
les que f satisface las condiciones de crecimiento lineal y pro-
piedad de Lipschitz en la variable x. Esta ecuacion se puede
resolver siguiendo los pasos siguientes:
a): Se considera el factor integrante
F
t
= exp
_

_
t
0
c(s)dB
s
+
1
2
_
t
0
c
2
(s)ds
_
,
tal que F
1
t
es solucion de la ecuacion (13.0.24) si f = 0
y x = 1. El proceso Y
t
= F
t
X
t
cumple
(13.0.25) dY
t
= F
t
f(t, F
1
t
Y
t
)dt, Y
0
= x.
En efecto,
dY
t
= F
t
dX
t
+X
t
dF
t
+d X
t
, F
t
)
= F
t
(f(t, X
t
)dt +c(t)X
t
dB
t
)
+X
t
F
t
(c(t)dB
t
+
1
2
c(t)
2
dt +
1
2
c(t)
2
dt
c(t)
2
X
t
F
t
= F
t
f(t, X
t
)dt.
b): La ecuacion (13.0.25) es una ecuacion diferencial deter-
minista, parametrizada por , que podra resolverse
mediante metodos habituales.
Por ejemplo, supongamos que f(t, x) = f(t)x. En tal caso
la ecuacion (13.0.25) es
dY
t
= f(t)Y
t
dt,
de lo que se deduce
Y
t
= x exp
__
t
0
f(s)ds
_
y, por lo tanto,
X
t
= x exp
_
_
t
0
f(s)ds +
_
t
0
c(s)dB
s

1
2
_
t
0
c
2
(s)ds
_
.
168 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
D): Ecuacion diferencial estocastica lineal general. Considere-
mos la ecuacion
dX
t
= (a(t) +b(t)X
t
) dt + (c(t) +d(t)X
t
) dB
t
,
con condicion inicial X
0
= x, donde a, b, c y d son funciones
continuas. Utilizando el metodo de variacion de las constantes
propondremos una solucion de la forma
(13.0.26) X
t
= U
t
V
t
donde
dU
t
= b(t)U
t
dt +d(t)U
t
dB
t
y
dV
t
= (t)dt +(t)dB
t
,
con U
0
= 1 y V
0
= x. Por el apartado C) sabemos que
U
t
= exp
__
t
0
b(s)ds +
_
t
0
d(s)dB
s

1
2
_
t
0
d
2
(s)ds
_
.
Por otra parte, diferenciando la igualdad (13.0.26) obtenemos
a(t) = U
t
(t) +(t)d(t)U
t
c(t) = U
t
(t)
es decir
(t) = c(t) U
1
t
(t) = [a(t) c(t)d(t)] U
1
t
.
Finalmente,
X
t
= U
t
_
x +
_
t
0
[a(s) c(s)d(s)] U
1
s
ds +
_
t
0
c(s) U
1
s
dB
s
_
Yamada y Watanabe demostraron en 1971 que la condicion de Lips-
chitz poda debilitarse de la forma siguiente, en el caso de ecuaciones
diferenciales estocasticas unidimensionales. Supongamos que los coe-
cientes b y no dependen del tiempo, el coeciente b es Lipschitz, pero
el coeciente satisface la condicion de Holder
[(x) (y)[ D[x y[

,
donde
1
2
. En tal caso existe una unica solucion de la ecuacion.
Por ejemplo, la ecuacion
_
dX
t
= [X
t
[
r
dB
t
X
0
= 0
13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS 169
tiene una solucion unica si r 1/2.
Ejemplo: Modelo de Cox-Ingersoll-Ross para el tipo de interes:
dr(t) = a(b r(t))dt +
_
r(t)dW
t
.
0.3. Aproximaciones numericas. Muchas ecuaciones diferen-
ciales estocasticas no pueden resolverse explcitamente. Por ello es con-
veniente disponer de metodos numericos que permiten la simulacion de
soluciones.
Consideremos la ecuacion diferencial estocastica con coecientes in-
dependientes del tiempo
(13.0.27) dX
t
= b(X
t
)dt +(X
t
)dB
t
,
con condicion inicial X
0
= x.
Fijemos un intervalo de tiempo [0, T] y consideremos la subdivision
formada por los puntos
t
i
=
iT
n
, i = 0, 1, . . . , n.
La longitud de cada subintervalo sera
n
=
T
n
.
El metodo de Euler consiste en el esquema recursivo siguiente:
X
(n)
(t
i
) = X
(n)
(t
i1
) +b(X
(n)
(t
i1
))
n
+(X
(n)
(t
i1
))B
i
,
i = 1, . . . , n, donde B
i
= B
t
i
B
t
i1
. El valor inicial sera X
(n)
0
= x.
En los puntos de cada intervalo (t
i1
, t
i
) el valor del proceso X
(n)
se
deduce por interpolacion lineal. El proceso X
(n)
es una funcion del
movimiento browniano y podemos medir el error comerido al aproximar
X por X
(n)
:
e
n
=

E
_
_
X
T
X
(n)
T
_
2
_
.
Puede demostrarse que e
n
es del orden
1/2
n
es decir,
e
n
c
1/2
n
si n n
0
.
Para simular una solucion mediante el metodo de Euler, basta con
obtener valores de n variables aleatorias
1
, . . . .,
n
independientes con
ley N(0, 1), y substituir B
i
por

i
.
El metodo de Euler puede mejorarse mediante una correccion adi-
cional. Esto nos lleva a introducir el metodo de Milstein.
170 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
El valor exacto del incremento entre dos puntos de la particion es
(13.0.28) X(t
i
) = X(t
i1
) +
_
t
i
t
i1
b(X
s
)ds +
_
t
i
t
i1
(X
s
)dB
s
.
En el metodo de Euler se basa en aproximar las integrales de la forma
siguiente:
_
t
i
t
i1
b(X
s
)ds b(X(t
i1
))
n
,
_
t
i
t
i1
(X
s
)dB
s
(X(t
i1
))B
i
.
En el metodo de Milstein, aplicaremos la formula de Ito a los procesos
b(X
s
) y (X
s
) que aparecen en (13.0.28), con objeto de obtener una
aproximacion mejor. De esta forma obtenemos
X(t
i
) X(t
i1
)
=
_
t
i
t
i1
_
b(X(t
i1
)) +
_
s
t
i1
_
bb

+
1
2
b

2
_
(X
r
)dr +
_
s
t
i1
(b

) (X
r
)dB
r
_
ds
+
_
t
i
t
i1
_
(X(t
i1
)) +
_
s
t
i1
_
b

+
1
2

2
_
(X
r
)dr +
_
s
t
i1
(

) (X
r
)dB
r
_
dB
s
= b(X(t
i1
))
n
+(X(t
i1
))B
i
+R
i
.
El termino dominante en el resto es la integral estocastica doble
_
t
i
t
i1
__
s
t
i1
(

) (X
r
)dB
r
_
dB
s
,
y puede demostrarse que las demas componentes del resto son de orde-
nes inferiores y pueden despreciarse. La integral estocastica doble pue-
de, a su vez, aproximarse por
(

) (X(t
i1
))
_
t
i
t
i1
__
s
t
i1
dB
r
_
dB
s
.
Las reglas del calculo estocastico nos permiten calcular la integral doble
que nos queda:
_
t
i
t
i1
__
s
t
i1
dB
r
_
dB
s
=
_
t
i
t
i1
_
B
s
B
t
i1
_
dB
s
=
1
2
_
B
2
t
i
B
2
t
i1
_
B
t
i1
_
B
t
i
B
t
i1
_

n
=
1
2
_
(B
i
)
2

.
13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS 171
En conclusion, el metodo de Milstein consiste en el sistema recursivo
siguiente
X
(n)
(t
i
) = X
(n)
(t
i1
) +b(X
(n)
(t
i1
))
n
+(X
(n)
(t
i1
)) B
i
+
1
2
(

) (X
(n)
(t
i1
))
_
(B
i
)
2

.
Puede demostarse que el error e
n
es del orden
n
es decir,
e
n
c
n
si n n
0
.
0.4. Propiedad de Markov. Consideremos un proceso de difu-
sion n-dimensional X
t
, t 0 que satisface una ecuacion diferencial
estocastica del tipo
(13.0.29) dX
t
= b(t, X
t
)dt + (t, X
t
)dB
t
,
donde B es un movimiento browniano m-dimensional y los coecientes
b y son funciones que satisfacen las hipotesis del Teorema 13.1.
Seguidamente demostraremos que los procesos de difusion satisfa-
cen la propiedad de Markov. Esta propiedad nos dice que el comporta-
miento futuro del proceso, conociendo la informacion hasta el instante
t solo depende del valor del proceso en el instante presente, X
t
.
Definici on 13.1. Diremos que un proceso estocastico n-dimensional
X
t
, t 0 es un proceso de Markov si para todo s < t se tiene
(13.0.30) E(f(X
t
)[X
r
, r s) = E(f(X
t
)[X
s
),
para toda funcion medible y acotada f en R
n
.
En particular, la propiedad (13.0.30) nos dice que para todo bore-
liano C B
R
n se cumple
P(X
t
C[X
r
, r s) = P(X
t
C[X
s
).
La ley de probabilidad de los procesos de Markov se caracteriza
mediante las denominadas probabilidades de transicion:
P(C, t, x, s) = P(X
t
C[X
s
= x),
donde 0 s < t, C B
R
n y x R
n
. Es decir, P(, t, x, s) es la ley
de probabilidad de la variable X
t
condicionada por X
s
= x. Si esta ley
condicionada tiene densidad, la designaremos por p(y, t, x, s).
172 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
Por tanto, que X
t
sea un proceso de Markov con probabilidades
de transicion P(, t, x, s), signica que para todo 0 s < t, C B
R
n
tenemos
P(X
t
C[X
r
, r s) = P(C, t, X
s
, s).
Por ejemplo, el movimiento browniano real B
t
es un proceso de Markov
con probabilidades de transicion dadas por
p(y, t, x, s) =
1
_
2(t s)
e

(xy)
2
2(ts)
.
En efecto,
P(B
t
C[T
s
) = P(B
t
B
s
+B
s
C[T
s
)
= P(B
t
B
s
+x C)[
x=Bs
,
ya que B
t
B
s
es independiente de T
s
. Por tanto, P(, t, x, s) es una
ley normal N(x, t s).
Designaremos por X
s,x
t
, t s la solucion de la ecuacion diferencial
estocastica (13.0.29) en el intervalo de tiempo [s, ) y con condicion
inicial X
s,x
s
= x. Si s = 0, escribiremos X
0,x
t
= X
x
t
.
Puede demostrarse que existe una version continua en los tres parame-
tros del proceso estocastico
X
s,x
t
, 0 s t, x R
n
.
Por otra parte, para cada 0 s t se cumple la siguiente propiedad:
(13.0.31) X
x
t
= X
s,X
x
s
t
En efecto, X
x
t
para t s satisface la ecuacion diferencial estocastica
X
x
t
= X
x
s
+
_
t
s
b(u, X
x
u
)du +
_
t
s
(u, X
x
u
)dB
u
.
Por otra parte, X
s,y
t
verica
X
s,y
t
= y +
_
t
s
b(u, X
s,y
u
)du +
_
t
s
(u, X
s,y
u
)dB
u
y substituyendo y por X
x
s
obtenemos que los procesos X
x
t
y X
s,X
x
s
t
son
soluciones de la misma ecuacion en el intervalo [s, ) con condicion
inicial X
x
s
. Por la unicidad de soluciones deben coincidir.
1. F

ORMULA DE FEYNMAN-KAC 173


Teorema 13.2 (Propiedad de Markov de las difusiones). Sea f
una funcion medible y acotada denida en R
n
. Entonces, para cada
0 s < t tendremos
E [f(X
t
)[T
s
] = E [f(X
s,x
t
)] [
x=Xs
.
Demostraci on: Tenemos, utilizando (13.0.31) y las propiedades de la
esperanza condicionada:
E [f(X
t
)[T
s
] = E
_
f(X
s,Xs
t
)[T
s
_
= E [f(X
s,x
t
)] [
x=Xs
,
ya que el proceso X
s,x
t
, t s, x R
n
es independiente de T
s
y la variable
X
s
es medible respecto de T
s
.
Este teorema nos dice que los procesos de difusion tienen la propie-
dad de Markov y sus probabilidades de transicion son
P(C, t, x, s) = P(X
s,x
t
C).
Si el proceso de difusion es homogeneo en el tiempo, la propiedad
de Markov se escribe
E [f(X
t
)[T
s
] = E
_
f(X
x
ts
)

[
x=Xs
.
Ejemplo. Calculemos las probabilidades de transicion del proceso
de Ornstein-Uhlenbeck. Para ello debemos resolver la ecuacion
dX
t
= a (mX
t
) dt +dB
t
en el intervalo [s, ) con condicion inicial x. La solucion es:
X
s,x
t
= m + (x m)e
a(ts)
+e
at
_
t
s
e
ar
dB
r
y, por lo tanto, P(, t, x, s) = L(X
s,x
t
) es una ley normal de parametros
E (X
s,x
t
) = m + (x m)e
a(ts)
,
VarX
s,x
t
=
2
e
2at
_
t
s
e
2ar
dr =

2
2a
(1 e
2a(ts)
).
1. F ormula de Feynman-Kac
Consideremos un proceso de difusion n-dimensional X
t
, t 0 que
satisface una ecuacion diferencial estocastica del tipo
dX
t
= b(t, X
t
)dt + (t, X
t
)dB
t
.
donde B es un movimiento browniano m-dimensional. Supondremos
que los coecientes b y satisfacen las hipotesis del Teorema 13.1 y
que X
0
es constante.
174 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
Podemos asociar a un proceso de difusion un operador diferencial
de segundo orden. Dicho operador, que denotaremos por A
s
, s 0, se
denomina el generador de la difusion, y se dene por
(13.1.1) A
s
f(x) =

n
i=1
b
i
(s, x)
f
x
i
+
1
2

n
i,j=1
(

)
i,j
(s, x)

2
f
x
i
x
j
.
En esta expresion f es una funcion en R
n
dos veces derivable con de-
rivadas parciales continuas (de clase C
1,2
). La matriz (

) (s, x) es
simetrica y semidenida positiva:
(

)
i,j
(s, x) =
n

k=1

i,k
(s, x)
j,k
(s, x).
La relacion entre el operador A
s
y la difusion viene dada por la
siguiente propiedad, consecuencia de la formula de Ito: Si f(t, x) es
una funcion de clase C
1,2
, entonces, f(t, X
t
) es un proceso de Ito con
diferencial
df(t, X
t
) =
_
f
t
(t, X
t
) +A
t
f(t, X
t
)
_
dt (13.1.2)
+
n

i=1
m

j=1
f
x
i
(t, X
t
)
i,j
(t, X
t
)dB
j
t
.
Por consiguiente, si se cumple
(13.1.3) E
_
_
t
0

f
x
i
(s, X
s
)
i,j
(s, X
s
)

2
ds
_
<
para cada t > 0 y cada i, j, el proceso
(13.1.4) M
t
= f(t, X
t
)
_
t
0
_
f
s
+A
s
f
_
(s, X
s
)ds
sera una martingala. Una condicion suciente para (13.1.3) es que las
derivadas parciales
f
x
i
tengan crecimiento polinomial, es decir,
(13.1.5)

f
x
i
(s, x)

C(1 +[x[
N
).
En particular si f satisface la ecuacion
f
t
+ A
t
f = 0 y se cumple
(13.1.5), entonces f(t, X
t
) es una martingala.
La propiedad de martingala de este proceso nos permite dar una
interpretacion probabilista de la solucion de una ecuacion parabolica
con condicion terminal jada. Si la funcion f(t, x) satisface
f
t
+A
t
f = 0
f(T, x) = g(x)
_
1. F

ORMULA DE FEYNMAN-KAC 175


en [0, T] R
n
, entonces
f(t, x) = E(g(X
t,x
T
))
casi por todo respecto de la ley de X
t
. En efecto, la propiedad de
martingala del proceso f(t, X
t
) implica
f(t, X
t
) = E(f(T, X
T
)[X
t
) = E(g(X
T
)[X
t
) = E(g(X
t,x
T
))[
x=Xt
.
Consideremos una funcion q(x) continua y acotada inferiormente.
Entonces, aplicando de nuevo la formula de Ito puede demostrarse que,
si la funcion f es de clase C
1,2
y cumple la las condicion (13.1.5), el
proceso
M
t
= e

t
0
q(Xs)ds
f(t, X
t
)
_
t
0
e

s
0
q(Xr)dr
_
f
s
+A
s
f qf
_
(s, X
s
)ds
es una martingala. En efecto,
dM
t
= e

t
0
q(Xs)ds
n

i=1
m

j=1
f
x
i
(t, X
t
)
i,j
(t, X
t
)dB
j
t
.
Si la funcion f satisface la ecuacion
f
s
+A
s
f qf = 0 entonces,
(13.1.6) e

t
0
q(Xs)ds
f(t, X
t
)
sera una martingala.
Supongamos que f(t, x) satisface
f
t
+A
t
f qf = 0
f(T, x) = g(x)
_
en [0, T] R
n
. Entonces,
(13.1.7) f(t, x) = E
_
e

T
t
q(X
t,x
s
)ds
g(X
t,x
T
)
_
.
En efecto, la propiedad de martingala del proceso (13.1.6) implica
f(t, X
t
) = E
_
e

T
t
q(Xs)ds
f(T, X
T
)[T
t
_
.
Finalmente, la propiedad de Markov nos permite escribir
E
_
e

T
t
q(Xs)ds
f(T, X
T
)[T
t
_
= E
_
e

T
t
q(X
t,x
s
)ds
g(X
t,x
T
)
_
[
x=Xt
.
La formula (13.1.7) se denomina formula de Feynman-Kac.
176 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
Ejemplo. Consideremos el model de Black y Scholes respecto de
la probabilidad con riesgo neutro
dS
t
= r(t, S
t
)S
t
dt +(t, S
t
)S
t
dW
t
,
donde el tipo de interes y la volatilidad pueden depender del tiempo y
del precio del subyacente. Consideremos un derivado que produece un
benecio g(S
T
) en el vencimiento T. El valor del derivado en el instant
t se calcula mediante la formula
V
t
= E
_
e

T
t
r(s,Ss)ds
g(S
T
)[T
t
_
.
La propiedad de Markov implica que
V
t
= f(t, S
t
),
donde
f(t, x) = E
_
e

T
t
r(s,S
t,x
s
)ds
g(S
t,x
T
)
_
.
Entonces, la formula de Feynman-Kac nos dice que la funcion f(t, x)
satisface la ecuacion en derivadas parciales de tipo parabolico con con-
dicion terminal:
f
t
+r(t, x)x
f
x
+
1
2

2
(t, x)x
2

2
f
x
2
r(t, x)f = 0,
f(T, x) = g(x)
1.1. Procesos de difusi on y ecuaciones en derivadas par-
ciales. Existe una relacion interesante entre procesos de difusion y
ecuaciones en derivadas parciales. En general, los procesos de difusion
permiten dar interpretaciones probabilistas de ecuaciones en derivadas
parciales de segundo orden.
Consideremos el siguiente ejemplo sencillo. Si B
t
es un movimiento
browniano, y f es una funcion continua y con crecimiento polinomial,
la funcion
u(t, x) = E(f(B
t
+x))
satisface la ecuacion de la calor:
(13.1.8)
u
t
=
1
2

2
u
x
2
,
con condicion inicial u(0, x) = f(x). Esto es debido a que podemos
escribir
E(f(B
t
+x)) =
_

f(y)
1

2t
e

(xy)
2
2t
dy,
y la funcion
1

2t
e

(xy)
2
2t
para cada y jo, satisface la ecuacion (13.1.8).
1. F

ORMULA DE FEYNMAN-KAC 177


La funcion x u(t, x) representa la distribucion de temperatu-
ras en una barra de longitud innita, suponiendo un perl inicial de
temperaturas dado por la funcion f(x).
Este resultado puede generalizarse a difusiones homogeneas en el
tiempo, es decir, tales que los coecientes no dependen del tiempo. En
tal caso, el generador A no depende del tiempo y vale:
(13.1.9) Af(x) =
n

i=1
b
i
(x)
f
x
i
+
1
2
n

i,j=1
(

)
i,j
(x)

2
f
x
i
x
j
.
Tomando esperanzas en laformula (13.1.2) y suponiendo X
0
= x obte-
nemos
(13.1.10) E [f(X
x
t
)] = f(x) +
_
t
0
E [Af(X
x
s
)] ds.
Consideremos la funcion
(13.1.11) u(t, x) = E [f(X
x
t
)].
La formula (13.1.10) nos dice que esta funcion es diferenciable y satis-
face la siguiente ecuacion
u
t
= E [Af(X
x
t
)] .
El termino E [Af(X
x
t
)] puede tambien expresarse en funcion de u. Para
ello necesitamos introducir el dominio del generador de la difusion:
Definici on 13.2. El dominio T
A
del generador de la difusion X
t

es el conjunto de funciones f : R
n
R tales que el lmite siguiente
existe para todo x R
n
(13.1.12) Af(x) = lm
t0
E [f(X
x
t
)] f(x)
t
.
La expresion (13.1.10) nos dice que C
2
0
(R
n
) T
A
y para toda
funcion f C
2
0
(R
n
), el lmite (13.1.12) es igual a al valor Af dado
por (13.1.9).
El siguiente resultado nos dice que la funcion u(t, x) denida en
(13.1.11) satisface una ecuacion en derivadas parciales, denominada
ecuacion retrograda (bakward) de Kolmogorov. Esto nos proporciona
una interpretacion probabilista de las ecuaciones en derivadas parciales
de tipo parabolico.
Teorema 13.3. Sea f C
2
0
(R
n
).
178 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
a): Denimos u(t, x) = E [f(X
x
t
)]. Entonces, u(t, ) T
A
para
cada t y
(13.1.13)
_
u
t
= Au
u(0, x) = f(x)
b): Si w C
1,2
([0, )R
n
) es una funcion acotada que satisface
la ecuacion (13.1.13), entonces w(t, x) = E [f(X
x
t
)].
E [u(t, X
x
r
)] = E
_
E [f(X
y
t
)] [
y=X
x
r

= E
_
f(X
x
t+r
)

= u(t +r, x).


Notemos por p
t
(x, y) la solucion fundamental de la ecuacion pa-
rabolica (13.1.13). Es decir, tal solucion se obtiene formalmente toman-
do como funcion f la delta
y
. Entonces, y p
t
(x, y) es la densidad
de probabilidad de la variable aleatoria X
x
t
:
u(t, x) = E [f(X
x
t
)] =
_
R
n
f(y)p
t
(x, y)dy.
Esto nos dice tambien que p(y, t, x, s) = p
ts
(x, y) seran las probabili-
dades de tansicion del proceso de Markov X
t
.
Ejemplo
En el caso b = 0, = I, el proceso de difusion X
t
es el movimiento
browniano B
t
n-dimensional. Su generador sera el operador de Laplace:
=
1
2

n
i=1

2
x
2
i
.
La ecuacion de Kolmogorov en este caso es precisamente la ecuacion
de la calor:
u
t
=
1
2
f.
La solucion fundamental de esta ecuacion es la densidad gaussiana:
p
t
(x, y) = (2t)
n/2
exp
_

[x y[
2
2t
_
.
2. MODELO DE BLACK Y SCHOLES CON SALTOS 179
2. Modelo de Black y Scholes con saltos
En un espacio de probabilidad (, T, P) consideramos tres procesos
estocasticos independientes:
B
t
, t 0 un movimiento browniano
N
t
, t 0 un proceso de Poisson de parametro > 0
U
j
, j 1 una sucesion de variables aleatorias independien-
tes, identicamente distribuidas con valores en (1, ), con
esperanza nita.
Designaremos por T
1
T
2
la sucesion de tiempos de salto del
proceso de Poisson N
t
. Para cada t 0, T
t
sera la -algebra generada
por las variables aleatorias B
s
, N
s
, s t y U
j
1
{jNt}
, j 1. Las
variables U
j
modelizaran la amplitud relativa de los saltos de la curva
de precios y, por tanto, en cada instante t, la -algebra T
t
contiene la
informacion los saltos que se hayan producido antes de t; por esta razon
hemos incluido las variables U
j
1
{jNt}
en la denicion de -algebra T
t
.
Se pueden demostrar la siguientes propiedades:
i) Para cada 0 s < t, B
t
B
s
es independiente de T
s
.
ii) Para cada 0 s < t, N
t
N
s
es independiente de T
s
.
iii) Para cada s 0, la sucesion de variables aleatorias U
Ns+k
, k
1 es independiente de T
s
.
Proponemos el siguiente modelo para la curva de precios S
t
, t 0
de un activo nanciero:
1) En cada intervalo [T
j
, T
j+1
) los precios siguen el modelo de
Black y Scholes de parametros , :
dS
t
= S
t
(dt +dB
t
).
2) En cada instante T
j
la curva de precios tiene un salto de am-
plitud relativa:
S
T
j
S
T
j

= U
j
.
Por lo tanto, S
T
j
= S
T
j

(1 +U
j
).
En el primer intervalo [0, T
1
) tendremos
S
t
= S
0
e
(

2
2
)t+Bt
.
Por consiguiente, le lmite por la izquierda S
T
1

vale
S
T
1

= S
0
e
(

2
2
)T
1
+B
T
1
,
y esto implica que
S
T
1
= S
0
(1 +U
1
)e
(

2
2
)T
1
+B
T
1
.
180 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
Luego, para t [T
1
, T
2
) tendremos
S
t
= S
T
1
e
(

2
2
)(tT
1
)+(BtB
T
1
)
= S
T
1

(1 +U
1
)e
(

2
2
)(tT
1
)+(BtB
T
1
)
= S
0
(1 +U
1
)e
(

2
2
)t+Bt
.
De manera recursiva se obtiene la seguiente formula explcita para la
curva de precios:
S
t
= S
0

Nt
j=1
(1 +U
j
)e
(

2
2
)t+Bt
.
El proceso estocastico S
t
, t 0 as denido es adaptado a la ltra-
cion T
t
y tiene trayectorias continuas por la derecha, con un n umero
nito de saltos en cada intervalo nito de tiempo. Con notacion integral
tendremos
(13.2.1) S
t
= S
0
+
_
t
0
S
s
(ds +dB
s
) +
Nt

j=1
S
T
j

U
j
.
La notacion diferencial correspondiente a esta formulacion integral
sera
dS
t
= S
t
(dt +dB
t
) +S
t
dZ
t
,
ya que, la integral
_
t
0
S
r
dZ
r
vale
_
t
0
S
r
dZ
r
=
Nt

j=1
S
T
j

U
j
.
2.1. Proceso de Poisson compuesto. Consideremos la suce-
sion de sumas parciales V
n
= U
1
+ +U
n
. El proceso estocastico
Z
t
= U
1
+ +U
Nt
= V
Nt
,
con Z
t
= 0 si N
t
= 0, se denomina proceso de Poisson compuesto.
Ejemplo Si N
t
modeliza el n umero de clientes que han llegado a una
tienda en el instante t y U
n
representa la cantidad de dinero que gasta
el n-esimo cliente, Z
t
representara la cantidad total de dinero gastada
por los clientes que han llegado en el intervalo de tiempo [0, t].
Proposici on 13.1. El proceso de Poisson compuesto tiene incre-
mentos independientes y la ley de un incremento Z
t
Z
s
tiene una
funcion caracterstica dada por la formula
E(e
ix(ZtZs
) = e
(
U
1
(x)1)(ts)
,
2. MODELO DE BLACK Y SCHOLES CON SALTOS 181
donde
Y
1
(x) es la funcion caracterstica de U
1
.
Demostraci on. Fijemos 0 s < t. La -algebra generada por
las variables aleatorias Z
u
, u s esta incluida en la -algebra H ge-
nerada por N
u
, u s; U
1
, . . . , U
Ns
. Por consiguiente, el incremento
Z
t
Z
s
= V
Nt
V
Ns
es independiente de la -algebra generada por
las variables Z
u
, u s. La funcion caracterstica de este incremento
valdra
E(e
ix(ZtZs)
) =

m,k=0
E(e
ix(ZtZs)
1
{Ns=m,NtNs=k}
)
=

m,k=0
E(e
ix(V
m+k
Vm)
1
{Ns=m,NtNs=k}
)
=

m,k=0
E(e
ixV
k
)P(N
s
= m, N
t
N
s
= k)
=

k=0
_
E(e
ixU
1
)

k e
(ts)
[(t s)]
k
k!
= exp [(
U
1
(x) 1) (t s)] .

Si E(U
1
) = , entonces E(Z
t
) = t.
El precio S
t
de un activo que sigue el modelo (13.2.1) pueden ex-
presarse en funcion del proceso de Poisson compuesto Z
t
de la manera
siguiente:
dS
t
= S
t
(dt +dB
t
) + S
t
dZ
t
.
2.2. Probabilidades de riesgo neutro. Supongamos que r >
0, es el tipo de interes. Se denen los precios actualizados como

S
t
= e
rt
S
t
.
182 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
Calculemos para 0 s < t, utilizando las propiedades i) a iii) de
independencia:
E
_

S
t
[T
s
_
=

S
s
E
_
e
(r

2
2
)(ts)+(BtBs)
Nt

j=Ns+1
(1 +U
j
)[T
s
_
=

S
s
E
_
e
(r

2
2
)(ts)+(BtBs)
NtNs

j=1
(1 +U
Ns+j
)[T
s
_
=

S
s
E
_
e
(r

2
2
)(ts)+(BtBs)
NtNs

j=1
(1 +U
Ns+j
)
_
=

S
s
e
(r)(ts)
E
_
Nt

j=Ns+1
(1 +U
j
)
_
.
Utilizando las propiedades del proceso de Poisson tenemos
E
_
Nt

j=Ns+1
(1 +U
j
)
_
=

i,k=0
E
_
i+k

j=i+1
(1 +U
j
)
_
e
(ts)s
[(t s)]
k
k!
(s)
i
i!
= e
(ts)

k=0
[1 +E (U
1
)]
k
[(t s)]
k
k!
= e
(ts)E(U
1
)
. (13.2.2)
Por lo tanto,
E
_

S
t
[T
s
_
=

S
s
e
(r)(ts)
e
(ts)E(U
1
)
.
De esta formula deducimos que

S
t
, t 0 es una martingala si y
solamente si
(13.2.3) = r E(U
1
).
Por lo tanto, si se satisface esta relacion, la probabilidad es de riesgo
neutro. Puede demostrarse que existen innitas probabilidades de ries-
go neutro en este contexto. En efecto, para conseguir que la relacion
(13.2.3) se cumpla hay diferentes opciones:
1. Cambiar la deriva del movimiento browniano mediante el teo-
rema de Girsanov, de forma que la nueva deriva sera r
E(U
1
).
2. Cambiar la ley de las variables U
n
de forma que tengan espe-
ranza
r

.
2. MODELO DE BLACK Y SCHOLES CON SALTOS 183
3. Cambiar la ley del Proceso del proceso de Poisson de manera
que tenga parametro
r
E(U
1
)
.
La no unicidad de las probabilidades de riesgo neutro esta relacio-
nada con el hecho de que, en general, no se pueden replicar derivados
en este modelo.
2.3. Valoraci on y cobertura de opciones. Supondremos que
este apartado que las variables U
j
son de cuadrado integrable y que se
cumple la relacion (13.2.3). Puede comprobarse que
(13.2.4) E(S
2
t
) = S
2
0
e
(
2
+2r)t
e
tE(U
2
1
)
.
Fijemos un intervalo de tiempo acotado [0, T]. Una cartera de valores
sera un proceso bidimensional
= (
t
,
t
), t [0, T],
tal que los procesos
t
y
t
son adaptados y con trayectorias continuas
por la izquierda. Como la curva de precios es continua por la derecha,
la continuidad por la izquierda del proceso es la version a tiempo
continuo de la nocion de previsibilidad a tiempo discreto. Supondremos
ademas que
_
T
0
[
s
[ds < ,
_
T
0
[
s
S
s
[
2
ds < ,
casi seguramente.
El valor de la cartera se dene como
V
t
() =
t
e
rt
+
t
S
t
.
Diremos que la cartera es autonanciada si
dV
t
= r
t
e
rt
dt +
t
dS
t
.
Es decir, la condicion de autonanciacion nos dice que
V
t
= V
0
+
_
t
0
r
s
e
rs
ds +
_
t
0

s
S
s
(ds +dB
s
)
+
Nt

j=1

T
j
S
T
j

U
j
.
Podemos eliminar el proceso
t
de esta formula porque viene de-
terminado por el valor inicial V
0
y por
t
a partir de la condicion de
184 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
autonanciacion. Para ello calcularemos el valor actualizado de la car-
tera:
(13.2.5)

V
t
= e
rt
V
t
= e
rt
V
0

_
t
0
re
rs
Y
s
ds +
_
t
0
e
rs
dY
s
+e
rt
Z
t
,
donde
Y
t
=
_
t
0
r
s
e
rs
ds +
_
t
0

s
S
s
(ds +dB
s
)
Z
t
=
Nt

j=1

T
j
S
T
j

U
j
.
El producto e
rt
Z
t
puede transformarse de la forma siguiente
e
rt
Z
t
=
Nt

j=1
e
rt

T
j
S
T
j

U
j
=
Nt

j=1
_
e
rT
j

_
t
T
j
re
rs
ds
_

T
j
S
T
j

U
j
=
Nt

j=1
e
rT
j

T
j
S
T
j

U
j

Nt

j=1
__
t
0
1
{T
j
s}
re
rs
ds
_

T
j
S
T
j

U
j
=
Nt

j=1
e
rT
j

T
j
S
T
j

U
j

_
t
0
re
rs
_
Ns

j=1

T
j
S
T
j

U
j
_
ds
=
Nt

j=1
e
rT
j

T
j
S
T
j

U
j

__
t
0
Z
s
re
rs
ds
_
.
2. MODELO DE BLACK Y SCHOLES CON SALTOS 185
Substituyendo esta expresion en (13.2.5) y explicitando el valor de dY
s
obtenemos

V
t
= V
0

_
t
0
re
rs
V
s
ds +
_
t
0
r
s
ds +
_
t
0

S
s
(ds +dB
s
)
+
Nt

j=1

T
j

S
T
j

U
j
= V
0

_
t
0
r
_

s
+
s

S
s
_
ds +
_
t
0
r
s
ds +
_
t
0

S
s
(ds +dB
s
)
+
Nt

j=1

T
j

S
T
j

U
j
= V
0
+
_
t
0

S
s
(( r)ds +dB
s
) +
Nt

j=1

T
j

S
T
j

U
j
.
Utilizando la igualdad (13.2.3) obtenemos nalmente
(13.2.6)

V
t
= V
0
+
_
t
0

S
s
dB
s
+
Nt

j=1

T j
U
j

S
T j
E(U
1
)
_
t
0

S
s
ds.
Vemos que el primer termino de esta suma es una martingala de cua-
drado integrable respecto de la ltracion T
t
porque es una integral es-
tocastica respecto del movimiento browniano y suponemos E
_
T
0
_

S
s
_
2
ds <
. Los dos ultimos terminos tambien forman una martingala debi-
do al lema siguiente, aplicado a la funcion (y, z) = yz y al proceso
Y
t
=
t

S
t
.
Lema 5. Sea (y, z) una funcion medible de R R en R, tal que
para todo z la funcion y (y, z) es continua y sea Y
t
, t 0 un
proceso con trayectorias continuas por la izquierda con valores reales,
adaptado a la ltracion T
t
. Supongamos que para cada t > 0
E
__
t
0
_
R
(Y
s
, z)
2
(dz)ds
_
< ,
donde es la ley de probabilidad de U
1
. Entonces, el proceso M
t
denido
por
M
t
=
Nt

j=1
(Y
T
j
, U
j
)
_
t
0
_
R
(Y
s
, z)(dz)ds
es una martingala de cuadrado integrable.
186 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
Consideremos una opcion europea con vencimiento T y cuyo bene-
cio es una variable aleatoria h de cuadrado integrable y T
T
-medible.
Para determinar el precio inicial o prima de la opcion, tomaremos el
punto de vista del vendedor de la opcion. Si la opcion se vende a un
precio V
0
en el instante inicial, para recuperar la prima el vendedor
construira una cartera autonanciada determinada por un proceso
t
.
En general no puede conseguirse que h = V
T
y la diferencia h V
T
representa la perdida (si esta cantidad es positiva) o ganancia (si esta
cantidad es negativa) del vendedor.
Una forma de evaluar este riesgo consiste en calcular la cantidad
R
T
0
= E
_
(e
rT
(h V
T
))
2

.
Como e
rt
V
t
es una martingala respecto de la probabilidad neutra,
tenemos E(e
rT
V
T
) = V
0
. Por lo tanto, aplicando la identidad
E(Z
2
) = (E(Z))
2
+ Var(Z)
a la variable Z = e
rT
(h V
T
) obtenemos
R
T
0
=
_
E(e
rT
h) V
0
_
2
+E
_
_
e
rT
h E(e
rT
h) (

V
T
V
0
)
_
2
_
.
La formula (13.2.6) nos dice que

V
T
V
0
solo depende del proceso
t
y
no del valor inicial de la cartera V
0
. Por consiguiente, el valor mnimo
de R
T
0
se obtiene para
V
0
= E(e
rT
h),
y este es el valor que tomaremos como prima de la opcion.
Mediante un razonamiento analogo, puede verse que el agente que
vende la opcion en un instante t > 0, si desea minimizar la cantidad
R
T
t
= E
_
(e
r(Tt)
(h V
T
))
2
[T
t

,
vendera la opcion al precio
V
t
= E
_
(e
r(Tt)
h[T
t

,
que tomaremos como precio de la opcion en el instante t.
2.3.1. Valoracion de CALLs y PUTs. Supongamos que h = g(S
T
),
con g(x) = (x K)
+
, o bien g(x) = (K x)
+
. El precio de la opcion
2. MODELO DE BLACK Y SCHOLES CON SALTOS 187
en el instante t sera
V
t
= E
_
(e
r(Tt)
g(S
T
)[T
t

= e
r(Tt)
E
_
g
_
S
t
e
(

2
2
)(Tt)+(B
T
Bt)
N
T

j=Nt+1
(1 +U
j
)
_
[T
t
_
= e
r(Tt)
E
_
g
_
S
t
e
(

2
2
)(Tt)+(B
T
Bt)
N
T
Nt

j=1
(1 +U
Nt+j
)
_
[T
t
_
.
Utilizando las propiedades i) a iii) de independencia y la formula (13.2.3)
se obtiene
V
t
= f(t, S
t
),
donde
f(t, x) = e
r(Tt)
E
_
g
_
xe
(

2
2
)(Tt)+(B
T
Bt)
N
T
Nt

j=1
(1 +U
Nt+j
)
__
= e
r(Tt)
E
_
g
_
xe
(rE(U
1
)

2
2
)(Tt)+(B
T
Bt)
N
Tt

j=1
(1 +U
j
)
__
.
Si introducimos la funcion
f
0
(t, x) = e
r(Tt)
E
_
g
_
xe
(r

2
2
)(Tt)+(B
T
Bt)
__
,
que nos da el precio de la opcion en el modelo de Black-Scholes, ten-
dremos
f(t, x) = E
_
f
0
_
t, xe
E(U
1
)(Tt)
N
Tt

j=1
(1 +U
j
)
__
=

n=0
E
_
f
0
_
t, xe
E(U
1
)(Tt)
n

j=1
(1 +U
j
)
__
e
(Tt)

n
(T t)
n
n!
.
(13.2.7)
Cada termino de esta serie puede calcularse numericamente a partir de
simulaciones de las variables U
j
.
Ejemplo Supongamos que U
1
toma dos valores a, b con probabilidades
p = P(U
1
= a) = 1 P(U
1
= b).
188 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
En este caso la formula (13.2.7) se reduce a
f(t, x) =

n=0
n

k=0
_
n
k
_
p
k
(1 p)
nk
f
0
_
t, xe
E(U
1
)(Tt)
(1 +a)
k
(1 +b)
nk
_
e
(Tt)

n
(T t)
n
n!
.
Ejemplo Supongamos que U
1
tiene la ley de e
X
1, donde X tiene
ley N(m, s
2
). En este caso, si denimos X
j
= log(U
j
+ 1), tendremos,
f(t, x) =

n=0
E
_
f
0
_
t, xe
E(U
1
)(Tt)
e

n
j=1
X
j
__
e
(Tt)

n
(T t)
n
n!
=

n=0
e
(Tt)

n
(T t)
n
n!

_
R
f
0
_
t, xe
E(U
1
)(Tt)+y
_
1

2ns
2
e

(ynm)
2
2ns
2
dy.
2.3.2. Cobertura de CALLs y PUTs. Consideremos una opcion
de compra o venta del tipo h = g(S
T
), con g(x) = (x K)
+
, o bien
g(x) = (K x)
+
. El riesgo mnimo cuadratico
R
T
0
= E
_
_
e
rT
h

V
T
_
2
_
,
puede expresarse en funcion del proceso
t
de la forma siguiente
R
T
0
= E
_
_
T
0
_
f
x
(s, S
s
)
s
_
2

S
2
s

2
ds
+
_
T
0
e
2rs
_
R
(f(s, S
s
(1 +z)) f(s, S
s
)
s
zS
s
)
2
(dz)ds
_
.
Por consiguiente el valor mnimo de este riesgo cuadratico se obtiene
cuando para cada s se cumple
_
f
x
(s, S
s
)
s
_
S
2
s

2
+
_
R
(f(s, S
s
(1 +z)) f(s, S
s
)
s
zS
s
) zS
s
(dz) = 0.
De aqu se deduce, teniendo en cuenta que el proceso
s
tiene que ser
continuo por la izquierda,

s
= (s, S
s
),
donde
(s, x) =
1

2
+
_
R
z
2
(z)
_

2
f
x
(s, x) +
_
R
z
f(s, x(1 +z)) f(s, x)
x
(dz)
_
.
2. MODELO DE BLACK Y SCHOLES CON SALTOS 189
De esta forma obtenemos un proceso continuo por la izquierda
s
, adap-
tado, que verica E
_
T
0

2
t

S
2
t
dt < y que determina una cartera au-
tonanciada que minimiza el riesgo R
T
0
. Observamos que si = 0, se
encuentra la formula de cobertura del modelo de Black-Scholes:
(s, x) =
f
x
(s, x)
y la cobertura es perfecta porque R
T
0
= 0. Sin embargo si > 0, el
riesgo mnimo es, en general, estrictamente positivo.
Ejercicios
1.1: Comprobar, a partir de la formula
_
T
0
tdB
t
= TB
T

_
T
0
B
t
dt,
que la integral estocastica
_
T
0
tdB
t
es una variable aleatoria
con ley N(0,
T
3
3
).
1.2: Utilizando la formula de Ito, comprobar si los siguientes pro-
cesos estocasticos, denidos a partir de un movimiento brow-
niano B
t
, son martingalas:
X
t
= B
3
t
3tB
t
X
t
= t
2
B
t
2
_
s
0
sB
s
ds
X
t
= e
t/2
cos B
t
X
t
= e
t/2
sin B
t
X
t
= (B
t
+t) exp(B
t

1
2
t)
X
t
= B
1
(t)B
2
(t).
En el ultimo caso, B
1
y B
2
son dos movimientos brownianos
independientes.
1.3: Supongamos que B
t
, t 0 y W
t
, t 0 son movimientos
brownianos independientes. Consideremos el proceso denido
por
X
t
= x +
_
t
0
B
2
s
dW
s
+
_
t
0
e
Ws
dB
s
.
Obtener una expresion integral para el proceso X
2
t
. Calcular
E(X
2
t
).
190 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
1.4: Supongamos que B
t
es un movimiento browniano n-dimensional
y sea f : R
n
R una funcion de clase C
2
. Utilizando la formu-
la de Ito demostrar que
f(B
t
) = f(0) +
_
t
0
f(B
s
)dB
s
+
1
2
_
t
0
f(B
s
)ds.
1.5: Encontrar el proceso u que nos proporciona la representa-
cion integral
F = E(F) +
_
T
0
u
s
dB
s
en los ejemplos siguientes:
F = B
T
F = B
2
T
F = e
B
T
F =
_
T
0
B
t
dt
F = B
3
T
F = sin B
T
1.6: Consideremos un proceso de movimiento browniano B
t
, 0
t T. Encontrar una representacion en forma de integral es-
tocastica para la variable aleatoria
F =
_
T
0
t
5
B
t
dt.
Cual es la ley de probabilidad de F si T = 1?
1.7: Sean Y
t
y X
t
procesos de Ito. Demostrar la siguiente formula
de integracion por partes:
X
t
Y
t
= X
0
Y
0
+
_
t
0
X
s
dY
s
+
_
t
0
Y
s
dX
s
+
_
t
0
dX
s
dY
s
.
1.8: El precio de un activo nanciero sigue el modelo de Black
y Scholes:
dS
t
S
t
= 3dt + 2dB
t
con condicion inicial S
0
= 100. Suponemos r = 1.
a): Dar una expresion explcita para S
t
en funcion de t y
B
t
.
b): Fijada una fecha de vencimiento T, encontrar una pro-
babilidad neutra mediante la aplicacion del teorema de
Girsanov y dar la formula de su densidad.
2. MODELO DE BLACK Y SCHOLES CON SALTOS 191
c): Como aplicacion calcular el precio en el instante incial
de un derivado que produce un benecio igual a S
2
T
, en
funcion de T.
1.9: El precio de un activo nanciero sigue el modelo de Black
y Scholes:
dS
t
S
t
= dt +dB
t
con condicion inicial S
0
. Considerem un derivado que produce
una liquidacion igual a
H =
1
T
_
T
0
S
t
dt,
en un vencimiento T. Obtener una formula para el precio de
este derivado en un instante t
0
, 0 < t
0
< T, en funcion de S
t
0
y del promedio
1
t
0
_
t
0
0
S
t
dt. Calcular el precio del derivado en
el caso particular S
t
0
= 150, T = 3 a nos, t
0
= 2 a nos, r = 0,3
y
1
t
0
_
t
0
0
S
t
dt = 163.
1.10: Comprobar que los siguientes procesos satisfacen las ecua-
ciones diferenciales estocasticas indicadas:
(i): El proceso X
t
=
Bt
1+t
cumple
dX
t
=
1
1 +t
X
t
dt +
1
1 +t
dB
t
,
X
0
= 0
(ii): El proceso X
t
= sin B
t
, con B
0
= a
_

2
,

2
_
es
solucion de
dX
t
=
1
2
X
t
dt +
_
1 X
2
t
dB
t
,
para t < T =nfs > 0 : B
s
/
_

2
,

2

.
(iii): (X
1
(t), X
2
(t)) = (t, e
t
B
t
) satisface
_
dX
1
dX
2
_
=
_
1
X
2
_
dt +
_
0
e
X
1
_
dB
t
.
(iv): (X
1
(t), X
2
(t)) = (cosh(B
t
), sinh(B
t
)) satisface
_
dX
1
dX
2
_
=
1
2
_
X
1
X
2
_
dt +
_
X
1
X
2
_
dB
t
.
(v): X
t
= (cos(B
t
), sin(B
t
)) satisface
dX
t
=
1
2
X
t
dt +MX
t
dB
t
,
192 13. ECUACIONES DIFERENCIALES ESTOC

ASTICAS
donde M =
_
0 1
1 0
_
. Las componentes del proceso X
t
cumplen
X
1
(t)
2
+X
2
(t)
2
= 1,
y por lo tanto, X
t
puede considerarse como un movimiento
browniano en la circunferencia de radio 1.
(vi): El proceso X
t
= (x
1/3
+
1
3
B
t
)
3
, x > 0, cumple
dX
t
=
1
3
X
1/3
t
dt +X
2/3
t
dB
t
.
1.11: Consideremos un movimiento browniano n-dimensional B
t
y jemos constantes
i
, i = 1, . . . , n. Resolver la ecuacion di-
ferencial estocastica
dX
t
= rX
t
dt +X
t
n

k=1

k
dB
k
(t).
1.12: Resolver la ecuacion diferencial estocastica
_
dX
t
= 2(e
t
X
t
)dt + 3dB
t
X
0
= x
Calcular la ley de X
t
. Cual es el lmite de esta ley cuando
t tiende a innito. Esta ecuacion presenta un fenomeno de
reversion a la media?
1.13: Resolver las ecuaciones diferenciales estocasticas siguien-
tes:
dX
t
= rdt +X
t
dB
t
, X
0
= x
dX
t
=
1
X
t
dt +X
t
dB
t
, X
0
= x > 0
dX
t
= X

t
dt +X
t
dB
t
, X
0
= x > 0.
Para que valores de las constantes , hay explosion?
1.14: La ecuacion diferencial estocastica no lineal
dX
t
= rX
t
(K X
t
)dt +X
t
dB
t
, X
0
= x > 0
es utiliza como modelo para el crecimiento de una poblacion
de tama no X
t
, en un medio aleatorio. La constante K > 0 se
denomina la capacidad del medio, la constante r R mide la
calidad del medio y la constante R es una medida del nivel
de ruido del sistema. Comprobar que
X
t
=
exp
__
rK
1
2

2
_
t +B
t
_
x
1
+r
_
t
0
exp
__
rK
1
2

2
_
s +B
s
_
ds
2. MODELO DE BLACK Y SCHOLES CON SALTOS 193
es la unica solucion.
1.15: Encontrar el generador de los siguientes procesos de difu-
sion:
a): dX
t
= X
t
dt + dB
t
, (proceso de Ornstein-Uhlenbeck)
y r son constantes
b): dX
t
= rX
t
dt+X
t
dB
t
, (movimiento browniano geometri-
co) y r son constantes
c): dX
t
= rdt +X
t
dB
t
, y r son constantes
d): dY
t
=
_
dt
dX
t
_
donde X
t
es el proceso introducido en
a)
e):
_
dX
1
dX
2
_
=
_
1
X
2
_
dt +
_
0
e
X
1
_
dB
t
f):
_
dX
1
dX
2
_
=
_
1
0
_
dt +
_
1 0
0 X
1
_ _
dB
1
dB
2
_
1.16: Encontrar un proceso de difusion cuyo generador sea:
a): Af(x) = f/(x) +f

(x), f C
2
0
(R)
b): Af(x) =
f
t
+cx
f
x
+
1
2

2
x
2
2
f
x
2
, f C
2
0
(R
2
)
c): Af(x
1
, x
2
) = 2x
2
f
x
1
+log(1+x
2
1
+x
2
2
)
f
x
2
+
1
2
(1 +x
2
1
)

2
f
x
2
1
+x
1

2
f
x
1
x
2
+
1
2

2
f
x
2
2
, f C
2
0
(R
2
)
1.17: Demostrar que la solucion u(t, x) del problema con valor
inicial
u
t
=
1
2

2
x
2

2
u
x
2
+x
u
x
, t > 0, x R
u(0, x) = f(x), f C
2
0
(R)
puede expresarse como
u(t, x) = E
_
f(x expB
t
+ (
1
2

2
)t
_
.
1.18: Comprobar las formulas (13.0.21), (13.0.22) y (13.0.23).
1.19: Demostrar (13.2.4).
2. MODELO DE BLACK Y SCHOLES CON SALTOS 195
Referencias
1. A. Etheridge: A Course in Financial Calculus. Cambridge
University Press 2002.
2. I. Karatzas and S. E. Schreve: Brownian Motion and Stochastic
Calculus. Springer-Verlag 1991.
3. F. C. Klebaner: Introduction to Stochastic Calculus with Ap-
plications.
4. D. Lamberton and B. Lapeyre: Introduction to Stochastic Cal-
culus Applied to Finance. Chapman and Hall, 1996.
5. T. Mikosch: Elementary Stochastic Calculus. World Scientic
2000.
6. B. ksendal: Stochastic Dierential Equations. Springer-Verlag
1998
Referencias:
1.- Grimmet, G. and D. Stirzaker, Probability and Random Proces-
ses, Oxford University Press, 2001.
2.- Karatzas, I. and S. Shreve, Brownian Motion and Stochastic
Calculus, Springer-Verlag, 1991.
3.- Lamberton, D. and B. Lapeyre, Stochastic Calculus Applied to
Finance, Chapman and Hall, 1996.
4.- Mikosch, T. Elementary stochastic calculus with nance in view,
New Jersey [etc.], World Scientic, 1998.
5.- Shreve, Steven E. Stochastic calculus for nance, New York
[etc.], Springer, 2004.

You might also like