You are on page 1of 175

Teora del Riesgo

Introducci on
La actividad aseguradora est a difundida en el mundo entero, son de uso corriente los seguros
de autom oviles, incendios, robos, vida, etc. Esta actividad responde a la incertidumbre que
sienten los individuos ante ciertas situaciones que pueden provocar distintos da nos, tanto
materiales como personales. El miedo a la posibilidad de que ocurran dichos acontecimien-
tos se intenta eliminar mediante la compra de un seguro que compensar a al asegurado en
el caso de producirse alg un da no. La base de esta actividad radica en la existencia de un
equilibrio entre la prestacion que hara la compa na de seguros y la contraprestacion que ella
recibe del asegurado.
Algunos antecedentes hist oricos
En sus inicios, el seguro era una forma de solidaridad entre los miembros de una comunidad.
Consista en un fondo o bolsa en la que todas las personas depositaban parte de su dinero.
Con el capital que acumulaban entre todos, se pagaban los da nos que sufran algunos de
ellos. Por ejemplo: Antiguamente exista en algunos puertos la costumbre de que todos los
armadores de barcos que hacan una determinada lnea, aportaban a un fondo com un una
cantidad de dinero en funci on del n umero de navos que posean. Aquellos armadores cuyos
barcos se hundan o eran saqueados por piratas, reciban una compensaci on econ omica proce-
dente del fondo com un para poder adquirir otro barco para continuar su actividad laboral.
La Ciencia Actuarial tal como hoy se concibe comienza en el siglo XVII. Durante este periodo
las necesidades comerciales dieron lugar a operaciones que acarreaban un interes compuesto;
los seguros martimos eran algo habitual y el c alculo de las rentas vitalicias comenzaba a
aparecer. Este tipo de operaciones requera algo mas que el juicio intuitivo y comercial de
los primeros aseguradores. Uno de los pilares de la Ciencia Actuarial fue la Teora de Prob-
abilidades, las bases del analisis estadstico en el seguro fueron establecidas por Pascal en
1654 en colaboraci on con el tambien matematico Pierre de Fermat.
Otro de los pilares es el concepto de tablas de vida, basadas en las investigaciones sobre la
mortalidad. Las primeras tablas son debidas a John Graunt (1662). En 1693 Edmund Hal-
1
ley, matem atico ingles, public o un famoso documento describiendo la construccion de tablas
de vida completas a partir de la hip otesis de estacionariedad de la poblaci on, as como el
metodo de valoraci on de las rentas vitalicias, que es, en esencia, el mismo que se utiliza hoy
en da. Las tablas de Halley se utilizaron por la mayora de las compa nas de seguros inglesas
creadas durante el siglo XVIII.
Es en el presente siglo, la Ciencia Actuarial se enriquece con las aportaciones de las matematicas
de los seguros no vida, la teora estadstico-matematica de la estabilidad y la moderna teora
de la decisi on.
Algunos terminos del seguro
La actividad aseguradora, como cualquier otra que supone una especialidad, tiene su propia
forma de expresarse (jerga). Vamos a ver una serie de terminos de uso frecuente:
Seguro: Entendido como contrato, es el convenio entre dos partes, la compa na o entidad
aseguradora por una parte y el contratante por otra, mediante la cual la primera se compro-
mete a cubrir econ omicamente la perdida o da no que el asegurado puede sufrir durante la
vigencia del contrato. La obligacion del asegurado es pagar, a la rma del contrato, el precio
del seguro total o parcialmente.
Riesgo: Es la posibilidad de perdida o da no. El hombre desde que nace vive con la constante
amenaza de enfermedad, accidente, muerte, etc. De la misma forma sus propiedades pueden
sufrir incendios, robos, etc.
Siniestro: Es la concreci on del riesgo. Por ejemplo, un incendio que destruye una fabrica, el
robo de mercancas, muerte en un accidente, etc.
Asegurador: Es la persona jurdica que suscribe el compromiso de ofrecer la protecci on in-
demnizatoria cuando se produce el siniestro. Un asegurador es una sociedad an onima, una
mutua de seguros, cooperativa, etc. Para que una empresa pueda ejercer legalmente como
aseguradora debe tener una autorizaci on que concede la autoridad correspondiente.
Asegurado: Es la persona titular del interes asegurado. Es quien sufre el perjuicio economico
en sus bienes, en caso de que ocurra el siniestro, o la persona cuya vida o integridad fsica se
asegura y, por lo tanto, quien percibir a la indemnizacion en caso de que un siniestro afectase
al objeto asegurado (excepto en el caso de seguros de vida, en que recibe la indemnizaci on
2
en caso de muerte el beneciario).
Beneciario: Cuando se asegura la vida o la integridad fsica de una persona puede desig-
narse a otra persona para que reciba las indemnizaciones, que es el beneciario.
Poliza: Es el documento en que se plasma el contrato de seguro. Tiene dos caractersticas
que la hacen especialmente importante:
Es la prueba de que el contrato existe; y
Es la normativa que regula las relaciones entre los contratantes.
Consta basicamente de tres partes:
Condiciones generales: son una serie de cl ausulas iguales para todos los contratos de la
misma modalidad. Incluyen deberes y derechos, forma de atencion del siniestro, riesgos cu-
biertos, etc.
Condiciones particulares: son las que individualizan cada contrato de seguro. Incluyen
datos personales del asegurado, caractersticas del riesgo que se asegura (incendio, acci-
dente, robo...), importe de la prima, etc.
Condiciones especiales: aparecen en algunas polizas y suponen una adaptaci on para deter-
minados casos especiales. Por ejemplo, hay unas condiciones generales para todos los seguros
de robo, pero dadas las caractersticas que pueden tener el seguro de robo a joyeras, se crean
para este tipo de establecimientos unas condiciones especiales.
Prima: Es el precio del seguro. Es la cantidad de dinero que el asegurado paga para que,
a cambio, el asegurador pague en caso de siniestro. La prima es por lo general para una
vigencia anual del seguro, aunque excepcionalmente puede pagarse por una sola vez, para la
cobertura de varios a nos (prima unica en seguros de vida) y tambien por una vigencia menor
de un a no (prima a corto plazo, como en el caso de un viaje, transporte de mercancas, etc.)
Clases de primas:
Prima de riesgo: llamada tambien prima pura, natural, matem atica o estadstica, es la
cantidad necesaria y suciente que el asegurador debe percibir para cubrir el riesgo. Nace
del concepto de esperanza matematica como precio justo de una eventualidad.
3
Prima de tarifa: tambien llamada prima comercial, es la prima de riesgo mas los recargos.
Estos recargos son de varios tipos:
-Gastos de administracion: sueldos, alquileres de locales, etc.
-Gastos de adquisici on: formado b asicamente por la comision que se le paga al corredor o
intermediario.
-Margen de benecio: son los recargos asignados a la utilidad razonable del asegurador.
Prima de facturaci on: es la prima de tarifa m as los recargos de ley, como son los impuestos
sobre la prima, los derechos de emision y otros agregados y ordenados por disposiciones
legales, as como los intereses de nanciacion en el caso de que el asegurador otorgue facili-
dades de pago fraccionado de la prima anual.
Clasicacion de los seguros
Los seguros se pueden clasicar en dos grandes grupos: seguros de vida y seguros de no vida.
Un seguro de vida es aquel en el que una entidad aseguradora se compromete mediante el
cobro de una prima unica o periodica a pagar la prestaci on convenida en el caso de que se
cumpla la circunstancia prevista en el contrato: que la persona o personas fallezcan o sobre-
vivan a un periodo de tiempo determinado. Existen distintas modalidades de seguros de vida:
Seguros de vida en caso de muerte.
Seguros de vida en caso de vida.
Seguros de vida mixtos.
Los seguros de no vida van dirigidos a cubrir da nos materiales que ocasionan perdidas
econ omicas. Los mas frecuentes son los de autom oviles, incendios, robos, etc. En este
caso, las prestaciones o indemnizaciones estan en funcion de la cuanta del da no.
Objetivos de las Matematicas Actuariales
El objetivo de las Matematicas Actuariales lo constituye el estudio cuantitativo de las op-
eraciones de seguro (y nancieras en general) a n de optimizar las decisiones sobre las mag-
4
nitudes que intervienen en ellas, teniendo en cuanta que las citadas operaciones las realiza
un ente asegurador (o nanciero) que desarrolla su actividad en un entorno economico-social.
Forma parte del objetivo de la Matematica Actuarial:
El calculo de primas, reservas, valores garantizados, etc., en las operaciones de seguros de
vida.
El an alisis cuantitativo de los sistemas actuariales en los seguros colectivos, sociales y
planes de pensiones.
El estudio de los problemas de tarifaci on y reservas tecnicas en los seguros no vida.
La determinaci on de las magnitudes de estabilidad del ente asegurador y el an alisis de su
solvencia.
Riesgo
Denicion: Se entiende por riesgo, en la literatura actuarial, no s olo al objeto asegurado,
sino tambien, a la posibilidad de producirse, por azar, un acontecimiento que origine una
perdida econ omica o patrimonial.
Un individuo puede adoptar distintas conductas a la hora de enfrentarse al riesgo, una par-
ticularmente asociada al seguro, es la de prevenci on y previsi on, que conlleva a actitudes de
ahorro y de aseguramiento (como mecanismo para reducir la incertidumbre del asegurado a
traves del pago de la prima). Este ultimo constituye la forma mas adecuada y tecnicamente
ecaz para cubrir riesgos.
Caractersticas del riesgo
Las caractersticas esenciales del riesgo, para ser objeto del seguro, son las siguientes:
Incierto y aleatorio: debe haber una relativa incertidumbre, pues el conocimiento de su
existencia real hara desaparecer la aleatoriedad, principio basico del seguro. En algunos
casos, se conoce con certeza que ocurrir a, pero se ignora cu ando, como en la cobertura de
los seguros de vida.
Factibilidad: Debe existir posibilidad de que riesgo se consume. Tal posibilidad tiene
5
dos situaciones extremas: Por un lado, la frecuencia y del otro la imposibilidad. La excesiva
ocurrencia del riesgo y su materializaci on en siniestro atenta contra la aleatoriedad del suceso
cubierto, as, una gran frecuencia de riesgos, por ejemplo, en la cobertura autom oviles, aparte
de resultar muy costoso para la empresa aseguradora, exigira que las primas de seguros nece-
sariamente se incrementen. Del mismo modo, la imposibilidad de que el riesgo se manieste
en siniestro, situara a la empresa aseguradora en una posicion de presentar una cobertura
absurda que hara inviable la comercializacion del producto, como ofrecer una cobertura de
da nos por nevadas, en un pas tropical.
Fortuito: El riesgo debe provenir de un acto o acontecimiento ajeno a la voluntad hu-
mana de producirlo. No obstante, es suceptible de indemnizacion el siniestro producido a
consecuencia de actos realizados por un tercero, ajeno al vnculo contractual que une a la
aseguradora con el asegurado. Aunque en tal caso, la entidad aseguradora se reserva el
derecho de ejercitar las acciones pertinentes contra el responsable del da no (principio de
subrogaci on), como tambien es posible indemnizar el siniestro causado intencionadamente
por el asegurado, siempre que los da nos se hayan producido por una sutuacion de fuerza
mayor o para evitar otros m as graves.
Monto economico: La realizaci on del riesgo debe producir una necesidad traducible a un
valor econ omico, que se satisface con la indemnizaci on correspondiente.
Distribuciones asociadas al monto de una perdida
Cuando se maniesta un riesgo, la Ca aseguradora tiene la obligaci on de cubrir el monto
de la reclamaci on que genera tal evento. Dadas las caractersticas del riesgo, este monto es
claramente aleatorio, por lo que es suceptible de modelarse a traves de una variable aleatoria,
X. Dado que el monto del siniestro es una cantidad no negativa, los modelos probabilsticos
asociados deben contemplar esta y otras caractersticas. Concretamente
La variable asociada al monto de reclamacion es mayor o igual que cero (no negativa)
X : [0, ) [0, )
La distribucion de esta variable es generalmente sesgada a la derecha
6
0 2 4 6 8 10
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
0
.
6
Forma comn de la distribucin del monto de prdida
x
y
=
f
(
x
)
La distribucion puede ser de colas pesadas lo que podra implicar el uso de distribuciones
para valores extremos en su modelaci on.
Entonces, dadas estas caractersticas de los montos asociados a un riesgo, es necesario iden-
ticar las familias de modelos (densidades y/o distribuciones) mas adecuados para su mod-
elaci on, recordando que deben ser modelos con soporte en los reales no negativos.
Denicion 1. Una familia de distribuciones parametrica es un conjunto de distribuciones
en donde cada miembro est a determinado por uno o varios valores jos y nitos, llamados
parametros (de ah el nombre parametrica).
Principales familias parametricas para modelar el monto de riesgo
Familia de distribuciones exponencial
La distribucion exponencial es un modelo apropiado para los montos, ya que cumple con los
requicitos para su modelaci on; no obstante, esta distribuci on tiene colas ligeras por lo que
no resultara adecuada si el seguro genera una gran proporcion de reclamaciones con montos
7
muy grandes. Las caractersticas de esta v.a. son
f(x; ) = e
x
, > 0, x 0
E(X) =
1

; V(X) =
1

2
; M
X
(t) =
_

t
_
, que existe si t < .
es un parametro de escala.
0 1 2 3 4 5
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
Diversas formas de la distribucin Exponencial
x
E
x
p
o
n
e
n
c
i
a
l
theta= 0.5
theta= 0.3
theta= 0.2
theta= 0.1
La distribucion exponencial desplazada
La distribuci on exponencial se puede generalizar, traslad andola del origen, y se genera la
distribuci on exponencial desplazada.
Supongamos que X Exp(). Consideremos la v.a. Y = X+c; c > 0. Entonces, la funci on
de densidad de probabilidad de Y es:
f
Y
(y) = f
X
(y c) = e
(yc)
, y > c, > 0
Sus caractersticas son
8
E(y) =
1

+c; V(y) =
1

2
; M
Y
(t) = e
c
_

t
_
, que existe si t < .
Familia de distribuciones Gamma
La distribuci on Gamma es una de las distribuciones mas populares para modelar variables
aleatorias con soporte no negativo. Ya que esta distribucion tiene colas ligeras, puede usarse
para modelar datos en los que no ocurran muchas reclamaciones con valores grandes. Se
dice que X v.a. tiene distribucion Gamma si su funci on de densidad es
f(x; , ) =

x
1
e
x
()
, x 0, 0, 0
con () la funci on Gamma denida como
(z) =
_

0
e
t
t
z1
dt
Las caractersticas de la distribuci on Gamma son
E(X) =

1
; V(X) =

2
( 2)( 1)
2
;
E(X
r
) =

r
(r + 1)( r)
()
, 1 < r < ; E(X
r
) =

r
r!
( 1)( 2) ( r)
, si r es un entero
es un parametro de forma y es de escala.
La distribucion exponencial es un caso particular de la Gamma. En concreto es Gamma(1, ).
9
0 10 20 30 40 50
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
Diversas formas de la distribucin Gamma
x
G
a
m
m
a
alpha= 10 , beta= 0.5
alpha= 20 , beta= 0.5
alpha= 30 , beta= 0.5
alpha= 40 , beta= 0.5
alpha= 50 , beta= 0.5
alpha= 60 , beta= 0.5
0 5 10 15 20 25
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
1
.
2
Diversas formas de la distribucin Gamma
x
G
a
m
m
a
alpha= 10 , beta= 0.1
alpha= 10 , beta= 0.2
alpha= 10 , beta= 0.3
alpha= 10 , beta= 0.4
alpha= 10 , beta= 0.5
alpha= 10 , beta= 0.6
Familia de distribuciones Log-Normal
Uno de los modelo m as usados para ajustar datos del monto de reclaci on de un siniestro, es
la distribucion log normal(,
2
). Esta distribucion es asimetrica con cola derecha pesada
(m as pesada que la exponencial y Gamma, pero no de las mas pesadas), lo que permite
acumular una mayor densidad de probabilidad en esta cola. Por lo tanto, puede utilizarse
para modelar siniestros que generen grandes montos de reclamaci on con una proporci on rel-
ativamente alta.
Esta distribuci on guarda una estrecha relaci on con la Normal. De hecho, una variable aleato-
ria se distribuye Log-normal, si el logaritmo natural de ella, se distribuye Normal, es decir
X log normal(,
2
), si Ln(X) N(,
2
)
La funcion de densidad de esta variable aleatoria es
f(x; ,
2
) =
1

2
2
x
e

1
2
2
(ln(x))
2
, x > 0, R,
2
R
+
10
Algunas caractersticas de esta distribucion son
E(X) = e
+

2
2
; V(X) = e
2+
2
_
e

2
1
_
; E(X
r
) = e
r+
r
2

2
2
(momentos de orden r=1,2,...)
Pese a su relaci on con la normal, ninguno de los par ametros es de localizacion ni de escala.
0 2 4 6 8 10
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
0
.
6
Diversas formas de la distribucin lognormal
x
l
o
g

n
o
r
m
a
l
mu= 0 , sigma= 1
mu= 0.5 , sigma= 1
mu= 0.7 , sigma= 1
mu= 1 , sigma= 1
mu= 1.5 , sigma= 1
mu= 2 , sigma= 1
0 2 4 6 8 10
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
Diversas formas de la distribucin lognormal
x
l
o
g

n
o
r
m
a
l
m= 0 , sigma= 1
m= 0 , sigma= 0.9
m= 0 , sigma= 0.8
m= 0 , sigma= 0.7
m= 0 , sigma= 0.6
m= 0 , sigma= 0.5
Familia de distribuciones Weibull
La distribuci on Weibull puede considerarse como una generalizaci on de la exponencial. En
este caso, se incorpora un parametro de forma, lo que permite mayor exibilidad sobre la
forma que posea la distribuci on de los datos, y se conserva el par ametro de escala de la
exponencial. En general, es una distribuci on con colas mas pesadas que la Gamma y la
log-normal, pero a un no de las m as pesadas, por lo que puede ser un modelo adecuado para
los montos de reclamaci on que ocurren con una moderadamente alta probabilidad.
Se dice que X v.a. tiene una distribuci on Weibull(, ), si tiene una funci on de densidad
dada por
11
f(x) =

_
x

_
1
exp
_

_
x

_
, x > 0, > 0, > 0
con par ametro de forma y par ametro de escala. Observese que si = 1 la Weibull se
convierte en una Exponencial().
Sus caractersticas son
E(X) =
_
1 +
1

_
; V(X) =
2
_

_
2 +
2

2
_
1 +
1

__
; M
X
(t) =
t
_
1 +
t

_
0.0 0.5 1.0 1.5 2.0
0
.
0
0
.
5
1
.
0
1
.
5
2
.
0
2
.
5
3
.
0
Diversas formas de la distribucin Weibull
x
W
e
i
b
u
l
l
k= 0.5 , lambda= 1
k= 1 , lambda= 1
k= 1.5 , lambda= 1
k= 3 , lambda= 1
k= 5 , lambda= 1
k= 7 , lambda= 1
0.0 0.5 1.0 1.5 2.0
0
2
4
6
8
Distribucin Weibull con diferentes parmetros de escala
x
W
e
i
b
u
l
l
k= 2 , lambda= 1
k= 2 , lambda= 0.8
k= 2 , lambda= 0.6
k= 2 , lambda= 0.4
k= 2 , lambda= 0.2
k= 2 , lambda= 0.1
Familia de distribuciones Pareto
La distribuci on Pareto es una distribuci on con cola derecha a un mas pesada que la Log-
normal y la Weibull, por lo que resultara de gran utilidad para modelar siniestros que generen
reclamaciones muy grandes con altas frecuencias. Esta distribucion surge al considerar que
la probabilidad de que una v.a. X tome un valor superior a un valor determinado, x, tiene
la forma funcional
12
P(X > x) =
_

x
_

, x , > 0
entonces, la funcion de distribucion de la Pareto es
F(x) = 1 P(X > x) = 1
_

x
_

con funcion de densidad dada por


f(x; , ) = F

(x) =

x
+1
, x , > 0, > 0
Algunas de sus caractersticas son
E(X) =

( 1)
; V(X) =

2
( 2)( 1)
2
; E(X
r
) =

r
( r)
, > r, r = 1, 2, ...
es un par ametro de forma y de escala.
0 2 4 6 8 10
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
0
.
6
Diversas formas de la distribucin Pareto
x
P
a
r
e
t
o
alpha= 1 , theta= 5
alpha= 2 , theta= 5
alpha= 3 , theta= 5
alpha= 4 , theta= 5
alpha= 5 , theta= 5
alpha= 6 , theta= 5
0 2 4 6 8 10
0
.
0
0
.
5
1
.
0
1
.
5
2
.
0
Diversas formas de la distribucin Pareto
x
P
a
r
e
t
o
alpha= 3 , theta= 100
alpha= 3 , theta= 120
alpha= 3 , theta= 140
alpha= 3 , theta= 160
alpha= 3 , theta= 180
alpha= 3 , theta= 200
13
Familia de distribuciones Pareto de segundo tipo
La distribucion Pareto de segundo tipo es simplemente la distribuci on Pareto de primer tipo
traslada al origen. Concretamente, si X tiene distribuci on Pareto de primer tipo, entonces
Y = X tiene distribucion Pareto de segundo tipo. Con funcion de densidad
f(x; , ) =

(x +)
+1
, x 0, > 0, > 0
Caractersticas de esta distribucion
E(X) =

( 1)
; Var (X) =

2
( 2) ( 1)
2
; E(X
r
) =

r
(r + 1) ( r)
()
, 1 < r <
E(X
r
) =

r
r!
( 1) ( 2) ( r)
si r es entero
con () la funci on Gamma, ya denida anteriormente.
Familia de distribuciones Pareto de tercer tipo
La distribuci on de Pareto de tercer tipo, es una generalizacion de las anteriores, en la que
adem as de la traslaci on se produce un cambio en la estructura de varianza. Se dene como
distribuci on de Pareto de tercer tipo a la distribucion de la v.a. X, cuya funcion de dis-
tribuci on es:
F (x) = 1
_

+x
_

x
, x > 0, > 0, > 0, 0
con funcion de densidad
f(x) =
1

_

+x
_

x
_

x

+ 1
+
_
Ninguna de las caractersticas de esta distribucion tienen una expresion analtica cerrada.
Familia de distribuciones Burr
14
La experiencia en el pago de montos reclamaci on de seguros, ha mostrado que la Pareto
es apropiada para modelarlos, particularmente, cuando ocurren reclamaciones de montos
excepcionalmente grandes. No obstante, algunas veces es necesario tener distribuciones para
colas pesadas, que sean m as exibles que la Pareto, por ejemplo, que consideren una funci on
de densidad no monotona. Tal exibilidad la proporciona la distribucion Burr que tiene un
par ametro de forma, , adicional. En concreto, si X es una v.a. con distribuci on Pareto de
segundo tipo, entonces
X
1/
Burr (, , )
cuya funci on de densidad esta dada por
f(x) =

x
1
(x

+)
+1
x 0 , > 0, > 0, > 0
El momento de orden r de esta distribucion es
E(x
r
) =

r/
( r/) (r/ + 1)
()
, que existe si r <
y son parametros de forma y de escala.
15
0 10 20 30 40 50
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
Diversas formas de la distribucin Burr
x
B
u
r
r
alpha= 10 , beta= 5 , theta= 0.1
alpha= 20 , beta= 5 , theta= 0.1
alpha= 30 , beta= 5 , theta= 0.1
alpha= 40 , beta= 5 , theta= 0.1
alpha= 50 , beta= 5 , theta= 0.1
alpha= 60 , beta= 5 , theta= 0.1
0 10 20 30 40 50
0
.
0
0
0
.
0
1
0
.
0
2
0
.
0
3
0
.
0
4
Diversas formas de la distribucin Burr
x
B
u
r
r
alpha= 10 , beta= 5 , theta= 0.01
alpha= 20 , beta= 5 , theta= 0.01
alpha= 30 , beta= 5 , theta= 0.01
alpha= 40 , beta= 5 , theta= 0.01
alpha= 50 , beta= 5 , theta= 0.01
alpha= 60 , beta= 5 , theta= 0.01
Estas son algunas distribuciones de uso com un para modelar los montos que genera la real-
izaci on de un riesgo. Por supuesto, no estan contemplados todos los modelos, son solamente
los mas utilizados para este objetivo. Por ejemplo, no hemos introducido distribuciones
como: Loglogstica, Paralogstica, Pareto generalizada, Gamma inversa, Weibull inversa,
Beta, Beta generalizada, Exponencial inversa, etc. Ninguno de estos modelos corresponde a
los tpicos de valores extremos como la Gumbel o la Frechet, por ejemplo. Dada esta lista
(no exhaustiva) de posibles modelos, es claro que la eleccion del mismo para modelar una
situaci on particular, no sera tarea facil, en general.
Distribuciones discretas
Adem as de modelar el monto de reclamaci on, conocido como la severidad de la perdida,
tambien es de interes modelar la frecuencia con las que estas perdidas ocurren. Como
es de suponer, los modelos para caracterizar esta frecuencia de perdidas, corresponden a
distribuciones para variables aleatorias discretas. Es importante se nalar que este tipo de
distribuciones tambien pueden utilizarse cuando los montos de perdida se agrupan en una
tabla de frecuencias, situaci on muy com un en el quehacer de las compa nas aseguradoras.
16
Antes de iniciar la presentaci on de los modelos para v.a. discretas y sus caractersticas, es
conveniente recordar una importante funcion asociada a estas variables.
La funcion generador de probabilidades
Sea N una v.a. discreta, con funci on de probabilidad denotada como p
k
= P(N = k); k =
0, 1, 2... que representa, en nuestro caso, la probabilidad de que exactamente k reclamaciones
ocurran. La funci on generadora de probabilidades (f.g.p.) para esta v.a. es
P
N
(z) = E
_
z
N
_
=

k=1
p
k
z
k
que recibe este nombre porque
1
k!
d
k
dz
k
P
N
(0) = Pr (N = k)
La familia de distribuciones Binomial(n,q)
Esta distribuci on caracteriza el n umero de exitos o fracasos, seg un sea el caso, en n ensayos
Bernoulli independientes. Su funcion de densidad de probabilidad es
p
k
= P(N = k) =
_
n
x
_
q
k
(1 q)
nk
, x = 0, 1, ..., n, 0 < q < 1
Cuyas caractersticas son
E(N) = nq; V(N) = nq(1 q); P(N) = (1 +q(z 1))
n
; M
N
(t) = [(1 q) + qe
t
]
n
17
Distribucin Binomial(50,0.2)
x
p
(
x
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
0
.
1
2
Distribucin Binomial(50,0.5)
x
p
(
x
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
Distribucin Binomial(50,0.9)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
La familia de distribuciones Geometrica()
La distribuci on geometrica caracteriza el n umero X de ensayos Bernoulli necesarios para
obtener un exito; x = 1, 2, 3, ..., o tambien es
La distribucion de probabilidad del n umero Y=X-1 de fallas antes de obtener el primer exito;
y = 0, 1, 2, 3, ....
Entonces, si p =

1 +
es la probabilidad de un exito, la funci on de densidad de probabilidad
de esta variable aleatoria es
P(N = k) =
_

1 +
_
k1
1
1 +
; k = 1, 2, ... o bien
P(N = k) =
_

1 +
_
k
1
1 +
; k = 0, 1, 2, ...
Con caractersticas
18
E(N) = ; V(N) = (1 + ); P(N) = (1 (z 1))
1
; M
N
(t) = [1 + (1 e
t
)]
1
Distribucin Geomtrica(50,1)
x
p
(
x
)
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
Distribucin Geomtrica(50,1/3)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
Distribucin Geomtrica(50,1/4)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
La familia de distribuciones Poisson()
Esta es, probablemente, la m as importante de las distribuciones discretas para modelar la
frecuencia de reclamaciones. La distribucion de Poisson puede contemplarse como caso el
caso lmite de la distribucion Binomial(n, p), donde n es muy grande y la probabilidad de
ocurrencia p es constante y muy peque na. En este caso, N sigue una distribucion de Poisson
con par ametro = np. Decimos que N Poisson(), si N tiene funci on de densidad de
probabilidada dada por
P(N = k) =

k
e

k!
; k = 0, 1, 2, ... > 0
Con caractersticas
E(N) = ; V(N) = ; P(N) = e
(z1)
; M
N
(t) = e
(e
t
1)
19
El hecho de que la Poisson tenga media y varianza igual, proporciona un fuerte evidencia
emprica para determinar si un conjunto particular de frecuencias de reclamaciones sigue
esta distribuci on. Bastara calcular la media y varianza de los datos y ver si estas cantidades
son similares.
Distribucin Poisson(1)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
0
.
3
5
Distribucin Poisson(3)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
Distribucin Poisson(10)
x
p
(
x
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
0
.
1
2
Distribucion Poisson truncada
En muchas ocasiones es com un excluir los valores peque nos o grandes del n umero de sinie-
stros, dando paso a una distribuci on Poisson truncada por la derecha o por la izquierda.
Exclusion del valor cero
Una forma tpica de que los datos tengan un truncamiento por la izquierda es eliminar a to-
das las p olizas que no incurrieron en reclamaciones, es decir, excluir el valor cero del modelo
Poisson. En este caso la distribucion se ajusta de la siguiente manera
Denamos una nueva variable Y = N|N > 0. Por lo que el soporte de Y es el conjunto
{1, 2, ...} , y su funci on de masa de probabilidad esta dada por
20
Pr(Y = k) = Pr(N = k|X > 0) =
Pr(N = k X > 0)
Pr(N > 0)
=
Pr(N = k)
1 Pr(N = 0)
=

k
e

k!(1 e

)
, k = 1, 2, ...
Las caractersticas de esta variable aleatoria son
E(Y) =

(1 e

)
; Var(Y) =

(1 e

)


2
e

(1 e

)
2
;
M
Y
(t) =
e
e
t
1
(1 e

)
;P
Y
(z) =
e
z
1
e

1
Distribucin Poisson(3) truncada en cero
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
Distribucin Poisson(3)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
Truncada por la derecha
En este caso la Ca puede decidir cubrir s olo un n umero maximo de reclamaciones, por lo
que eliminar a las reclamaciones que sebrepasen este lmite prestablecido. Para contemplar
esta situacion, la distribucion Poisson se ajusta de la siguiente forma
21
Denamos una nueva variable Y = N|N l. Cuyo soporte es {0, 1, 2, ..., l 1, l} y su
funci on de densidad de probabilidad, est a dada por
Pr(Y = k) = Pr(N = k|N l) =
Pr(N = k N l)
Pr(N l)
=
Pr(N = k)
Pr(N l)
=

k
e

k!

l
j=0

j
e

j!
=

k
k!

l
j=0

j
j!
, 0 k l
Distribucin Poisson(4) truncada por la derecha
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
Distribucin Poisson(4)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
Truncada por la izquierda.
Adem as de excluir las polizas que no generaron reclamacion, la Ca podra decidir hacerce
cargo de estas reclamaciones, siempre y cuando la frecuencia de las mismas excededan a un
valor mnimo. En este caso, la distribuci on Poisson tiene la forma
Denamos una nueva variable Y = N|N s. Cuyo soporte es {s, s + 1, s + 2, ...} y su
funci on de densidad de probabilidad, est a dada por
Pr(Y = k) = Pr(N = k|N s) =
Pr(N = k N s)
Pr(N s)
=

k
k!

j=s

j
j!
, k s
22
Distribucin Poisson(10) truncada en 4
x
p
(
x
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
0
.
1
2
Distribucin Poisson(10)
x
p
(
x
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
0
.
1
2
Doblemente truncada
Finalmente, puede ocurrir que la Ca unicamente cubra las reclamaciones cuya frecuencia
este en un rango previamente denido. La adecuaci on de la distribuci on Poisson en este
caso, es como sigue
Denamos una nueva variable Y = N|s N l. Cuyo soporte es {s, s + 1, s + 2, ...l 1, l}
y su funci on de densidad de probabilidad, esta dada por
Pr(Y = k) = Pr(N = k|s N l) =
Pr(N = k s N l)
Pr(s N l)
=

k
k!

l
j=s

j
j!
, s k l
23
Distribucin Poisson(7) truncada por izquierda y derecha
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
Distribucin Poisson(7)
x
p
(
x
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
0
.
1
2
0
.
1
4
Familia de distribuciones Binomial Negativa (, k)
Una distribuci on que puede usarse como alternativa a una Poisson es la Binomial Negativa.
Existen al menos dos razones para considerar esta distribucion en lugar de la Poisson
Dado que esta distribucion tiene dos par ametros, es m as exible, en el sentido de que
puede tener formas m as diversas, que la Poisson que unicamente tiene un par ametro.
Dado que su varianza es m as grande que su media, constituye tambien una alternativa
para modelar datos de conteo sobredispersos, que son muy comunes en aplicaciones
reales.
Una forma est andar de concebir esta distribucion es en una situaci on de muestreo por cuota.
Este esquema de muestreo es tpico de investigaciones de mercado, en las que se pide a un
individuo entrevistar a un n umero no denido de sujetos (n) hasta que una parte de ellos (m:
cuota jo) haya contestado armativamente a alguna pregunta o haya preferido un producto
bajo investigacion para su comercializacion. Por supuesto, asumimos que la probabilidad,
p, de que obtengamos una respuesta armativa, es la misma para cualquier sujeto. Este
24
esquema es similar al que se modelara con una Binomial, pero, mientras en la Binomial el
n umero de exitos, m, es aleatorio y el n umero de ensayos, n, es jo, en este caso sucede
exactamente al reves: el n umero de exitos, m, es jo (no aleatorio) y el n umero de ensayos
(n: total de entrevistados necesarios para tener m exitos) es aleatorio.
Para deducir la funcion de masa de probabilidad, consideremos el n umero de fracasos que
han ocurrido hasta obtener m exitos. Si suponemos que han ocurrido k fracasos antes de
obtener estos m exitos, es claro que n=m+k y que en los primeros m+k-1 ensayos debieron
de haber ocurrido m-1 exitos, ya que en el siguiente ensayo debio ocurrir el ultimo exito que
completa la cuota requerida. Entonces, dado que hemos jado la condici on de m-1 exitos
en los primeros m+k-1 ensayos, este hecho puede modelarse a traves de una v.a. Binomial
(m+k-1,p), y como requerimos que en el ultimo ensayo, que es independiente de los primeros
m+k-1, ocurra necesariamente un exito, entonces la funci on de densidad de esta v.a. es
Pr(N = k) =
_
m+ k 1
m1
__

1 +
_
m1
_
1
1 +
_
k
p, entonces
Pr(N = k) =
_
m+ k 1
k
__

1 +
_
m
_
1
1 +
_
k
k=0,1,2,...
ya que
_
m+k 1
m1
_
=
_
m+k 1
k
_
Observese que si k = 1, la Binomial Negativa se convierte en la Geometrica.
Caractersticas de esta v.a.
E(N) = k; V(N) = k(1 + ); P
N
(t) = [1 (z 1)]
k
; M
N
(t) =
_
1
1 + (1 e
t
)
_
k
Ya que > 0, entonces la varianza de la BN es mayor que su media, raz on por la que suele
usarse como alternativa a la Poisson cuando esta es sobre dispersa (Varmedia).
25
Distribucin Binomial negativa(2,1/2)
x
p
(
x
)
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
Distribucin Binomial negativa(2,0.3)
x
p
(
x
)
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
0
.
1
2
Distribucin Binomial negativa(2,0.7)
x
p
(
x
)
0
.
0
0
.
1
0
.
2
0
.
3
0
.
4
Distribuciones de la clase (a,b,0)
Ahora vamos a denir una clase general de distribuciones discretas, que ser a de mucha util-
idad para la modelaci on de frecuencias de reclamaciones.
La clase (a,b,0)
Denicion 2 Una distribuci on de frecuencias {p
k
} es un miembro de la clase (a, b, 0) si exis-
ten constantes a y b tales que
p
k
p
k1
= a +
b
k
, k = 1, 2, 3, ...
donde a y b son constantes propias de cada distribucion. En la siguiente tabla se muestran
los miembros de esta clase, con cada uno de sus valores de estas constantes, as como el valor
de la funci on de probabilidad en cero, p
0
.
26
Distribuciones de la clase (a,b,0)
Distribucion a b p
0
Binomial(n,q)
q
1 q
(n + 1)
q
1 q
(1 + q)
n
Poisson() 0 e

BN(,k)

1 +
(k 1)

1 +
(1 + )
k
Geometrica()

1 +
0 (1 + )
1
En conclusi on, La clase(a, b, 0) es una hiper familia de distribuciones discretas, que tiene
como miembros distinguidos a las distribuciones mencionadas.
Esta clase provee una forma de encontrar las probabilidades de las distribuciones discretas, a
traves de esta formula recursiva, y resulta bastante practica al momento de querer ajustarlas
a nuestros datos. Ademas, podemos reescribir la formula de tal manera que quede como una
funci on lineal. Es decir
kp
k
p
k1
= ak + b, k = 1, 2, 3, ...
Con esta forma lineal es posible identicar, por medio de su pendiente, la distribuci on de
probabilidad. Esto es, si la pendiente es igual a cero entonces se trata de una distribuci on
Poisson; si es negativa entonces ser a Binomial y si es positiva es una distribucion Binomial
Negativa.
Concretamente tenemos
Binomial(n, p)
kp
k
p
k1
= (n + 1)
q
1 q

q
1 q
k que es una lnea recta con pendiente
negativa
Poisson()
kp
k
p
k1
= + 0k que es una lnea recta con pendiente cero
BN(, r)
kp
k
p
k1
= (r 1)

1 +
+

1 +
k que es una lnea recta con pendiente positiva.
27
Distribuciones de clase (a, b, 1)
Algunas veces, las distribuciones de frecuencia anteriores no describen adecuadamente el
comportamiento de un conjunto de datos real. Por ejemplo, porque la distribucion elegida
no ajusta adecuadamente a la cola de los datos, o porque el miembro elegido de la clase (a,
b, 0) no captura, en alguna parte, la forma de la distribuci on de los datos. Un problema
adicional ocurre con la cola izquierda de la distribuci on, en particular con la probabilidad
en cero.
Para datos de seguros, la probabilidad en cero denota la probabilidad de que no ocurran
reclamaciones en un determinado periodo de tiempo. En situaciones donde la ocurrencia
de perdidas es baja, la probabilidad en cero toma un valor grande. Por lo que hay que
prestar especial atenci on sobre el ajuste en este punto. En contraste, existen situaciones en
las que la probabilidad de no sufrir perdidas en un periodo determinado, es pr acticamente
cero, como sucede, por ejemplo, para un seguro de autos para una gran ota de vehculos,
o en un seguro de enfermedades. Es f acil hacer un ajuste a la probabilidad en cero de los
modelos que componen la clase (a, b, 0), para considerar estas situaciones.
La clase (a, b, 1) es la familia de distribuciones que satisfacen la formula recursiva
p
k
p
k1
= a +
b
k
k = 2, 3, ... o
kp
k
p
k1
= ak +b (forma lineal)
La unica diferencia con la anterior es que esta inicia en p
1
y no en p
0
. Identicamos dos
tipos de estas distribuciones
Truncada en cero (zero-truncated): cuando p
0
= 0.
Modicada en cero (zero-modied): cuando p
0
> 0.
Es claro que lo que estamos haciendo es modicar a nuestro voluntad, el valor asignado a las
probabilidades para el valor nulo de la variable aleatoria en cuestion. Estas modicaciones
deben responder al problema particular que estemos modelando.
Una distribuci on de la clase (a, b, 1) tiene la misma forma que su correspondiente en la clase
(a, b, 0), en el sentido que sus probabilidades son las mismas salvo una constante de propor-
cionalidad.
28
Relacion entre estas clases
Sea P(z) =

k=0
p
k
z
k
la fgp de un miembro de la clase (a, b, 0) y P
M
(z) =

k=0
p
M
k
z
k
la fgp del
miembro correspondiente de la clase (a, b, 1). Como dijimos, se tiene que
p
M
k
= cp
k
, k = 1, 2, 3, ...
con p
M
0
un n umero arbitrario. Entonces
P
M
(z) = p
M
0
+

k=1
p
M
k
z
k
= p
M
0
+ c

k=1
p
k
z
k
= p
M
0
+ c [P(z) p
0
]
ya que P
M
(1) = P(1) = 1, entonces
1 = p
M
0
+c(1 p
0
)
de donde obtenemos
c =
1 p
M
0
1 p
0
, o p
M
0
= 1 c(1 p
0
)
Si remplazamos este valor en la expresion para P
M
(z), obtenemos
_
1
1 p
M
0
1 p
0
_
+
1 p
M
0
1 p
0
P(z)
que es un promedio ponderado de las fgps de una distribuci on degenerada y la del miembro
correspondiente de la clase (a, b, 0). Adem as tenemos
29
p
M
k
=
1 p
M
0
1 p
0
p
k
, k = 1, 2, ...
Si ahora denotamos P
T
(z) a la fgp de una distribucion truncada en cero, correspondiente
a la fgp de un miembro de la clase (a, b, 0), P(z). Remplazando p
M
0
= 0 en las expresiones
anteriores, tenemos
P
T
(z) =
P(z) p
0
1 p
0
,
p
T
k
=
p
k
1 p
0
, k = 1, 2, ...,
p
M
k
= (1 p
M
0
)p
T
k
, k = 1, 2, ... y
P
M
(z) = p
M
0
+ (1 p
M
0
)P
T
(z)
tambien un promedio ponderado entre una distribuci on degenerada y el correspondiente
miembro de la clase (a, b, 0), truncada en cero.
Ejercicio urgente pa aclarar esto
Consideremos una binomial negativa( = 0.5, r = 2.5). Determinemos los primeros cuatro
valores de sus probabilidades para los casos cero-truncado y cero-modicado, con p
M
0
= 0.6.
Primero, observemos que BN pertenece a la clase (a, b, 0). En este caso
a =
0.5
1.5
=
1
3
, b =
(2.5 1) 0.5
1.5
=
1
2
, y
p
0
= (1 + 0.5)
2.5
= 0.362887
Si no tuvieramos ninguna modicacion, entonces calcularamos los otros tres valores a traves
de la f ormula recursiva correspondiente, como
p
1
= 0.362887
_
1
3
+
1
2
1
1
_
= 0.302406
p
2
= 0.302406
_
1
3
+
1
2
1
2
_
= 0.176404
p
3
= 0.176404
_
1
3
+
1
2
1
3
_
= 0.088202
30
pero estas modicaciones cambiar an las probabilidades del modelo original. En el caso
cero-truncado forzamos el modelo a tomar p
T
0
= 0. Ya que el modelo original asigna una
probabilidad positiva al valor cero, tendremos que incrementar las probabilidades originales
en este modelo truncado en cero. Entonces, el primer valor de esta distribucion truncada
es p
T
1
= 0.302406/(1 0.362887) = 0.474651. A partir de este valor iniciamos el proceso
recursivo para obtener los dos restantes
p
T
2
= 0.474651
_
1
3
+
1
2
1
2
_
= 0.276880
p
T
3
= 0.276880
_
1
3
+
1
2
1
3
_
= 0.138440
Por otro lado, en el caso de cero-modicado observamos que se asigna una probabilidad
mayor en cero, p
M
0
= 0.6, de la que se tiene con el modelo original, por lo tanto, habr a que
decrementar las probabilidades originales. Dado este valor inicial, calculamos
p
M
1
= (1 0.6)(0.302406)/(1 0.362887) = 0.189860. De aqu tenemos
p
M
2
= 0.189860
_
1
3
+
1
2
1
2
_
= 0.110752
p
M
3
= 0.110752
_
1
3
+
1
2
1
3
_
= 0.055376
Variables y Modicaciones de cobertura
En esta seccion vamos a denir conceptos necesarios para el desarrollo de la teora proba-
bilistica y estadstica que abarcan los seguros. Primero, es claro que existen distintos tipos de
acuerdos entre las compa nas aseguradoras y el asegurado, bajo los cuales se buscan satisfacer
las necesidades de ambos, a traves de las distintas coberturas que se ofrecen en las polizas
de seguros. Entonces, para desarrollar los modelos que contemplen estas modicaciones de
cobertura, es indispensable denir las nuevas variables que generalmente se observan en los
diversos tipos de cobertura, y por medio de las cuales desarrollaremos la teora posterior.
Hasta ahora, hemos supuesto que la cantidad de perdida, X, es tambien la cantidad a pagar
por las reclamaciones. Sin embargo, hay modicaciones a las p olizas por las que el asegu-
rador puede ser responsable unicamente de un porcentaje o proporcion de esta perdida, que
31
constituye propiamente la severidad de la misma. Por ejemplo cuando la p oliza tiene:
Deducibles
Lmites de p oliza
Coaseguro
Antes de representar estas modicaciones al pago de las perdidas mediante variables aleato-
rias y las funciones que las describen, es conveniente distinguir entre dos asociadas a esta
situaci on. Una v.a. relacionada al pago de la perdida, en la que el valor cero es posible, y
ocurre cuando hay una perdida sin pago. La segunda corresponde a la que mide el pago del
pago, que queda indenida si no hay pago.
Denici on Deducible: Cantidad o porcentaje establecido en una poliza cuyo importe debe
superarse para que se pague una reclamaci on.
En teminos tecnicos: Las polizas de seguro se venden con un deducible, d, por pago de la
perdida. Cuando la perdida, x, es menor que d, la compa na aseguradora no paga nada.
Cuando la perdida es superior a d, la compa na paga xd. Entonces, denimos las variables
aleatorias asociadas:
La siguiente variable que denota el pago del pago
Y
P
=
_

_
no definida, si X d
X d, si X > d
.
Esta variable tiene dos caractersticas importantes, la primera de ellas, es que esta truncada
por la izquierda, ya que que aquellas observaciones por debajo del valor del deducible, d ,
son omitidas y esta trasladada debido a que los valores que toma la v.a. empiezan a partir
de d.
Mientras que la que est a asociada al pago por la perdida es:
Y
L
= (Y d)
+
=
_
_
_
0, si X d
X d, si X > d
32
Y
L
es una v.a. mixta con una masa de probabilidad en cero, y posiblemente continua para
valores mayores a este. Notemos que Y
P
= Y
L
|Y
L
> 0 = Y
L
|X > d. Dadas las deniciones
anteriores, se tiene que:
f
Y
P =
f
X
(y +d)
S
X
(d)
, y > 0
S
Y
P =
S
X
(y + d)
S
X
(d)
F
Y
P =
F
X
(y +d) F
X
(d)
1 F
X
(d)
h
Y
P =
f
X
(y + d)
S
X
(y +d)
= h
X
(y +d)
f
Y
L = f
X
(y +d), y > 0
S
Y
L = S
X
(y + d), y 0
F
Y
L = F
X
(y +d), y 0
Donde S() y h() son las correspondientes funciones de supervivencia y riesgo, respectiva-
mente. Es importante remarcar que si se cambia el deducible, se modica la frecuencia con
la que se hacen los pagos; sin embargo, la frecuencia de perdidas permanece inalterada.
Ejemplo: Supongamos que nuestra variable individual de perdida se distribuye Pareto con
= 3 y = 2000, y tenemos un deducible de 500. Utilizando las formulas anteriores, tenemos
f
Y
P (y) =
3(2000)
3
(2000 + y + 500)
4
(2000)
3
(2000 + 500)
3
=
3(2500)
3
(2500 + y)
4
S
Y
P (y) =
_
2500
2500 + y
_
3
F
Y
P (y) = 1
_
2500
2500 + y
_
3
h
Y
P (y) =
3
2500 + y
que es una distribuci on Pareto(3, 2500). Para nuestra variable de perdida, tenemos:
33
f
Y
L(y) =
_

_
0.488, si y = 0
3(2000)
3
(2500 + y)
4
, si y > 0
S
Y
L(y) =
_

_
0.512, si y = 0
(2000)
3
(2500 + y)
4
, si y > 0
F
Y
L(y) =
_

_
0.488, si y = 0
1
3(2000)
3
(2500 + y)
4
, si y > 0
h
Y
L(y) =
_

_
no definida, si y = 0
3
2500 + y
, si y > 0
0 20 40 60 80 100
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
Pareto(4,30)
x
f
.
d
.
p
.
X
Y^P
0 20 40 60 80 100
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
Pareto(4,30)
x
f
.
d
.
p
.
q
X
Y^L
Valores esperados
El k-esimo momento de estas variables se denen como:
E
_
(X d)
k
|X > d

=
_

d
(x d)
k
f(x)dx
1 F(d)
para Y
P
, y como:
34
E
_
(X d)
k
+

=
_

d
(x d)
k
f(x)dx
para Y
L
. Denimos min(X, d) = (X d). Entonces, observese que
X = (X d)
+
+ (X d)
de donde se desprende que, en una p oliza con un deducible ordinario, el costo esperado por
perdida es:
E [(X d)
+
] = E(X) E(X d)
y el costo esperado por pago es:
E(X) E(X d)
1 F(d)
y, c omo se calcula E(X d)?. En general, el k-esimo momento es:
E
_
(X d)
k

=
_
d

x
k
f(x)dx +d
k
[1 F(d)]
Tres resultados que seran de gran utilidad en el desarrollo de varias formulas y de calculos,
son:
E(X) =
_

0
[1 F(x)] dx =
_

0
S(x)dx
E [(X d)] =
_
d
0
[1 F(x)] dx
E [(X d)
+
] =
_

d
[1 F(x)] dx
Calculemos estas esperanzas en el caso de la Pareto(3, 2000), con deducible de 500.
F(500) = 1
2000
(2000 + 500)
3
= 0.488,
E(X 500) =
2000
2
_
1
_
2000
2000 + 500
_
2
_
= 360
35
Recordemos que la Pareto(, ) tiene esperanza /( 1). Entonces, nuestra variable que
denota esta perdida tiene E(X) = 2000/2 = 1000. Por lo tanto, el costo esperado por
perdida es 1000 360 = 640 y el costo esperado por pago es 640/(1 0.488) = 1250.
La tasa de eliminaci on de perdidas y el efecto de inacion en deducibles ordinarios
Una cantidad que puede ser importante para evaluar el impacto de un deducible, es la tasa
de eliminacion de perdida.
Denici on: La tasa de eliminacion de perdida es el cociente de decremento en el pago es-
perado con un deducible ordinario, respecto al pago sin este deducible. Sin el deducible, el
pago esperado es E(X). Con el deducible, este pago esperado es E(X) E(X d). Por lo
tanto, la tasa de eliminaci on de perdida es:
E(X) [E(X) E(X d)]
E(X)
=
E(X d)
E(X)
siempre que E(X) exista.
Siguiendo con nuestro ejemplo de la Pareto(3,2000), con un deducible ordinario de 500. La
tasa de eliminaci on de perdida es 360/1000 = 0.36. Entonces, el 36% de la perdida puede
ser eliminada al introducir un deducible ordinario de 500.
El efecto de la inacion
Es obvio que la inaci on incrementa los costos, pero cuando existe un deducible, el efecto de
la inacion se magnica:
Algunos eventos que formalmente producan perdidas por debajo del deducible, ahora
requerir an de pago de la perdida, por efecto de la inacion. Es decir, ahora hay mas recla-
maciones que exceden el deducible.
El efecto relativo de la inaci on se magnica, ya que el deducible se sustrae posterior a
la inaci on. El deducible no incrementa con la inaci on, pero los reclamos que exceden el
deducible crecer an m as que la tasa de inaci on. Por ejemplo, suponga que un evento produce
una perdida de 600 sin efecto de inaci on, y tiene un deducible de 500, entonces, el pago es
de 100. Si la inaci on es del 10%, la perdida incrementar a a 660, y el pago a 160, lo que
36
equivale a un incremento del 60% sobre el pago sin inacion, y este costo extra debe ser
absorvido por la aseguradora.
Pago esperado por reclamo, considerando la tasa de inacion
Consideremos un deducible, d, y una tasa de inacion constante, r, a lo largo del periodo.
El pago esperado por perdida sera
E [(1 + r)X] E [(1 + r)X d]
que puede reescribirse como
(1 + r)
_
E(X) E
_
X
d
1 + r
__
Veamos esto ultimo
E
_
((1 + r)X d)
+
_
= (1 +r)E
__
X
d
1 + r
_
+
_
= (1 +r)
_
E(X) E
_
X
d
1 + r
__
Y el pago esperado considerando esta tasa de inaci on, es:
(1 + r)
_
E(X) E
_
X
d
1 + r
__
1 F (d/(1 + r))
Seguimos con nuestro ejemplo. Supongamos una tasa de inaci on r = 10%. Recordemos que
el costo esperado por la perdida es 640 y el pago esperado 1250. Con un 10% de inacion
tenemos:
E
_
X
500
1.1
_
= E(X 454.55) =
2000
2
_
1
_
2000
2000 + 454.55
_
2
_
= 336.08
37
y el costo esperado por perdida despues del efecto de inaci on es 1.1(1000336.08) = 730.32,
que incrementa un 14.11% ((730.32 640)/640), el pago sin inacion que era de 640. Para
calcular el costo por el pago, primero debemos calcular
F(454.55) = 1
_
2000
2000 + 454.55
_
3
= 0.459
de donde obtenemos que este costo es 730.32/(1 0.459) = 1350, que aumenta un 8% con
respecto al de 1250 sin inaci on.
Lmite de p oliza
Lo opuesto al deducible es un lmite de p oliza. Un lmite de p oliza tpico es un contrato
donde, para las perdidas menores a un umbral, u, la aseguradora paga la perdida total, pero
para aquellas mayores a u, la aseguradora s olo paga u.
La v. a. asociada a esta reclamaci on es Y = min(X, u), que puede escribirse como:
Y = (X u) =
_
_
_
X, si X u
u, si X > u
Con funciones de densidad y distribucion dadas por:
f
Y
(y) =
_
_
_
f
X
(y), y < u
1 F
X
(u), y = u
F
Y
(y) =
_
_
_
F
X
(y), y < u
1, y u
Observese que los resultados que hemos establecido para un deducible d, pueden adaptarse
directamente cuando se trata de un lmite de p oliza, simplemente cambiando d por u.
Ahora desarrollemos nuestro ejemplo con un lmite en la poliza de 3000 y una tasa de in-
aci on del 10%. El costo esperado en este caso es:
38
E(X 3000) =
2000
2
_
1
_
2000
2000 + 3000
_
2
_
= 840
y la proporci on de reduccion es (1000 840)/1000 = 0.16. Despues de aplicar la tasa de
inaci on, el costo esperado es:
1.1 E(X 3000/1.1) = 1.1
2000
2
_
1
_
2000
2000 + 3000/1.1
_
2
_
= 903.11
con una proporci on de reduccion de (1100 903.11)/1100 = 0.179. El porcentaje de crec-
imiento entre estos costos es de 7.5% = 1 (903.11/840), que es menor que la tasa de
inaci on. El efecto es opuesto al del deducible.
Coaseguro
En polizas con coaseguro, la cantidad de reclamo es proporcional a la cantidad de perdida
por un factor de coaseguro. Este factor de coaseguro , 0 < < 1, es la proporci on de
pago que le corresponde a la compa na aseguradora, mientras el poseedor de la poliza paga
la fraccion restante. La v.a. para este pago es:
Y = X
cuya densidad puede expresarse como:
f
Y
(y) =
1

f
X
_
y

_
y tiene valor esperado E(Y ) = E(X).
Coaseguro, deducibles y lmites
Por supuesto, pueden aplicarse todas las modicaciones de una p oliza que hemos visto: de-
ducible ordinario, lmite de poliza, coaseguro e inacion para generar una p oliza mas general.
En este caso la variable aleatoria asociada es:
Y = (1 + r)
__
X
u
1 + r
_

_
X
d
1 + r
__
39
que podemos reescribir
Y =
_

_
0, X <
d
1 + r
[(1 + r)X d] ,
d
1 + r
X <
u
1 + r
(u d), X
u
1 + r
con un pago esperado por perdida
E(Y
L
) = (1 + r)
_
E
_
X
u
1 + r
_
E
_
X
d
1 + r
__
y valor esperado por pago
E(Y
P
) =
E(Y
L
)
1 F
X
_
d
1+r
_
Observese que podemos calcular todas las expresiones involucradas en esta ultimas formulas,
conociendo el modelo asociado a nuestra v.a. de perdida.
Ejemplo: Una compa na de seguros ofrece dos tipos de p olizas: Tipo I y Tipo II. La de Tipo I
no tiene deducible, pero tiene un lmite de 3000. Por el contrario, la de Tipo II no tiene lmite,
pero tiene un deducible d. Las perdidas siguien una distribuci on Pareto( = 3, = 2000).
Encontrar d de tal manera que las dos polizas tengan la misma cantidad de perdida esperada.
E(T
I
) = E(X 3000) =
2000
2
_
1
_
2000
2000 + 3000
_
2
_
= 840
E(T
II
) = E [(x d)
+
] =
_

d
_
2000
x + 2000
_
3
dx =
2000
2
_
_
2000
2000 + d
_
2
_
ya que E(T
I
) = E(T
II
), despejamos d, y tenemos que el deducible debe ser d = 182.18.
Ostro: Una compa na de mantenimiento de un hospital, paga cotidianamente el costo total
por uso de la sala de emergencia de sus clientes. Esta empresa ha visto que el costo sigue una
40
distribuci on exponencial con media 1000. La ca. est a evaluando la posibilidad de imponer
un deducible de 200 a sus clientes, por el uso de esta sala.
Calcule la tasa de eliminacion de perdida debido al deducible de 200. Interprete esta tasa.
Suponga que la ca. decide imponer este deducible de 200 por el uso de la sala, ademas de
un lmite de 5000 y con un factor de coaseguro del 80%. Calcule la cantidad de reclamacion
esperada por el evento de perdida y la cantidad esperada por pago, que debe realizar la
empresa.
Suponga una inaci on uniforme del 8%. Calcule los pagos del inciso anterior aplicando
esta tasa.
Primero, observamos que la parametrizacion de la exponencial que tiene sentido, de acuerdo
a la informaci on es:
f(x) =
1
1000
e
x/1000
que tiene E(X) = 1000. Para nuestro primer punto, tenemos que calcular
E(X 200)
E(X)
=
_
200
0
e
x/1000
1000
=
1000 (1 e
0.2
)
1000
= 18.12%
El 18.12% de la perdida puede ser eliminada imponiendo un deducible de 200. Para nuestro
segundo punto, tenemos: d = 200, u = 5000 y = 80%, y debemos calcular
E(Y ) = [E(X u) E(X d)]
Observemos que el segundo termino de la expresion entre corchetes cuadrados, es parte del
desarrollo que realizamos en el inciso anterior, y vale 181.2. Para el primer elemento de este
corchete, tenemos
E(X u) = E(X 5000) =
_
5000
0
e
x/1000
= 1000 (1 e
5
) = 993.262
de estas dos cantidades tenemos que
41
E(Y ) = 0.8 [E(X 5000) E(X 200)] = 0.8 (993.262 181.2) = 649.649
que es la cantidad de reclamacion esperada por uso de la sala. Cuyo pago esperado es de:
E(Y )
1 F
X
(d)
=
E(Y )
e
200/1000
=
649.649
0.8187
= 793.4831
El punto nal se deja como ejercicio al lector. (El resultado es: 709.5099).
El impacto del deducible en la frecuencia de los reclamos
Un componente importante para analizar el efecto en las modicaciones de las polizas,
concierne al cambio en la distribuci on de frecuencias de los pagos cuando se impone un de-
ducible o cuando se modica. Cuando se impone o se incrementa el deducible, esperaramos
pocos pagos por periodo, mientras que si se reduce, entonces esperaramos realizar mas pagos.
Podemos cuanticar este proceso, asumiendo que la imposici on de modicaciones de cober-
tura no afecta el proceso que produce las perdidas individuales que ser an pagadas por la
aseguradora. Por ejemplo, en aquellos individuos con una poliza con deducible de 250 por
da no en automovil, puede ser menos posible que se vean involucrados en un accidente que
aquellos con cobertura total.
Para iniciar nuestra discusion, supongamos que X
j
representa la j-esima perdida y que no
tiene modicaciones de cobertura en la poliza. Sea N
L
el n umero de perdidas. Ahora, con-
sideremos una modicaci on en la cobertura tal que es la probabilidad de que las perdidas
resulten en pago. Por ejemplo, si hay un deducible d, entonces = Pr(X > d). Dena la
variable indicadora I
j
como I
j
= 1 si la j-esima perdida resulta en pago e I
j
= 0 de otra
forma. Entonces, I
j
tiene distribuci on Bernoulli con p arametro y fgp P
I
j
(z) = 1 +z.
Entonces, N
P
= I
1
+ +I
N
L representa el n umero de pagos. Si I
1
, I
2
, , son mutuamente
independientes e independientes de N
L
, entonces N
P
tiene una distribucion compuesta con
N
L
como la distribucion primaria y una Bernoulli como distribucion secundaria. Entonces
P
N
P = P
N
L
_
P
I
j
(z)

= P
N
L [1 + (z 1)]
En el caso especial en que la distribucion de N
L
depende de un par ametro , tenemos:
42
P
N
L(z) = P
N
L(z; ) = B[(z 1)]
con B(z) una funcional independiente de . Entonces
P
N
P (z) = B[(1 +z 1)]
= B[(z 1)]
= P
N
L(z; )
Este resultado implica que N
L
y N
P
pertenecen a la misma familia parametrica y solo el
par ametro debe cambiar.
Ejemplo
Supongamos que la distribuci on para la frecuencia de perdidas es BN( = 3, r = 2), y
para las perdidas es Pareto( = 3, = 1000). Queremos ver el efecto que tiene sobre la
distribuci on de frecuencias, imponer un deducible de 250.
Recordemos que la BN tiene fgp dada por P
N
(z) = [1 (z 1)]
r
. En este caso toma
el rol de y B(z) = (1 z)
r
. Entonces, N
P
debe tener tambien una distribuci on BN con
par ametros r

= r y

= . Dados los valores particulares de este ejemplo


= 1 F(250) =
_
1000
1000 + 250
_
3
= 0.512,
r

= 2 y

= 3(0.512) = 1.536 P
N
L(z; ) = BN(2, 1.536)
43
0 5 10 15
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
0
.
1
0
Impacto del deducible en la frecuencia de reclamaciones
x
0 5 10 15
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
x
BN(3,2)
BN(1.536,2)
Modelo de perdidas agregadas
En el ejemplo anterior mencionamos (sin gran detalle) que las variables involucradas tenan
una distribucion compuesta. Ahora introduciremos uno de los modelos mas importantes
en la teora del riesgo, que requiere de una distribucion compuesta de las variables que lo
determinan.
Introduccion
Las perdidas que tiene una compa na aseguradora pueden surgir de manera individual o
colectiva, dependiendo del tipo de seguro que se contrate; por este motivo, hay que poner es-
pecial atenci on al rol que desempe nan las caractersticas de cada uno de ellos, en las perdidas
que contraiga la empresa. Los modelos que determinan el monto total que devenga una Ca
por la acumulacion de los riesgos individuales de su portafolio de asegurados, son:
Modelo de riesgo Individual, y
Modelo de riesgo Colectivo.
44
Modelo Individual
Supongamos que tenemos un portafolio de n p olizas individuales de seguros vigentes por,
digamos, un a no. Denamos como q
j
la probabilidad de que el j-esimo asegurado efect ue exac-
tamente una reclamacion en el periodo; lo que implica que se cumple la igualdad, p
j
+q
j
= 1,
que signica que no puede haber m as de una reclamacion por cada asegurado.
Un ejemplo de esta situacion es el que se presenta a traves de contratos para grupos de vida,
en donde se cubre a cierto n umero de personas n , y cada una posee diferentes coberturas
de acuerdo a las categoras que se establecen para su grupo. Esta situacion produce que las
personas tengan distintas probabilidades de perdidas, sujetas a sus caractersticas personales
o cualquier otra condici on que exista y se determine en el contrato.
Para jar ideas, supongamos un portafolio con n p olizas, una poliza por individuo y con
vigencia a lo largo de un periodo de tiempo establecido. Entonces q
j
es la probabilidad
de que el j-esimo asegurado efect ue exactamente una reclamaci on durante este periodo, y
(p
j
= 1 q
j
) que no haga ninguna reclamacion. Esta variable aleatoria es evidentemente
Bernoulli que asigna valores de 1 y 0 a estos eventos, respectivamente, denotemosla como
R
j
. Ahora bien, una vez que la j-esima p oliza efect ue una reclamaci on, el impacto de la
misma se ver a reejado en el monto que la compa na aseguradora deber a asumir. Denimos
entonces la variable aleatoria B
j
> 0, (R
j
B
j
), como el monto de reclamaci on de la j-esima
p oliza. Por lo tanto, el monto de la j-esima p oliza queda denido por:
X
j
=
_
B
j
si R
j
= 1 y ocurre con probabilidad q
j
0 si R
j
= 0 y ocurre con probabilidad 1 q
j
Entonces, el monto total por reclamaciones o monto agragado que debe asumir la compa na
aseguradora por el concepto de la reclamaciones de sus asegurados, en el modelo individual,
est a dado por la variable aleatoria
S =
n

j=1
X
j
=
n

j=1
B
j
R
j
Este modelo se conoce tambien como el modelo de perdidas agregadas.
45
El nombre de modelo individual se debe a que supone conocer las probabilidades de recla-
maci on y posible monto de reclamaci on de todos y cada uno de los asegurados de manera
individual. Una posible desventaja es que presupone que el n umero de asegurados en la
cartera se mantiene constante (no es aleatorio) durante todo el tiempo de vigencia del seguro.
Entonces, nuestro objetivo es conocer las caractersticas estadsticas de esta variable S, tales
como: funcion de densidad, distribuci on, media, varianza, funcion generadora de momentos,
etc.
Supongamos que cada variable aleatoria, X
j
, tiene asociada una funcion de distribuci on
F
X
j
(x) , entonces la funcion de distibucion de S queda en terminos de convoluciones como:
F
S
(x) = (F
X
1
F
Xn
) (x)
No obstante el c alculo de convoluciones no es, en general, una tarea f acil, por lo que requer-
imos de maneras alternativas para estudiar esta variable aleatoria. Denotemos por G
B
j
a la
funci on de distribucion de B
j
. Entonces, algunas caractersticas de esta variable se enuncian
en la siguiente proposici on
Proposicion
1. E(S) =
n

j=1
q
j
E(B
j
)
2. V(S) =
_
q
j
V(B
j
) + q
j
p
j
E
2
(B
j
)

3. F
X
j
(x) =
_
(1 q
j
) + q
j
G
B
j
(x), x 0
0 , x < 0
4. M
X
j
(t) = (1 q
j
) + q
j
M
B
j
(t)
5. M
S
(t) =
n

j=1
_
(1 q
j
) + q
j
M
B
j
(t)

Dem
46
1.- E(S) =
n

j=1
E(X
j
) =
n

j=1
E(B
j
R
j
) =
..
por independencia
n

j=1
E(B
j
) E(R
j
) =
n

j=1
q
j
E(B
j
)
2.- Observemos que
V(B
j
R
j
) = E
_
B
2
j
R
2
j
_
E
2
(B
j
R
j
)
= q
j
E
_
B
2
j
_
q
2
j
E
2
(B
j
)
= q
j
[V(B
j
) +E
2
(B
j
)] q
2
j
E
2
(B
j
)
= q
j
V(B
j
) +
_
q
j
q
2
j
_
E
2
(B
j
)
= q
j
V(B
j
) + p
j
q
j
E
2
(B
j
)
Por lo que
V(S) =
n

j=1
V(B
j
R
j
) =
..
idependencia
n

j=1
_
q
j
V(B
j
) + p
j
q
j
E
2
(B
j
)

3.- x 0,
F
X
j
(x) = P(X
j
x) = P(B
j
R
j
x)
= P(B
j
R
j
x|R
j
= 0) P(R
j
= 0) +P(B
j
R
j
x|R
j
= 1) P(R
j
= 1)
= P(0 x|R
j
= 0) p
j
+P(B
j
x|R
j
= 1) q
j
= 1 p
j
+q
j
G
X
j
(x)
4.- M
X
j
(t) = E
_
e
tX
j
_
= E
_
e
tB
j
R
j
_
= E
_
e
tB
j
R
j
|R
j
= 0
_
P(R
j
= 0) +P
_
e
tB
j
R
j
|R
j
= 1
_
P(R
j
= 1)
= p
j
+q
j
M
B
j
(t)
5.- M
S
(t) = E
_
e
t

n
j=1
X
j
_
= E
_
e
t

n
j=1
B
j
R
j
_
=
..
independencia
n

j=1
_
p
j
+q
j
M
B
j
(t)

47
Encontrar la distribuci on de S, por lo general, es complicada, por tal motivo no se utilizan
las convoluciones como una alternativa para obtenerla. Para lidiar con esta situaci on, se
han desarrollado metodos, esencialmente de aproximacion numerica, que proporcionan esta
distribuci on de las perdidas agregadas en un modelo individual.
El modelo colectivo de riesgo
Este modelo presenta las perdidas agregadas como una suma aleatoria de variables aleato-
rias, donde N es la variable aleatoria del n umero de reclamaciones realizadas y X
1
, X
2
, ..., X
N
son las variables aleatorias independientes e identicamente distribuidas, que representan los
montos de cada reclamaci on. La especicacion formal del modelo es la siguiente
Sea X
j
la reclamaci on de pago realizada por el j-esimo asegurado, y sea N el n umero aleato-
rio de reclamaciones. Al total o (agregado) de reclamaciones:
S = X
1
+X
2
+ +X
N
=
N

j=1
X
j
, con S = 0 cuando N = 0
se le conoce como modelo agregado de reclamaciones . Otros nombres que recibe en la lit-
eratura actuarial son modelo colectivo de riesgos y el modelo compuesto de frecuencias. Los
supuestos del modelo son:
Condicional a N = n, las variables aleatorias X
1
, X
2
, ..., X
N
son i.i.d.
Condicional a N = n, la distribuci on com un de X
1
, X
2
, ..., X
N
no depende de n
La distribucion de N no depende de ninguna manera de los valores de X
1
, X
2
, ..., X
N
.
Tenemos, N: frecuencia de reclamaciones y X: severidad de las reclamaciones, por lo tanto S
tiene una distribuci on compuesta. Entonces, la cuesti on central es encontrar la distribuci on
de S.
Ya que el objetivo es encontrar la distribucion que mejor ajuste a S, lo haremos a partir de la
distribuci on que ajustemos para N y de la distribucion de las X

j
s. Por lo que la frecuencia
y severidad se modelaran de forma separada pues representa muchas ventajas, entre las que
est an las siguientes:
48
Debido a que el n umero esperado de reclamaciones se ve afectado por el n umero de polizas
que se vayan asegurando, y se ir a actualizando basado en datos anteriores, el hecho de tener
por separado la frecuencia es m as practico para ir modicando nuestros datos.
El efecto de factores economicos como la inaci on se ven reejados en las perdidas de
la compa na, por lo que identicar estos factores en los montos agregados se puede volver
complicado, y si analizamos la frecuencia y severidad por separado esto resulta m as sencillo.
El impacto de deducibles, coaseguros y lmites de polizas, se estudia de manera mas sencilla,
tanto en las distribuciones de severidad, como en las de frecuencia.
Debido a que la forma de la distribuci on de S depende de las distribuciones de X y N, el
conocer cada una de ellas servira para ajustar mejores distribuciones para S. Por ejemplo,
si la cola de la distribucion de X es mas pesada en comparaci on con la de N, la forma de
la cola que tendr an las perdidas agregadas sera determinada por la severidad y ser a mas
insensible a la frecuencia.
Entonces, los pasos a seguir para hallar la distribucion m as adecuada para el modelo prop-
uesto de S son:
1. Desarrollar un modelo de la distribucion para la frecuencia N basada en datos.
2. Desarrollar un modelo para la distribuci on com un de las perdidas X

j
s bas andonos en
los datos.
3. Usando estos dos modelos, llevar a cabo los calculos necesarios para encontrar la dis-
tribuci on de S.
Funciones de distribucion y densidad de S
La funcion de distribucion de S est a dada por
F
S
(x) = Pr(S x) =

n=0
p
n
Pr(S x|N = n) =

n=0
p
n
F
n
X
(x)
Con F
X
(x) = Pr(X x) la funci on de distribucion com un de las X
j
s y p
n
= Pr(N = n).
F
n
X
(x), es la convolucion de las n v.
s
a.
s
, y se puede calcular de forma recusiva como
49
F
0
X
(x) =
_

_
0 x < 0
1, x 0
y
F
k
X
(x) =
_

F
(k1)
X
(x y)dF
X
(y) para k = 1, 2, ...
Las colas de esta distribucion, que son de interes, se pueden calcular como
1 F
S
(x) =

n=1
p
n
[1 F
n
X
(x)]
Su funcion de densidad est a dada por:
f
S
(x) = Pr(S = x) =

n=0
p
n
f
n
X
(x), x = 0, 1, ...
cuyo c alculo recursivo es
f
k
X
(x) =
_

f
(k1)
X
(x y)f
X
(y)dy para k = 1, 2, ...
Si X es discreta, con probabilidades en 0, 1, 2, ... las respectivas convoluciones se pueden
calcular sustituyendo la integral por una suma sobre los valores que toma X.
La fgp de S es
P
S
(z) = E(z
S
) =

n=0
E(z
X
1
+X
2
++X
N
|N = n)Pr(N = n)
=

n=0
E
_
n

j=1
z
X
j
_
Pr(N = n)
=

n=0
[P
X
(z)]
n
Pr(N = n)
= E
_
P
X
(z)
N

= P
N
[P
X
(z)]
50
Siguiendo las mismas consideraciones, la f.g.m de S se obtiene, por
M
S
(t) = E
_
e
tS
_
= E
_
E
_
e
tS
| N

= E
_
E
_
e
t(X
1
++X
N
)
| N

n=0
E
_
e
t(X
1
++X
N
)
| N = n

P(N = n)
=

n=0
E
_
e
t(X
1
++Xn)
| N = n

P(N = n) =

n=0
E
_
e
t(X
1
++Xn)

P(N = n)
=

n=0
E
_
n

j=1
e
tX
j
_
P(N = n) =

n=0
_
n

j=1
E
_
e
tX
j

_
P(N = n)
=

n=0
_
E
_
e
tX
_
n
P(N = n) =

n=0
(M
X
(t))
n
P(N = n) = E
_
(M
X
(t))
N
_
= E
_
e
log((M
X
(t))
N
)
_
= E
_
e
N log((M
X
(t)))

= M
N
(log(M
X
(t))
Por lo tanto, obtenemos
M
S
(t) = M
N
(log(M
X
(t))
y dejandola en terminos de la f.g.p.
M
S
(t) = P
N
(M
X
(t))
Momentos de S
Ahora desarrollaremos algunos momentos de esta variable aleatoria, que ser an de utilidad
posteriormente.
E(S) = E[E[S | N]] = E
_
E
_
N

j=1
X
j
|N
__
51
=

n=0
E[X
1
+ X
2
+ +X
N
| N = n] P(N = n)
=

n=0
E[X
1
+ X
2
+ +X
n
| N = n] P(N = n)
ya que las X

j
s son v.a.i.i.d. su esperanza es la misma, digamos, E[X], entonces:

n=0
E[X
1
+X
2
+ + X
n
| N = n] P(N = n) =

n=0
nE[X] P(N = n) = E[X] E[N]
E(S) = E[X] E[N]
La varianza de S se puede calcular por medio de la formula de varianza iterada donde
V(S) = E[V(S | N)] +V[E(S | N)] = E[NV(X)] +V[NE(X)]
= E(N) V(X) +V(N)E
2
(X)
=V(S) = E(N) V(X) +V(N)E
2
(X)
Y nalmente su tercer momento alrededor de la media, es:
E
_
(S E(S))
3

= E(N) E
_
(X E(X))
3

+3V(N) E(X) V(X)+E


_
(N E(N))
3

E(X)
3
Hallar explcitamente la distribucion de S no es trivial, por lo que se utilizan diversas aproxi-
maciones a su distribuci on o soluciones n umericas; no obstante, existen algunas elecciones de
los modelos para N y X que permiten tener resultados analiticos para ciertas caractersticas
de esta distribucion.
Algunos modelos compuestos
Modelo Binomial Compuesto
Si la variable de frecuencia de reclamaciones, N se distribuye Binomial (n, p), y los montos
de reclamacion, X, tienen una distribucion con soporte en los reales positivos, entonces, S
tiene una distribucion binomial compuesta. Sus caractersticas numericas son:
52
E(S) = npE(X)
V ar (S) = np
_
E(X
2
) pE(X)
2
_
M
S
(t) = (1 p + pM
X
(t))
n
Modelo Binomial Negativo Compuesto
Cuando el n umero de reclamaciones tiene una distribuci on Binomial Negativa entonces el
riesgo S se distribuye Binomial Negativa Compuesta y se tiene:
E(S) = rE(X)
V ar (S) = r
_
E(X
2
) + E(X)
2
_
M
S
(t) =
_
1
1 + (1 M
X
(t))
_
r
Modelo Poisson Compuesto
Bajo los mismos supuestos que en los modelos anteriores, si N se distribuye Poisson(),
entonces S tiene una distribucion Poisson compuesta. Con
E(S) = E(X)
V ar (S) = E(X
2
)
M
S
(t) = e
(M
X
(t)1)
Supongamos que N Poisson() y que X
j
Bernoulli(q), aplicando lo anterior para la
distribuci on de S, tenemos que
M
S
(t) = e
(M
X
(t)1)
; donde M
N
(t) = e
(e
t
1)
y en particular para
M
X
1
(t) = (1 q) + qe
t
por lo que M
S
(t) = e
((1q)+qe
t
1)
= e
(qe
t
q)
= e
q(e
t
1)
S Poisson(q)
Observacion importante: Aunque estos modelos tienen una forma analtica en estas car-
actersticas numericas, ninguna de ellas, salvo el ultimo caso, corresponde a la densidad o
distribuci on de S. Es decir, el problema de encontrar la distribucion de las perdidas agre-
gadas, persiste.
53
Distribucion de la convolucion de Poisson compuestas
Una caracterstica muy util para nuestros nes es que la Poisson compuesta es cerrada bajo
convolucion. Especcamente
Sup ongase que S
j
tiene una distribuci on Poisson compuesta con par ametros
j
y funci on
de distribucion para severidades F
j
(x) para j = 1, 2, ..., n. Adem as, que S
1
, S
2
, ..., S
n
son
independientes. Entonces S = S
1
+S
2
+ +S
n
tiene una distribucion Poisson compuesta
con parametro =
n

j=1

j
y funcion de distribucion de severidad F (x) =
n

j=1

F
j
(x) .
Dem:
Sea M
j
(t) la f.g.m. de F
j
(x) para j = 1, 2, ..., n. Entonces S
j
tiene f.g.m. dada por:
M
S
j
(t) = E
_
e
tS
j
_
= e

j
(M
j
(t)1)
y por la independencia de las S

j
s, S tiene f.g.m.
M
S
(t) =
n

j=1
M
S
j
(t) =
n

j=1
exp (
j
[M
j
(t) 1]) = exp
__
n

j=1

j
M
j
(t)
n

j=1

j
__
= exp
__
n

j=1

j
M
j
(t)
_

_
= exp
_

__
n

j=1

M
j
(t)
_
1
__
Debido a que
n

j=1

M
j
(t) es la f.g.m. de F (x) =
n

j=1

F
j
(x) , entonces M
S
(t) tiene la
forma de la f.g.m. de una distribuci on Poisson compuesta.
Ejemplo
S
1
y S
2
son distribuciones Poisson compuestas con par ametros
1
= 3 y
2
= 2, y funcion
de severidad individual
x f
1
(x) f
2
(x)
1 0.25 0.10
2 0.75 0.40
3 0.00 0.40
4 0.00 0.10
54
determine la media y varianza de S.
S = S
1
+ S
2
tiene una distribuci on Poisson compuesta con media = 3 + 2 = 5, y con
funci on de severidad
x Pr(S = s)
1 (3/5)*(0.25)+(2/5)*(0.10)=0.19
2 (3/5)*(0.75)+(2/5)*(0.40)=0.61
3 0+(2/5)*(0.40)=0.16
4 0+(2/5)*(0.10)=0.04
de donde obtenemos
E(S) = 0.19 + 2 0.61 + 3 0.16 + 4 0.04 = 2.05 y V ar(S) = E [(S 2.05)
2
] = 0.5075
Modicaciones en los modelos agregados
Una vez denidos estos dos modelos para perdidas agregadas, corresponde ahora incluir
las modicaciones que ellos sufren a traves de las modicaciones que sufren las polizas que
los componen. Es decir, debemos encontrar las variables por perdida y por pago para S,
similares a las que hemos denido para las variables individuales, ya que la distribuci on
de S tambien se vera afectada una vez que apliquemos modicaciones en la cobertura de
contratos.
Supongamos un panorama simple bajo el cual el portafolio de perdidas se modique debido
a la aplicaci on de un deducible , d. Como la variable aleatoria S depende de N y de las
X

j
s , entonces se tendremos que considerar dos posibilidades
Supongamos que N
L
es la variable aleatoria por perdida que modela la frecuencia de las
perdidas agregadas, mientras que las X

j
s determinan la severidad de las mismas. En este
escenario a traves de la variable por perdida Y
L
modicaremos las X

j
s que representan los
montos, pues recordemos que:
Y
L
= (X d)
+
=
_
0 X d
X d X > d
55
as que la severidad de las reclamaciones se ver a afectada. En este caso Y
L
j
representa el
pago por la j-esima perdida, mientras que la frecuencia seguir a distribuyendose de la misma
forma puesto que, como su nombre lo indica, estamos considerando las perdidas totales que
sufre la compa na sin importar aquellas que realmente se pagan.
Entonces, el modelo colectivo queda
S = Y
L
1
+Y
L
2
+ + Y
L
N
L
donde S = 0 si N
L
= 0
La segunda opcion es considerar a Y
P
, la variable de pago, que reejar a los montos pagados
por la compa na aseguradora una vez que han excedido el valor del deducible, d, pero ademas
de ello, en este caso, la variable que modela la frecuencia de las reclamaciones N
P
tambien se
modicar a, y se vera reejado en el n umero de pagos efectuados. Entonces, los par ametros
para N
P
cambiar an conforme a lo que se reviso en las modicaciones de cobertura para
modelos de frecuencia, donde se considera a la constante como la probabilidad de pago
por parte de la aseguradora. Entonces el modelo sera
S = Y
P
1
+Y
P
2
+ +Y
P
N
P
donde S = 0 si N
P
= 0 y Y
P
j
es la variable de pago que representa el monto de la j-esima
perdida tal como se deni o Y
P
anteriormente.
Es importante considerar las modicaciones de los contratos de seguros en los modelos colec-
tivos, debido a que, bajo circunstancias apegadas a la realidad, generalmente esta informaci on
es la que se manejara.
Ya sabemos que existe una relacion entre las variables de perdida y de pago: Y
P
= Y
L
|Y
L
>
0. Luego, retomando el concepto de como la probabilidad de pago, las funciones de dis-
tribuci on de estas variables, guardan la siguiente relaci on:
F
Y
L = (1 v) + vF
Y
P (y) ; y 0
56
porque 1 = P
_
Y
L
= 0

= F
Y
L (0) .
Con una relaci on equivalente para sus f.g.m.
M
Y
L (t) = (1 ) + M
Y
P (t)
ya que
E
_
e
tY
L
_
= E
_
e
tY
L
|Y
L
= 0
_
P
_
Y
L
= 0

+E
_
e
tY
L
|Y
L
> 0
_
P
_
Y
L
> 0

= E
_
1|Y
L
= 0

(1 ) +E
_
e
tY
L
|Y
L
> 0
_

= (1 ) + M
Y
P (t)
Adem as, para el n umero de perdidas N
L
y el n umero de pagos N
P
se tiene esta relaci on con
sus f.g.p.
P
N
P (z) = P
N
L (1 v +vz)
donde P
N
P (z) = E
_
z
N
P
_
y P
N
L (z) = E
_
z
N
L
_
.
Finalmente con los resultados del Modelo Colectivo, las f.g.m. de S en terminos de las
variables por perdida y por pago son:
M
S
(t) = E
_
e
tS
_
= P
N
L (M
Y
L (t))
y
M
S
(t) = E
_
e
tS
_
= P
N
P (M
Y
P (t))
que guardan la siguiente relaci on:
P
N
L [M
Y
L (t)] = P
N
L [1 v +vM
Y
P (t)] = P
N
P [M
Y
P (t)]
57
Ejemplo
En una cobertura de seguros, se sabe que el n umero de perdidas en el Modelo de Riesgo
Colectivo se distribuyen BinNeg( = 1.5, r = 12) y que los montos de las perdidas (X

j
s)
tienen distribuci on Pareto( = 3, = 150). Adem as de esta informaci on, se determina que
la inacion ser a del 3% y se aplicar an las siguientes modicaciones de cobertura.
Deducible d = 40
Lmite de p oliza = 250
Coaseguro = 85%
Determinar la esperanza y la varianza de las perdidas agregadas, considerando que el monto
de las perdidas se ve modicado por la variable aleatoria de perdida y por la variable aleatoria
de perdida en exceso (o variable de pago).
Primero encontremos E(S) y V(S), cuando las X

j
s se modican por Y
L
. Entonces, el
orden en el que consideramos las modicaciones son: primero la inaci on, posteriormente el
deducible, el lmite de p oliza y al nalmente el coaseguro.
El valor de u, con estas modicaciones
(u d) = 250 = u =
250
0.85
+ 40 = 344.1176.
De tal manera que para cada X
j
se tiene que:
Y
L
=
_

_
0 X <
40
1.03
0.85 [(1.03) X 40]
40
1.03
X <
344.1176
1.03
250 X
344.1176
1.03
=
E
_
Y
L

= (1 + r)
_
E
_
X
u
1 + r
_
E
_
X
d
1 + r
__
58
= 0.85 (1.03)
_
E
_
X
344.1176
1.03
_
E
_
X
40
1.03
__
Para la Pareto(3, 150)
E
_
X
344.1176
1.03
_
=
150
2
_
1
_
150
324.386 + 150
_
2
_
= 67.501
E
_
X
40
1.03
_
=
150
2
_
1
_
150
38.834 + 150
_
2
_
= 27.676
= E
_
Y
L

= 0.85(1.03) [67.501 27.676] = 34.8669


Luego para N
L
sabemos que se distribuye BinNeg(1.5, 12) pero esta variable, que representa
el n umero de reclamaciones del modelo colectivo, no se modica por ser variable de pedida
y no de pago.
=E
_
N
L
_
= r = 12 1.5 = 18
Por los resultados anteriores
E(S) = E(Y
L
)E
_
N
L
_
= 34.8669 18 = 627.6042
Aparte de esta situaci on, como el n umero de reclamaciones se distribuye Binomial Negativa,
el Modelo se reduce a un Modelo Binomial Negativo Compuesto, raz on por la cual, como se
mostr o en la seccion anterior, la varianza de S es :
V(S) = r
_
E
_
_
Y
L
_
2
_
+ E
_
Y
L
_
2
_
.
Entonces, hay que obtener el segundo momento en terminos de Y
L
, i.e., E[
_
Y
L
_
2
] que no
presentamos en la secci on de variables y modicaciones de cobertura, pero que es
E
_
_
Y
L
_
2
_
= (.85)
2
(1.03)
2
_
E
_
_
X
344.1176
1.03
_
2
_
E
_
_
X
40
1.03
_
2
__
2
_
40
1.03
_
E
_
X
344.1176
1.03
_
+ 2
_
40
1.03
_
E
_
X
40
1.03
_
59
= Para la distribucion Pareto
E
_
_
X
344.1176
1.03
_
2
_
y E
_
_
X
40
1.03
_
2
_
E
_
_
X
344.1176
1.03
_
2
_
=
150
2
(3) (1)
(3)
Beta
_
3.1,
324.386
324.386 + 150
_
+(324.386)
2
_
150
324.386 + 150
_
3
= 150
2
_
(4)
(3) (1)
_
0.68
0
t
2
(1 t)
0
dt
_
+3326.6138 = 150
2
_
3!
2!1!
_
t
3
3

0.68
0
__
+ 3326.6138 = 10520.66021
E
_
_
X
40
1.03
_
2
_
=
150
2
(3) (1)
(3)
Beta
_
3.1,
38.83495
38.83495 + 150
_
+(38.83495)
2
_
150
38.83495 + 150
_
3
= 150
2
_
3
_
t
3
3

0.205
0
__
+ 755.9135756 = 951.6193487
Entonces
E[
_
Y
L
_
2
] = (.85)
2
(1.03)
2
(10520.66021 951.6193487 2
_
40
1.03
_
(67.5014)
+2
_
40
1.03
_
(27.67626437)) = 4963.722677
Finalmente
V ar(S) = r
_
E
_
_
Y
L
_
2
_
+E
_
Y
L
_
2
_
= 18
_
4963.722677 + 1.5 (34.8669)
2

= 122170.9275
Como segundo punto tambien debemos calcular la E(S) y V(S) considerando a las Y
P

j
s y
a N
P
como la frecuencia.
60
La funcion para Y
P
a diferencia de Y
L
es solo tomar en cuenta que los valores para X <
40
1.03
no estan denidos, as que para la E
_
Y
P

basta dividir E
_
Y
L

entre S
X
_
d
1+r
_
= S
X
_
40
1.03
_
=
_
150
38.83495 + 150
_
3
= 0.501217
De ah E
_
Y
P

=
E
_
Y
L

S
X
_
d
1+r
_ =
34.8669
0.501217
= 69.56434365
Para N
P
debemos obtener E
_
N
P

, entonces, como es la frecuencia correspondiente al pago


que realiza la aseguradora, se modica respecto al valor de , donde :
= P
_
X >
d
1 + r
_
= 1 F
X
_
40
1.03
_
esto porque recordemos que es la probabilidad de pago una vez que se ha aplicado inaci on
y deducible en el n umero de reclamaciones, entonces
= S
X
_
40
1.03
_
= 0.501217971983
Por lo tanto la Distribuci on Binomial Negativa considera los parametros r = 12 y

= v =
0.751826958
= E
_
N
P

= r

= 9.021923496.
De esta forma E(S) = E
_
Y
P

E
_
N
P

= 627.6041864
La V(S) = r

_
E
_
_
Y
P
_
2
_
+

E
_
Y
P
_
2
_
=E
_
_
Y
P
_
2
_
=
E[
_
Y
L
_
2
]
1 F
X
_
40
1.03
_ =
4963.722677
0.501217
= 9903.321418
=V(S) = 9.021923496
_
9903.321418 + 0.751826958 (69.56434365)
2

= 122170.9259
Bajo el analisis de las variables por pago y por perdida en este modelo de riesgo colectivo,
la E(S) y V(S) no son muy distintas entre s.
61
Metodos para encontrar la distribuci on de S
Aproximaciones
Una vez que hemos presentado y analizado los modelos de riesgo individual y colectivo, junto
con algunas de sus caractersticas, observamos que, en general, no obtuvimos resultados que
nos permitieran encontrar la distribucion de S. Una manera de salvar esta dicultad es a
traves de aproximaciones a esta distribucion, que se utilizan tanto para el modelo individual
como para el modelo colectivo. Presentamos a continuaci on las siguientes:
Normal
Lognormal
Gamma Trasladada
Poisson Compuesta
Aproximaci on Normal
A traves del Teorema Central del Lmite se puede aproximar la distribucion de S por medio
de una distribuci on normal.
Generalmente, este metodo de aproximaci on es de mayor utilidad cuando el n umero de
reclamaciones N de nuestro riesgo S es muy grande, y por consecuencia, la E[N] tambien
resulta ser grande.
Proposicion Para cualquier s > 0
F
S
(s) = P[S s]
_
s E(S)
_
V ar (S)
_
Ahora bien, suponiendo que tanto la Severidad como la Frecuencia de los datos son discretas,
entonces la distribuci on de las perdidas agregadas ser a discreta; por lo cual, si se desea utilizar
este metodo de aproximacion, ser a necesario aplicar antes una Correccion de Continuidad. Es
decir, supongase que se quiere conocer P[n S m] , para utilizar la aproximaci on normal,
lo unico que se hace es extender el intervalo de [n, m] al intervalo
_
n
1
2
, m+
1
2

, por lo
cual la probabilidad bajo la correccion de continuidad ser a P
_
n
1
2
S m+
1
2

. Una vez
62
realizada esta correcci on, se hace el mismo procedimiento de aproximaci on, considerando la
E(S) y V ar (S) originales del riesgo S.
Ejemplo
Una compa na aseguradora tiene una cartera con p olizas de seguro de vida con las carac-
tersticas que se muestran en la tabla. Utilizando el modelo de riesgo individual, realizar
la aproximacion normal de tal manera que podamos encontrar el valor de s bajo el cual
P[S s] = 0.95
i # de p olizas Probabilidad de reclamacion Monto de Reclamacion
1 1000 0.05 10
2 2000 0.10 5
3 500 0.02 20
Primero veamos lo que sucede con E(B
i
) y V ar(B
i
) para i = 1, 2, 3
Para P(B
1
= 10) = 1, P(B
1
= x) = 0 si x = 10
P(B
2
= 5) = 1, P(B
2
= x) = 0 si x = 5
P(B
3
= 20) = 1, P(B
3
= x) = 0 si x = 20
=
E(B
1
) = 1 10 + 0 x = 10 y V ar(B
1
) = 10
2
1 10
2
= 0
E(B
2
) = 5 y V ar(B
2
) = 0
E(B
3
) = 20 y V ar(B
3
) = 0
Entonces E(S
1
) =
1000

j=1
0.05 10 = 500, E(S
2
) =
2000

j=1
0.10 5 = 1000,
E(S
3
) =
500

j=1
0.02 20 = 200
=E(S) = 500 + 1000 + 200 = 1700
Luego V(S
1
) =
1000

j=1
_
0.05 0 + 0.05 0.95 10
2
_
= 4750
63
V(S
2
) =
2000

j=1
_
0.1 0 + 0.1 0.9 5
2
_
= 4500
V ar(S
3
) =
500

j=1
_
0.02 0 + 0.02 0.98 20
2
_
= 3920
=
V ar(S) = 4750 + 4500 + 3920 = 13170
Se quiere P[S s] = 0.95, entonces P
_
S E(S)
_
V(S)

s E(S)
_
V(S)
_
= 0.95 el cuantil del 95%
para una N (0, 1) es 1.644854
Por lo tanto s =
_
V ar (S) 1.644854 +E(S) =

13170 1.644854 + 1700


= 1888.764
Ejemplo
Sea S
j
, j = 1, 2, 3, 4 una distribuci on Poisson compuesta y para cada S
j
se tienen los sigu-
ientes par ametros:
1
= 2,
2
= 0.8,
3
= 0.2 y
4
= 4. Por la denici on de este modelo
se sabe que las frecuencias de cada S
j
son distribuciones Poisson y adem as se tienen las
siguientes probabilidades de los montos de reclamacion (X
i
s) pertenecientes a cada una de
las S
j
s.
Para S
1
f
X
(1) = 0.2, f
X
(2) = 0.4, f
X
(3) = 0.1, f
X
(4) = 0.05, f
X
(5) = 0.2, f
X
(6) = 0.05
Para S
2
f
X
(0) = 0.03, f
X
(1) = 0.35, f
X
(2) = 0.5, f
X
(3) = 0.12
Para S
3
f
X
(0) = 0.2, f
X
(1) = 0.1, f
X
(2) = 0.1, f
X
(3) = 0.1, f
X
(4) = 0.4, f
X
(5) = 0.1
Para S
4
f
X
(2) = 0.5, f
X
(3) = 0.04, f
X
(4) = 0.25, f
X
(5) = 0.16, f
X
(6) = 0.05
Encontrar bajo la aproximaci on normal F
S
(25) .
La severidad de cada S
j
se muestran en la siguiente tabla:
64
x f
1
(x) f
2
(x) f
3
(x) f
4
(x)
0 0 0.03 0.2 0
1 0.2 0.35 0.1 0
2 0.4 0.5 0.1 0.5
3 0.1 0.12 0.1 0.04
4 0.05 0 0.4 0.25
5 0.2 0 0.1 0.16
6 0.05 0 0 0.05
Adem as si S = S
1
+S
2
+ S
3
+S
4
= S Poisson Compuesta
con = 2 + 0.8 + 0.2 + 4 = 7.
Primero hay que encontrar las correspondientes f.d.p. para los montos de las reclamaciones
x f
X
(x) =
4

j=1

f
j
(x)
0
2
7
0 +
0.8
7
0.03 +
0.2
7
0.2 +
4
7
0 = 0.009142857
1
2
7
0.2 +
0.8
7
0.35 +
0.2
7
0.1 +
4
7
0 = 0.1
2
2
7
0.4 +
0.8
7
0.5 +
0.2
7
0.1 +
4
7
0.5 = 0.46
3
2
7
0.1 +
0.8
7
0.12 +
0.2
7
0.1 +
4
7
0.04 = 0.068
4
2
7
0.05 +
0.8
7
0 +
0.2
7
0.4 +
4
7
0.25 = 0.168571429
5
2
7
0.2 +
0.8
7
0 +
0.2
7
0.1 +
4
7
0.16 = 0.151428571
6
2
7
0.05 +
0.8
7
0 +
0.2
7
0 +
4
7
0.05 = 0.042857143
De ah,
E(X) = (10.1)+(20.46)+(30.068)+(40.168571429)+(50.151428571)+(60.042857143)
= 2.912571429
=
E(S) = E(X) = 7 2.912571429 = 20.388
Luego V ar (S) = E(X
2
) , entonces
E(X
2
) = (1
2
0.1) + (2
2
0.46) + (3
2
0.068) + (4
2
0.168571429)
65
+(5
2
0.151428571) + (6
2
0.042857143) = 10.57771429
V ar (S) = E(X
2
) = 7 10.57771429 = 74.04400001
Buscamos F
S
(25) = P(S 25) = P
_
S 20.388

74.04400001

25 20.388

74.04400001
_
= P(z 0.53597479) = (0.53597479) = 0.704012
Por lo tanto F
S
(25) = 0.704012
La graca de la funcion de densidad obtenida directamente de los valores de su distribuci on
si se realiza este proceso repetidas veces para todos los valores de s, es:
0 10 20 30 40
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Aproximacion Normal de Poisson Compuesta
s
F
S
(
s
)
0 10 20 30 40
0
.
0
1
0
.
0
2
0
.
0
3
0
.
0
4
Aproximacion Normal de Poisson Compuesta
s
f
S
(
s
)
Aproximaci on Lognormal
Cuando la E(N) no es lo sucientemente grande, y por lo mismo, la distribucion de S posee
una cola pesada, la distribucion normal deja de ser apropiada para aproximar la distribuci on
66
del riesgo. Es por esta situaci on que se sugiere usar la aproximacion Lognormal aunque no
exista la teora suciente para sustentar que dicha aproximaci on sea buena.
Proposicion
Para cualquier s > 0
F
S
(s) = P[S s]
_
ln (s)

_
Recordando que para la distribuci on Lognormal se tiene la siguiente esperanza y segundo
momento que son indispensables para obtener lo valores de y
2
:
E(S) = e
+

2
2
y E(S
2
) = e
2+2
2
Ejemplo
Suponiendo un modelo de riesgo colectivo para las perdidas agregadas de una compa na
aseguradora y, en especco, un modelo Poisson compuesto donde N Poisson( = 0.7),
mientras que los montos de reclamaci on se distribuyen Gamma con = 2, = 150. Utilizar
la aproximacion normal y lognormal para determinar las perdidas agregadas por arriba de
300.
Sabemos que E(S) = E(X) y V ar (S) = E(X
2
)
=E(X) = = 300 y E(X
2
) = V ar (X) +E(X)
2
= 45000 + 300
2
= 135000
=E(S) = 0.7 300 = 210 y V ar (S) = 0.7 135000 = 94500
Para la aproximaci on normal F
S
(300) = P[S 300] =
_
300 210

94500
_
= (0.292770022) = 0.615151
Las perdidas agregadas por arriba de 300 tienen una probabilidad de 0.384849 para la aprox-
imaci on normal
Para la aproximaci on lognormal E(S) = e
+

2
2
= 300 y E(S
2
) = e
2+2
2
67
= 135000
ln (300) = +

2
2
y ln(135000) = 2 + 2
2
, =
2
= 0.4054 y = 5.50108
Finalmente F
S
(300) = P[S 300] =
_
ln (300) 5.50108
0.6367
_
= (0.318364182)
= 0.6249019
Mientras que con la aproximaci on lognormal las perdidas agregadas que rebasan 300 acumu-
lan una probabilidad de 0.375098
A continuacion se muestra gracamente la comparaci on de ambas aproximaciones con re-
specto a sus funciones de densidad resultantes, en donde se puede observar que para valores
muy grandes la cola de la distribucion lognormal se encuentra por encima de la funcion de
densidad normal, situaci on que caracteriza este tipo de distribucion. Ademas, algo que se
puede destacar es que, aunque las esperanzas de las dos distribuciones no estan tan alejadas,
la varianza de la distribuci on normal es mayor, por poco mas del doble que la varianza de la
distribuci on lognormal. Y aunque para valores entre 150 y 300 las funciones de distribuci on
acumulen probabilidades similares, en realidad para valores peque nos la distribuci on normal
acumula probabilidades mayores a la lognormal y vicerversa, para valores grandes se va acu-
mulando mayor probabilidad en la distribuci on lognormal contra la normal.
68
Aproximaciones Normal vs Lognormal
s
0 200 400 600 800 1000
2
e

0
4
4
e

0
4
6
e

0
4
8
e

0
4
0
.
0
0
1
0
.
0
0
1
2
Aproximaciones Normal vs Lognormal
0
5
e

0
4
0
.
0
0
1
0
.
0
0
1
5
0
.
0
0
2
0
.
0
0
2
5
0
.
0
0
3
Normal
Lognormal
Aproximaci on Gamma trasladada
Como su nombre lo expresa, bajo esta aproximacion supondremos que el riesgo S asume
una distribucion Gamma, pero para conocer exactamente los parametros que ajustan a
esta distribucion, se debe igualar las caractersticas numericas de la distibuci on de S a las
caractersticas numericas de una nueva variable aleatoria que es:
k + Z
donde k es una constante y Z es la variable aleatoria que se distribuye Gamma(, ) y tiene
f.d.p.
f
Z
(z) =
_
z

z()
Entonces, primero se suponen conocidos o estimados los valores de E(S) = , V ar (S) =
2
y
el coeciente de sesgo
E
_
(S E(S))
3

[V ar (S)]
3/2
= , > 0; estos se igualar an a sus correspondientes
de la v.a. k +Z que son:
69
E(k + Z) = k +
V ar (k + Z) =
2

E
_
(k +Z E(k + Z))
3

[V ar (k +Z)]
3/2
=
2

De forma que
= k +
2
=
2
=
2

Resolviendo el sistema de ecuaciones para determinar los valores k, y .

=
2

= =
4

2
, luego de
2
=
2
sustituyendo se tiene

2
=
2
4

2
=
2
=

2

2
4
= =

2
y nalmente de = k + se obtiene k
k = =
4

2
=
2

.
As, por medio de la aproximaci on gamma trasladada, el riesgo S tiene una distribuci on
aproximada
S
2

+ Gamma
_
4

2
,

2
_
Habr a ocasiones en las cuales el par ametro puede ser reemplazado por
1

y basta invertir
las igualdades para construir la distribucion Gamma de S.
Esta aproximaci on generalmente se sugiere realizarla cuando la distribuci on de S se muestra
sesgada hacia la derecha, raz on por la cual > 0; y porque la forma que toma dicha
distribuci on es aproximadamente la de una densidad Gamma con parametros y ; sin
embargo, adem as de considerar esto, se le suma la constante k para obtener menos errores
en el ajuste.
70
Finalmente se llega a la siguiente proposici on.
proposition
Para cualquier s > 0.
F
S
(s) = P[S s]
_
;
s k

_
donde en general
_
;
x

_
=
_
x
0
_
y

y()
dy
Ejemplo
Supongamos que bajo el modelo Poisson compuesto, el n umero de reclamaciones N
Poisson( = 10) y el monto de las reclamaciones X
i

2
(4)
. Determinar F
S
(8) por medio
de la aproximacion gamma trasladada.
En general
2
(k)
es una distribuci on Gamma
_
k
2
, 2
_
= Para cada X
i
se tiene que f
X
(x) =
_
x
2
_
2
e

x(2)
donde X
i
Gamma(2, 2)
Lo primero es encontrar los tres primeros momentos de S, para lo cual utilizaremos las
propiedades de la f.g.m. de las X
i
y de ah obtener los valores de ,
2
y para S.
= M
X
(t) = (1 t)

= (1 2t)
2
M
X
(t) = 2(1 2t)
3
(2) = 4(1 2t)
3
|
t=0
= 4, E(X) = 4
M
X
(t) = 12(1 2t)
4
(2) = 24(1 2t)
4
|
t=0
= 24, E(X
2
) = 24
M
X
(t) = 96(1 2t)
5
(2) = 192(1 2t)
5
|
t=0
= 192, E(X
3
) = 192
De aqu podemos obtener
= E(X) = 10 4 = 40

2
= E(X
2
) = 10 24 = 240
71
=
E(X
3
)
_
E(X
2
)
3
=
192
_
10(24)
3
=
8

240
Por lo que =
4

2
=
4
8
2
240
= 15,
=

2
=

240
8

240
2
= 4 y k =
2

= 20
= S 20 + Gamma(15, 4)
Por lo tanto F
S
(8)
_
15,
8+20
4
_
= (15, 7)
Como sabemos que F
X
(x) =
_
,
x

_
, cuando X Gamma(, ).
Para el ejemplo S Gamma( = 15, = 8/7), evaluando directamente en R
F
S
(8) = 0.005717202
La siguiente graca muestra las funciones de densidad y distribuci on asociadas
0 20 40 60 80 100
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Aproximacion Gamma Trasladada
s
F
S
(
s
)
0 20 40 60 80 100
0
.
0
0
0
.
0
2
0
.
0
4
0
.
0
6
0
.
0
8
Aproximacion Gamma Trasladada
s
f
S
(
s
)
72
Aproximaci on Poisson Compuesta
En el captulo anterior se hizo menci on del modelo Poisson compuesto, que simplica los
c alculos al momento de encontrar informaci on de las perdidas agregadas. Tambien se ha co-
mentado la dicultad de conocer la funci on de distribuci on en un Modelo de Riesgo Individual
si se realizara por medio de convoluciones; pero en esta secci on veremos la Aproximacion
Poisson Compuesta como otro metodo util, bajo el cual se pretende aproximar el modelo de
riesgo individual al modelo de riesgo colectivo, tal situacion se realiza porque existen m as
metodos para el calculo de la distribucion de S en el modelo colectivo; incluso es indispens-
able saber que los siguientes metodos a desarrollar se basan en la construccion del modelo
colectivo.
En el modelo individual S =
n

i=1
X
i
donde X
i
i = 1, 2, ..., n son v.a.s independientes,
X
i
= R
i
B
i
y B
i
es el monto de la reclamaci on de la poliza i. Adem as, la v.a. Bernoulli (R
i
)
del modelo individual asigna el valor de 1 cuando se efect ua un reclamaci on con probabilidad
q
i
y 0 con probabilidad (1 q
i
) de manera que su f.g.p. es:
P
R
i
= (1 +q
i
(z 1))
Bajo este metodo la Aproximaci on Poisson Compuesta asume que la v.a. R
i
se distribuira
Poisson (
i
) , para ello se proponen 3 metodos que asignan diferentes valores al parametro

i
de esta distribuci on Poisson
1. El primero iguala las esperanzas de la v.a. Bernoulli(q
i
) con la de una v.a. Poisson(
i
) ,
entonces:
i = q
i
; i = 1, 2, ..., n
Esta opcion es buena para valores de q
i
cercanos a cero.
2. El segundo iguala la probabilidad en cero de ambas variables aleatorias, es decir
1 q
i
= e

i
73
=
ln (1 q
i
) =
i

i
= ln (1 q
i
) ; i = 1, 2, ...n y ln (1 q
i
) > q
i
3. El ultimo metodo fue propuesto por Kornya y usa el siguiente valor para cada
i

i
=
q
i
1 q
i
; i = 1, 2, ..., n
A su vez, el n umero esperado de perdidas de este metodo es m as grande que la esperanza
del segundo.
Para el caso del Modelo individual la f.g.m. de S asociada es
M
S
(t) =
n

i=1
P
R
i
[M
B
i
(t)]
considerando que R
i
ahora se distribuye Poisson, entonces
M
S
(t) =
n

i=1
exp (
i
[M
B
i
(t) 1])
por el resultado sobre la suma de distribuciones poisson compuesta, tenemos
=
n

i=1

i
, M
X
(t) =
n

i=1

M
B
i
(t) y f
X
(x) =
n

i=1

f
B
i
(x)
Ejemplo
Considerando los datos de la compa na aseguradora en donde se cubren 3 diferentes grupos
de asegurados, utilizar la Aproximaci on Poisson Compuesta para el modelo individual y pos-
teriormente con la aproximaci on normal encontrar F
S
(1800) para los 3 valores que puede
tomar .
74
Con
i
= q
i
=
3

i=1

i
= (1000 0.05) + (2000 0.10) + (500 0.02) = 260
=
f
X
(10) =
1000 0.05 1
260
+
2000 0.10 0
260
+
500 0.02 0
260
= 0.192307692
f
X
(5) =
1000 0.05 0
260
+
2000 0.10 1
260
+
500 0.02 0
260
= 0.769230769
f
X
(20) =
1000 0.05 0
260
+
2000 0.10 0
260
+
500 0.02 1
260
= 0.038461538
Por ser Poisson compuesto
E(S) = E(X) = 260 [(10 0.192307692) + (5 0.769230769) + (20 0.038461538)]
= 260 6.538461525 = 1699.999
V ar (S) = E(X
2
) = 260 53.84615363 = 13999.99994
=
F
S
(1900) = P
_
S 1699.999

13999.99994

1900 1699.999

13999.99994
_
= P[z 1.690317021]
= (1.690317021) = 0.9545155
Con
i
= ln (1 q
i
)
=
3

i=1

i
= (1000 (ln(0.95))) + (2000 (ln (0.9))) + (500 (ln (0.98)))
= 272.1156794
=
f
X
(10) =
1000 (ln(0.95) 1
272.1156794
= 0.188498121
75
f
X
(5) =
2000 (ln (0.9) 1
272.1156794
= 0.774380336
f
X
(20) =
500 (ln (0.98)) 1
272.1156794
= 0.037121542
E(S) = 272.1156794 6.49931373 = 1768.565171
V ar (S) = 272.1156794 53.0579373 = 14437.89666
F
S
(1900) = P
_
z
1900 1768.565171

14437.89666
_
= P[z 1.093851836]
= (1.093851836) = 0.86299
Para
i
=
q
i
1 q
i
=
3

i=1

i
=
_
1000
_
0.05
0.95
__
+
_
2000
_
0.10
0.9
__
+
_
500
_
0.02
0.98
__
= 285.0578828
=
f
X
(10) =
1000 (0.05/0.95) 1
285.0578828
= 0.184634708
f
X
(5) =
2000 (0.1/0.9) 1
285.0578828
= 0.779568767
f
X
(20) =
500 (0.02/0.98) 1
285.0578828
= 0.035796525
E(S) = 285.0578828 6.460121415 = 1841.508533
V ar (S) = 285.0578828 52.27129998 = 14900.3461
F
S
(1900) = P
_
z
1900 1841.508533

14900.3461
_
= P[z 0.479175203]
76
= (0.479175203) = 0.684093
El siguiente gr aco es el comparativo de las funciones de densidad de S que surgen de la
Aproximacion Poisson con cada uno de los metodos realizados
0 500 1000 1500 2000 2500 3000
0
.
0
0
0
0
.
0
0
1
0
.
0
0
2
0
.
0
0
3
0
.
0
0
4
Aproximacion Poisson
s
f
S
(
s
)
0 500 1000 1500 2000 2500 3000
0
.
0
0
0
0
.
0
0
1
0
.
0
0
2
0
.
0
0
3
0
.
0
0
4
s
f
S
(
s
)
0 500 1000 1500 2000 2500 3000
0
.
0
0
0
0
.
0
0
1
0
.
0
0
2
0
.
0
0
3
0
.
0
0
4
s
f
S
(
s
)
Mtodo 1
Mtodo 2
Mtodo 3
Mediante las aproximaciones podemos conocer la distribuci on para S, sin embargo, es factible
que los resultados no se acerquen tanto a la realidad puesto que no se poseen muchas bases
para justicar que las distintas aproximaciones (normal, lognormal o gamma) se ajusten a
la distribucion de los datos; y simplemente se pueden tomar estas decisiones por el aparente
comportamiento del n umero de reclamaciones y de las colas que tengan. Por ejemplo, si tu-
vieramos el caso en que existe un lmite de poliza para las perdidas, sera muy probable que
la severidad de nuestros datos tuviera una masa de probabilidad en este punto, debido a que
todas las reclamaciones que hayan excedido el monto u s olo recibiran a lo mas esta cantidad y
eso determinara dicha probabilidad; por lo cual, esta situaci on generara irregularidades en
la forma de la distribucion, y por tal situaci on, utilizar un metodo de aproximacion no sera la
mejor manera de conocer la distribuci on del riesgo. Por tal motivo, a continuaci on se desar-
77
rollar an otras propuestas de metodos que sirven para determinar la distribuci on del riesgo S.
Metodos Recursivos
F ormula Recursiva de Panjer
La distribuci on del riesgo S la mayora de las ocasiones no es sencilla de obtener y a pesar
de que se puede obtener con el calculo directo de la convolucion
F
S
(s) =

n=0
p
n
F
n
X
(x)
no suele ser una cuestion trivial. Primero porque las convoluciones de F
n
X
(x) no siempre
tienen forma de alguna distribuci on conocida; pero m as importante a un, este calculo se
vuelve complejo a medida que aumenta el n umero de elementos en la convoluci on, inclusive
con las computadoras muy potentes, porque el n umero de operaciones que se deben llevar a
cabo, es muy elevado.
Es por esta raz on que a traves de la Formula Recursiva de Panjer los c alculos pueden ser
minimizados. Para ello, debemos retomar los conceptos que manejamos en los modelos
compuestos de frecuencia, donde consider abamos el modelo de riesgo colectivo tomando la
distribuci on de frecuencia y la de severidad como distribuciones discretas. Entonces, la
distribuci on compuesta de S
S = X
1
+X
2
+ + X
N
se obtena mediante g
k
=

n=0
p
n
f
n
k
;
donde g
n
= P[S = n] , p
n
= P[N = n] ; f
n
= P[X = n]
y f
n
k
, k = 0, 1, ... es la n-esima convoluci on de f
k
.
Para determinar g
k
del riesgo S, lo primero es pedir que las distribuciones asociadas a la
frecuencia y severidad, sean miembros de las clases (a,b,0) o (a,b,1). Esto porque las f ormulas
desarrolladas por Panjer quedan expresadas con base en estas distribuciones.
78
Si la distribuci on primaria es miembro de la clase (a,b,0), se tiene la formula recursiva:
g
k
=
1
1 af
0
k

j=1
_
a +
bj
k
_
f
j
g
kj
; k = 1, 2, 3, ...
Para el valor de g
0
,
g
0
=
_
p
0
= P[N = 0] si f
0
= P[X = 0] = 0
P
N
(f
0
) o M
N
(log f
0
) si f
0
= P[X = 0] > 0
Teorema
Para cualquier distribuci on compuesta, g
0
= P
N
(f
0
), donde P
N
(z) es la f.g.p. de la dis-
tribuci on primaria y f
0
es la probabilidad de la distribuci on secundaria cuando toma el valor
de cero.
Adem as necesitamos los siguientes resultados previos a la demostracion de la F ormula re-
cursiva de Panjer:
E
_
a +
bX
1
k
| S = k
_
= a +E
_
bX
1
k
| S = k
_
= a +
b
k
E[X
1
| S = k]
= a +
b
nk
n

j=1
E
_
X
j
|
n

i=1
X
i
= k
_
= a +
b
nk
E
_
n

j=1
X
j
|
n

i=1
X
i
= k
_
= a +
bk
nk
= a +
b
n
y se puede escribir como
E
_
a +
bX
1
k
| S = k
_
=
k

j=0
_
a +
bj
k
_
P[X
1
= j| S = k]
=
k

j=0
_
a +
bj
k
_
P[X
1
= j] P[S X
1
= k j]
P[S = k]
Dem. (F ormula Recursiva de Panjer):
79
g
k
=

n=1
p
n
f
n
k
=

n=1
p
n
P[X
1
+ X
2
+ +X
n
= k] =

n=1
p
n
P[S = k]
adem as los miembros de la clase (a,b,0) satifacen que p
n
=
_
a +
b
n
_
p
n1
; n = 1, 2, 3, ...
= g
k
=

n=1
_
a +
b
n
_
p
n1
P[S = k] luego por los resultados previos
=

n=1
p
n1
k

j=0
_
a +
bj
k
_
P[X
1
= j] P[S X
1
= k j]
=
k

j=0
_
a +
bj
k
_
P[X
1
= j]

n=1
p
n1
P[S X
1
= k j]
con la notacion de g
n
= P[S = n] , p
n
= P[N = n] y f
n
= P[X = n] y notando que la ultima
suma vuelve a quedar en terminos de g, nalmente
g
k
=
k

j=0
_
a +
bj
k
_
f
j
g
kj
= af
0
g
k
+
k

j=1
_
a +
bj
k
_
f
j
g
kj
g
k
(1 af
0
) =
k

j=1
_
a +
bj
k
_
f
j
g
kj
por lo tanto
g
k
=
1
(1 af
0
)
k

j=1
_
a +
bj
k
_
f
j
g
kj
An alogamente
Si la distribuci on primaria es miembro de la clase (a,b,1), la formula recursiva es:
g
k
=
[p
1
(a +b)p
0
] f
k
+
k

j=1
_
a +
bj
k
_
f
j
g
kj
1 af
0
; k = 1, 2, 3, ...
80
Estos resultados se pueden considerar de manera particular y tomando en cuenta la notaci on
asociada con f
S
(x) =

n=0
p
n
f
n
X
(x), es decir, supongamos que la distribuci on de severidad
f
X
(x) est a denida para los valores de 0, 1, 2, ..., m, porque en efecto los montos de recla-
maci on que recibe una compa na aseguradora generalmente tienen un tope de pago, y que
la frecuencia de las reclamaciones es p
k
, entonces:
Para p
k
de la clase (a,b,1)
f
S
(x) =
[p
1
(a + b)p
0
] f
X
(x) +
xm

y=1
_
a +
by
x
_
f
X
(y) f
S
(x y)
1 af
X
(0)
donde x m representa el min(x, m).
Para p
k
de la clase (a,b,0)
f
S
(x) =
xm

y=1
_
a +
by
x
_
f
X
(y) f
S
(x y)
1 af
X
(0)
Cuando la distribucion es Poisson, sabemos que a = 0, b = . Entonces la formula se reduce
a:
f
S
(x) =

x
xm

y=1
yf
X
(y) f
S
(x y) ; x = 1, 2, 3, ..
Adem as, de igual forma que en la f ormulas recursivas anteriores, el valor inicial para deter-
minar la densidad de S es f
S
(0) = P
N
[f
X
(0)]
Ejemplo
Utilizando en metodo recursivo encontrar la probabilidad de que haya mas de tres recla-
maciones agregadas, cosiderando que el modelo de riesgo colectivo se distribuye Poisson-
Binomial Negativa. Entonces la distribucion primaria es Poisson con = 2 de la clase
81
(a,b,0), y la distribuci on secundaria es Binomial Negativa con = 1.5 y r = 5
Deseamos 1 F
S
(3) . Entonces para la distribuci on Binomial Negativa
=

1 +
= 0.6 y b = (r 1)

1 +
= 2.4
f
X
(0) = (1 +)
r
= (1 + 1.5)
5
= 0.01024
f
X
(1) = (0.6 + 2.4) 0.01024 = 0.03072
f
X
(2) =
_
0.6 +
2.4
2
_
0.03072 = 0.055296
f
X
(3) =
_
0.6 +
2.4
3
_
0.055296 = 0.0774144
f
S
(0) = P
N
(f
X
(0)) = e
2(f
X
(0)1)
= e
2(0.010241)
= 0.138135526
Para la distribucion Poisson a = 0 y b = = 2
=
f
S
(x) =
2
x
x

y=1
yf
X
(y) f
S
(x y)
f
S
(1) =
_
2
1
0.03072 0.138135526
_
= 0.008487047
f
S
(2) =
_
2
2
0.03072 0.008487047
_
+
_
2
2
2 0.055296 0.138135526
_
= 0.015537406
f
S
(3) =
_
2
3
0.03072 0.015537406
_
+
_
2
3
2 0.055296 0.008487047
_
+
_
2
3
3 0.0774144 0.138135526
_
= 0.022331297
82
= 1 F
S
(3) = 1 (0.138135526 + 0.008487047 + 0.015537406 + 0.022331297)
= 0.815508724
La probabilidad de que existan mas de tres reclamaciones bajo el modelo agregado es
0.815508724. A continuacion se muestran los valores de las funciones de densidad y la
distribuci on de S que se generaron por medio de R y para los primeros 6 valores.
x f
S
(x) F
S
(x)
0 8.487047e 03 0.1381355
1 1.553741e 02 0.1466226
2 2.233130e 02 0.1621600
3 2.785252e 02 0.1844913
4 3.175299e 02 0.2123438
5 3.414236e 02 0.2440968
6 3.534280e 02 0.2782392
0 20 40 60 80 100 120
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Distribucin de Reclamaciones Agregadas
Aproximacin Metodo Recursivo de Panjer
x
F
S
(
x
)
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqq
Aproximacin Metodo Recursivo de Panjer
Densidad de Reclamaciones Agregadas
Aproximacin Mtodo Recursivo de Panjer
x
f
S
(
x
)
0
.
0
0
0
0
.
0
0
5
0
.
0
1
0
0
.
0
1
5
0
.
0
2
0
0
.
0
2
5
0
.
0
3
0
0
.
0
3
5
De esta forma es como se implementa la F ormula Recursiva de Panjer simpre que las
distribuciones de frecuencia en las reclamaciones agregadas no sean a su vez distribuciones
compuestas, puesto que cuando esta situaci on se presenta, para poder llevar a cabo el calculo
83
de f
S
(x) se debe aplicar dicha f ormula por partida doble; esto es, consideremos la f.g.p. para
N :
P
N
(z) = P
1
[P
2
(z)]
donde P
1
es la f.g.p. de la distribucion primaria de frecuencias y P
2
la secundaria.
De tal manera que para las reclamaciones agregadas
P
S
(z) = P
N
[P
X
(z)] = P
1
[P
2
(P
X
(z))] que podemos reescribir como
P
S
(z) = P
1
[P
S
1
(z)] ; claramente P
S
1
= P
2
[P
X
(z)] .
Esta distribuci on de S
1
deber a ser la primera que se calcule mediante la f ormula de Panjer,
dando como resultado f
S
1
(x) ; x = 0, 1, 2, ... que funcionar a como la nueva distribucion de
severidad para encontrar f
S
(x); es decir, nuevamente se aplicar a la f ormula recursiva,
comenzando por f
S
(0) = P
S
(0) = P
1
[f
S
1
(0)] y posteriormente utilizando los valores de
f
S
1
(x) como las probabilidades de la distribuci on de severidad mientras que p
n
en esta
segunda vuelta ser a determinada por la distribucion primaria de frecuencias.
Se ha utilizado el supuesto de que la severidad posee una distribuci on discreta para poder
aplicar el metodo recursivo; sin embargo, el an alogo para este metodo, considerando que la
severidad es continua, queda expresado por medio de una ecuaci on integral.
Teorema
Para distribuciones de frecuencia de la clase (a,b,1) y cualquier distribuci on de severidad
continua con soporte en los reales positivos, se tiene la siguiente ecuacion integral que deter-
mina la densidad del riesgo S :
f
S
(x) = p
1
f
X
(x) +
_
x
0
_
a +
by
x
_
f
X
(y) f
S
(x y) dy
Las ecuaciones integrales de esta forma corresponden a ecuaciones integrales de Volterra de
segundo orden, y la demostracion de este teorema queda fuera de los alcances de este curso.
84
Existen soluciones numericas para estas ecuaciones que pueden ser consultadas en el libro
de Baker [13]. Sin embargo, en este estudio se utilizar an aproximaciones discretas para dis-
tribuciones continuas que modelen la severidad en las reclamaciones por medio del metodo
de redondeo, con el prop osito de implementar el Metodo Recursivo de Panjer.
Metodo de Redondeo
Este metodo se utiliza para construir distribuciones discretas a partir de distribuciones de sev-
eridad que sean continuas. Para ello se deben asignar probabilidades discretas en m ultiplos de
alguna unidad de medida establecida h, que recibe el nombre de span ; dicha distribuci on
se conoce como aritmetica puesto que se dene para enteros positivos.
El metodo de redondeo concentra la probabilidad de la mitad del span h, dividiendo la
probabilidad entre (j +1)h y jh, de manera que asigna dicha mitad al punto j +1 y la otra
al punto j. Es decir, si f
j
es la probabilidad comprendida en jh; j = 0, 1, 2, ...
f
0
= P
_
X <
h
2
_
= F
X
_
h
2
_
f
j
= P
_
jh
h
2
X < jh +
h
2
_
= F
X
_
jh +
h
2
_
F
X
_
jh
h
2
_
Cuando la distribucion a discretizar no est a acotada, lo m as apropiado es limitar los valores
que toma en alg un punto m, que asegure una acumulaci on de probabilidades lo mas cercana
a uno que se pueda, entonces f
m
= 1F
X
[(m0.5)h] . De tal manera que las probabilidades
nunca sean negativas y la suma de ellas sea 1, para asegurar que realmente es una funci on
de densidad de probabilidades.
Ejemplo
Sup ongase que la severidad de las perdidas agregadas sigue una distribuci on Pareto con
= 4 y = 50. Obtener su distribuci on discreta mediante el metodo de redondeo con un
span de 0.9.
X Pareto(4, 50) y h = 0.9. Entonces
f
0
= F
X
_
0.9
2
_
= 1
_
50
0.45 + 50
_
4
= 0.035204354
85
f
j
= F
X
(0.9j + 0.45) F
X
(0.9j 0.45)
=
_
50
(0.9j 0.45) + 50
_
4

_
50
(0.9j + 0.45) + 50
_
4
En terminos generales la funci on de densidad discreta queda expresada con f
j
. Evaluamos
la funcion para j = 0, 1, ..., 10 con el n de mostrar sus valores en la siguiente tabla.
j f
j
0 0.035204354
1 0.065881478
2 0.060352825
3 0.055371689
4 0.050875844
5 0.046811014
6 0.043129753
7 0.039790489
8 0.036756722
9 0.033996337
10 0.031481019
Finalmente, la siguiente gr aca muestra el ajuste de la distribuci on continua a la distribuci on
discreta
86
0 10 20 30 40
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
Comparacin: Pareto (4,50) continua vs. discretizada
x
F
X
(
x
)
Real
Discretizacin
0
.
0
0
0
.
0
1
0
.
0
2
0
.
0
3
0
.
0
4
0
.
0
5
0
.
0
6
Real
Discretizacin
Una vez que se tiene esta discretizaci on de la funci on de severidad, se puede proceder a
aplicar el metodo de Panjer, para una distribucion discreta de las familias (a,b,0) o (a,b,1).
Calculo de la distribucion de S a traves de convoluciones
Vimos en el desarrollo de la distribucion del monto agregado de reclamaciones, S, que esta
se especica por medio de convoluciones de la variable asociada a la severidad, mediante un
c alculo recursivo. concretamente
F
k
X
(x) =
_

F
(k1)
X
(x y)dF
X
(y) para k = 1, 2, ...
y su densidad
f
k
X
(x) =
_

f
(k1)
X
(x y)f
X
(y)dy para k = 1, 2, ...

Unicamente para mostrar lo complejo que puede ser este calculo, presentaremos un ejemplo
87
muy sencillo que ilustra c omo se realiza.
Ejemplo
Sea P(N = j 1) = j/10 para j = 1, 2, 3, 4, la funci on de densidad discreta, y sea X una dis-
tribuci on de perdida que toma s olo dos valores, con probabilidades f(1) = 0.4 y f(2) = 0.6.
Encontrar las correspondientes funciones de densidad y distribuci on de S, calculando la con-
voluci on. En este caso, las distribuciones de N y X son discretas, as que debemos utilizar
las formulas recursivas
F
k
X
(x) =
x

y=0
F
(k1)
X
(x y)f
X
(y) y
f
k
X
(x) =
x

y=0
f
(k1)
X
(x y)f
X
(y) para x=0,1,2,..., k=1,2,...
Observemos primero que:
f
0
X
(0) = 1 y f
0
X
(x) = 0 x = 0 y para k = 1, f
1
X
(x) = f
X
(x) y para k = 2, f
2
X
=
Pr(X
1
+X
2
= x), etc.
Realizando lo calculos obtenemos la siguiente tabla
x f
0
(x) f
1
(x) f
2
(x) f
3
(x) f
S
(x) F
S
(x)
0 1 0 0 0 0.1000 0.1000
1 0 0.4 0 0 0.0800 0.1800
2 0 0.6 0.16 0 0.1680 0.3480
3 0 0 0.48 0.064 0.1696 0.5176
4 0 0 0.36 0.288 0.2232 0.7408
5 0 0 0 0.432 0.1728 0.9136
6 0 0 0 0.216 0.0864 1
P(N = n) 0.1 0.2 0.3 0.4
Ahora veamos como se generan estos valores. Tenemos cuatro valores para N; n = 0, 1, 2, 3,
con probabilidades asociadas p
0
= 0.1, p
1
= 0.2, p
2
= 0.3, p
3
= 0.4. Por lo tanto, la funci on
de densidad de S se puede escribir como
f
S
(x) =
3

n=0
p
n
f
n
X
(x)
88
Para simplicar la notacion, omitiremos el subndice X. Ya vimos que f
0
(0) = 1, y es
el unico valor distinto de cero para la segunda columna de nuestra tabla. Adem as de esta
funci on, ya tenemos denada f
1
, que, como se puede calcular a traves del proceso recursivo,
la construiremos s olo con nes ilustrativos. Entonces, c omo calculamos f
1
?
Primero
f
1
(x) =
x

y=0
f
0
(x y)f(y), x = 0, 1, 2, ...
Entonces tenemos lo siguiente
x = 0, y = 0 f
1
(0) = f
0
(0)f(0) = 0
x = 1, y = 0 f
1
(1) = f
0
(1)f(0) = 0
x = 1, y = 1 f
1
(1) = f
0
(0)f(1) = 1 0.4 = 0.4
x = 2, y = 0 f
1
(2) = f
0
(2)f(2) = 0
x = 2, y = 1 f
1
(2) = f
0
(1)f(1) = 0
x = 2, y = 2 f
1
(2) = f
0
(0)f(2) = 1 0.6 = 0.6. Observese que ya no hay m as valores
distintos de cero, para valores que puede tomar x, y los valores distintos de cero corresponden
a la funcion original de densidad. Analicemos ahora c omo construir f
2
= Pr(X
1
+X
2
= x).
Primero tenemos que
f
2
(x) =
x

y=0
f
1
(x y)f(y), x = 0, 1, 2, ...
Entonces
x = 0, y = 0 f
2
(0) = f
1
(0)f(0) = 0
x = 1, y = 0 f
2
(1) = f
1
(1)f(0) = 0
x = 1, y = 1 f
2
(1) = f
1
(0)f(1) = 0
89
x = 2, y = 0 f
2
(2) = f
1
(2)f(0) = 0
x = 2, y = 1 f
2
(2) = f
1
(1)f(1) = 0.4 0.4 = 0.16
x = 2, y = 2 f
2
(2) = f
1
(0)f(2) = 0
x = 3, y = 0 igual a cero
x = 3, y = 1 f
2
(3) = f
1
(2)f(1) = 0.6 0.4 = 0.24
x = 3, y = 2 f
2
(3) = f
1
(1)f(2) = 0.4 0.6 = 0.24
x = 3, y = 3 igual a cero.
No existen mas casos para los que f
2
sea distinta de cero. Por lo tanto, f
2
(3) = 0.24+0.24 =
0.48. As se puede continuar con el c alculo de los demas elementos de la tabla
Para ilustrar como construir f
S
(x) y F
S
(x). De la denici on de la primera
f
S
(x) =
3

n=0
p
n
f
n
(x). Solo nos resta multiplicar los valores que hemos encontrado por las
correspondientes probabilidades de N. Por ejemplo, para x = 2, tenemos
f
S
(2) = p
0
f
0
(2)+p
1
f
1
(2)+p
2
f
2
(2)+p
3
f
3
(2) = 0.10+0.20.6+0.30.16+0.40 =
0.168.
La funcion de distribucion es simplemente el acumulado de la de densidad.
Este sencillo ejemplo muestra lo complicado que es encontrar la distribuci on de S, sobre todo
por lo laborioso del c alculo de la convolucion.
El codigo en R para este ejemplo, es
#convolucion
fr < c(0.1, 0.2, 0.3, 0.4)
fs < c(0, 0.4, 0.6, 0)#Se ampla el vector para tener la misma dimension que el de severidad
Fs < aggregateDist(convolution, model.freq = fr, model.sev = fs)
90
quantile(Fs)
CDFs < Fs(c(0, 1, 2, 3, 4, 5, 6))
dfs < diff(c(0, CDFs))
Las gracas de las funciones de distribucion y densidad de S, son
0 2 4 6 8 10
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Distribucin de S: Mtodo convolucin
x
F
S
(
x
)
q
q
q
q
q
q
q q q q
Densidad de S: Mtodo convolucin
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
91
Trabajando estos ajustes con datos reales
Los siguientes datos provienen de dos tablas dadas en el libro de Loss Models from data to
decision (Klugman), sobre un seguro dental para grupo. Las tablas son las siguientes
Monto: X
x f
X
(x)
1 0.150
2 0.200
3 0.250
4 0.125
5 0.075
6 0.050
7 0.050
8 0.050
9 0.025
10 0.25
dado en unidades de 25 d olares.
Frecuencia: N
n p(N =n)
0 0.05
1 0.10
2 0.15
3 0.20
4 0.25
5 0.15
6 0.06
7 0.03
8 0.01
que representa la distribuci on del n umero de personas por cada certicado de seguro (i.e.,
por cada empleado) que recibieron cuidados dentales en el a no que cubre el seguro.
Intentaremos hacer un modelado lo m as completo posible utilizando varias de los metodos
de aproximaci on que hemos presentado.
92
Metodos de Inversion
Hasta el momento hemos desarrollado diversos metodos para poder encontrar la distribuci on
de las perdidas agregadas correspondientes a los modelos que se pueden presentar en los datos
de una aseguradora, entre ellos se utilizaron convoluciones, aproximaciones y la fomula re-
cursiva de Panjer. Ademas, en la seccion anterior, tambien conocimos el metodo de redondeo
que se implementa para discretizar funciones continuas, de tal forma que posterior a este
proceso se pueda aplicar el metodo recursivo y nalmente conocer la distribuci on del riesgo.
Otros metodos para encontrar la distribuci on de S se conocen como los de inversi on. Estos
metodos numericos se basan en el hecho de la correspondencia unica entre las distribuciones
de las variables aleatorias con su funcion caracterstica (f.c.), su funci on generadora de mo-
mentos (f.g.m.) y su funci on generadora de probabilidades (f.g.p.).
La raz on por la cual se involucra a la funcion caracterstica en los metodos de inversi on, es
porque, adem as de ser unica, siempre existe. Por lo tanto, para una funcion caracterstica
dada, siempre tendremos su unica y correspondiente funci on de distribuci on que nalmente
es la que nos interesa hallar.
Dicha correspondencia tambien se respeta al tratarse de distribuciones compuestas, debido
a que su funci on caracterstica queda expresada como una composicion de funciones que
cumplen lo anterior.
Por lo tanto, la funci on caracterstica asociada a la distribucion de perdidas agregadas es:

S
(z) = E
_
e
iSz

= P
N
[
X
(z)]
donde P
N
es la f.g.p. de la frecuencia y
X
(z) la f.c. de la severidad.
Transformada Rapida de Fourier (FFT)
Este algoritmo lo utilizaremos para obtener la funcion de densidad de variables aleatorias
discretas con base en la transformacion de sus funciones caractersticas. Entonces, la sigu-
iente denici on muestra la Transformada de Fourier adaptada para una f.d.p.
Denicion Para cualquier funcion de densidad de probabilidades continua f (x), la Trans-
formada de Fourier (funcion caracterstica) asociada es:
93

f (z) =
_

f (x) e
izx
dx
La f.d.p. que se obtiene a partir de la Transformada de Fourier es:
f (x) =
1
2
_

f (z) e
izx
dz
Para el caso, f (x) es una funci on denida en los reales y

f (z) en los n umeros complejos.
Mientras que la versi on discreta es la siguiente
Denicion Sea f
x
una funci on denida en todos los valores enteros de x. Para el vector
(f
0
, f
1
, ..., f
n1
) la Transformada de Fourier discreta que tiene el vector
_

f
0
,

f
1
, ...,

f
n1
_
se
dene por medio de

f
k
=
n1

j=0
f
j
exp
_
2i
n
jk
_
; k = 0, 1, ...
Este mapeo es biyectivo puesto que se transforman n puntos en n puntos.
La Transformada de Fourier Inversa es:
f
j
=
1
n
n1

k=0

f
k
exp
_

2i
n
kj
_
; j = 0, 1, ...
Cabe se nalar que la Transformada R apida de Fourier (FFT) es un algoritmo empleado para
conocer la Transformada de Fourier, sin embargo no se estudiara el desarrollo del algoritmo,
aunque es importante mencionar que reduce el n umero de calculos realizados a un orden de
(nlog n) mientras que la evaluaci on directa de la transformada lo hara en n
2
operaciones;
que se vuelve mas importante a medida que el valor de n es mas grande. Ademas, el unico
requerimiento que debemos considerar para aplicar este metodo es que el valor de n sea
potencia de 2.
Entonces, el proceso a seguir para hacer uso de la FFT y con ello conocer la distribucion de
S es:
94
Discretizar la funcion de severidad de las perdidas agregadas por el metodo de redondeo
y obtener el siguiente vector de probabilidades
f
X
(0) , f
X
(1) , ..., f
X
(n 1)
con n = 2
r
, r entero y n se dene respecto a f
S
(s) que se desea obtener.
Aplicar el algoritmo FFT al vector anterior para obtener la funci on caracterstica de
los montos de reclamaci on, en este caso
X
(s) que igual es un vector de n entradas.
Una vez conocida la funcion caracterstica de la severidad y con la funcion generadora
de probabilidades del n umero de reclamaciones, se hace la composici on de estas dos
para determinar la Transformadad de Fourier discreta (funci on caracterstica) de las
perdidas agregadas.
Finalmente, se implementa el algoritmo de la Transformada rapida de Fourier en orden
Inverso (IFFT) que proporcionar a la f.d.p. del riesgo S.
95
Ejemplo
Encontrar a traves del metodo de la Transformada rapida de Fourier la funci on de densidad
de S, considerando n = 2
7
, que la distribucion de severidad es Exponencial (1/4), el n umero
de reclamaciones se distribuye Binomial Negativa ( = 0.25, r = 10) y que se tienen las
siguientes coberturas en el seguro:
Deducible (d) = 5
Lmite de p oliza ((u d)) = 40
Coaseguro () = 80%
Utilizar un span de 0.4 para el metodo de redondeo y considerar que son perdidas agregadas
de pago.
La resoluci on de este ejemplo se har a mediante el uso de c odigos en R explicando los pasos,
esta situaci on es debido a que los c alculos de la FFT s olo son contemplados con el uso de
este programa.
La distribucion de Y
P
asociada y que se debe discretizar es
F
Y
P =
_

_
0 y = 0
F
X(
y
0.8
+5)F
X
(5)
1F
X
(5)
0 < y < 40
1 y 40
En este caso que X Exp(1/) para F
Y
P cuando 0 < y < (u d)
F
Y
p (y) =
_
1 e

(
y

+d)
_

_
1 e

_
e

=
e

(
y

+d)
e

=
e

_
1 e

_
e

= 1 e

Y
P
Exp(1/), en el ejemplo Y
P
Exp(0.3125)
96
C odigo en R
a < 0.8
d < 5
l < 40
u < (l/a) + d
h < 0.4
n < 2
7
fy < discretize(pexp(x, rate = .3125), method = rounding, from = 0, to = n h, step = h)
#Este vector resultante es la versi on discreta y aproximada de la distribucion de severidad
con las modicaciones de cobertura del seguro.
fcy < fft(fy, inverse = FALSE) #Funcion caracterstica de los montos de reclamacion.
Como el n umero de reclamaciones tambien se modica por las coberturas, si N BinNeg(, r)
= N
P
BinNeg(

= v, r) y v = 1 F
X
(5)
v < (1 pexp(d, 1/4))
r < 10 ; b < 0.25
beta < (v b)
La f.g.p. de N
P
es P
N
P (z) = [1

(z 1)]
r
=
La funcion caracterstica de S

S
(s) = [1

(
Y
P (s) 1)]
r
fcS < (1 beta (fcy 1))
(
r)
Por ultimo, se realiza la IFFT (Transformada r apida de Fourier Inversa) agregando la division
entre n que no calcula la funci on de R pero que es parte de la f ormula para obtener la funcion
de densidad de S de acuerdo a su dencion.
97
fS < Re(fft(fcS, inverse = TRUE))/n
Esta es la tabla resumen de valores para
Y
P (s) ,
S
(s) y f
S
(s) con n = 128.
s
Y
P (s)
S
(s) f
S
(s)
0 0.999999880 0.9999999 5.214224e 01
1 0.866304586 0.8802309 3.862681e 02
2 0.618238579 0.7162362 3.566183e 02
3 0.418398588 0.6236285 3.290695e 02
4 0.287939540 0.5768385 3.034938e 02
5 0.205446738 0.5516760 2.797684e 02
6 0.152087109 0.5369782 2.577756e 02
7 0.116303997 0.5277549 2.374033e 02
8 0.091418485 0.5216224 2.185448e 02
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqq
0 20 40 60 80 100 120
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Distribucion de perdidas agregadas: Mtodo de Inversin
s
F
S
(
s
)
98
F ormula de De Pril
Para el Modelo de riesgo Individual tambien se desarroll o una f ormula recursiva que pro-
porciona la distribuci on de S. Este resultado fue desarrollado por Nelson De Pril en 1986 y
considera un portafolio de n asegurados.
En este modelo se denota al n umero de asegurados por n
ij
, donde con j se representa la
probabilidad de reclamaci on q
j
; j = 1, 2, ..., m y con i, el monto de la reclamacion realizada;
i = 1, 2, ..., r. De forma que
n =
r

i=1
m

j=1
n
ij
Es indispensable que los montos de reclamacion sigan una progresi on aritmetica, de manera
que los valores que corren sobre i puedan representar la progresi on que tiene la severidad; es
decir, para valores de i = 1, 2, 3, 4 se pueden considerar, por ejemplo, los montos de benecio
de los asegurados por las cantidades de 3000, 6000, 9000, 12000.
Probabilidad de reclamacion (j)
Monto de reclamacion (i)
q
1
q
2
q
m
1 n
11
n
12
n
1m
2 n
21
n
22
n
2m

r n
r1
n
r2
n
rm
La funcion de densidad para S queda expresada por la siguiente formula recursiva
f
S
(x) =
1
x
xr

i=1
x/i

k=1
f
S
(x ik) h(i, k) ; x 1
f
S
(0) =
r

i=1
m

j=1
(1 q
j
)
n
ij
donde
h(i, k) = i(1)
k1
m

j=1
n
ij
_
q
j
1 q
j
_
k
99
Dem:
Considerando la f.g.p. de X
ij
para este caso que involucra la probabilidad de reclamacion q
j
y al monto i, entonces con esta nueva notaci on
P
X
ij
(z) =
_
1 q
j
+q
j
z
i
_
Luego la f.g.p. de S por la independencia de las X
ij
s ser a
P
S
(z) =
r

i=1
m

j=1
_
1 q
j
+q
j
z
i
_
n
ij
tomando logaritmo y derivando respecto a z
ln [P
S
(z)] =
r

i=1
m

j=1
n
ij
ln
_
1 q
j
+q
j
z
i
_
d
dz
ln [P
S
(z)] =
P
S
(z)
P
S
(z)
=
r

i=1
m

j=1
n
ij
_
iq
j
z
i1
1 q
j
+q
j
z
i
_
=
P
S
(z) = P
S
(z)
_
r

i=1
m

j=1
n
ij
_
iq
j
z
i1
1 q
j
+q
j
z
i
_
_
zP
S
(z) = P
S
(z)
_
r

i=1
m

j=1
n
ij
_
iq
j
z
i
1 q
j
+q
j
z
i
_
_
= P
S
(z)
_
r

i=1
m

j=1
n
ij
iq
j
z
i
1 q
j
+ q
j
z
i
1 q
j
1 q
j
_
= P
S
(z)
_
r

i=1
m

j=1
n
ij
iq
j
z
i
1 q
j
_
1 +
q
j
z
i
1 q
j
_
1
_
Aqu usamos el hecho de que
1
1 x
, se puede expandir como

k=1
x
k
para |x| < 1. Entonces
= P
S
(z)
_
r

i=1
m

j=1
n
ij
i
q
j
z
i
1 q
j

k=1
(1)
k1
_
q
j
z
i
1 q
j
_
k1
_
100
= P
S
(z)
_
r

i=1
m

j=1
n
ij
i

k=1
(1)
k1
_
q
j
1 q
j
_
k
z
ik
_
Ahora denimos h(i, k) = i (1)
k1
m

j=1
n
ij
_
q
j
1 q
j
_
k
Debido a que las sumas sobre k y j son absolutamente convergentes en cualquiera de los
dos ordenes que se realicen, entonces es v alido intercambiarlas, por lo tanto, regresando al
desarrollo anterior, tenemos que
zP
S
(z) = P
S
(z)
_
r

i=1

k=1
h(i, k) z
ik
_
como P
S
(z) = E
_
z
S

x=0
z
x
P[S = x] =

x=0
z
x
f
S
(x) y
P
S
(z) =

x=0
xz
x1
f
S
(x) =

x=1
xz
x1
f
S
(x)
=
zP

S
(z) = z

x=1
xz
x1
f
S
(x) =

x=0
xz
x
f
S
(x)
Por lo tanto

x=1
xz
x
f
S
(x) =

x=0
z
x
f
S
(x)
r

i=1

k=1
h(i, k) z
ik
El coeciente para x 1 de la parte izquierda de la igualdad de z
x
es xf
S
(x) y para valores
de i y k tales que 1 ik x. Mientras que el coeciente para z
x
del otro lado de la
igualdad, es la suma de los terminos f
S
(x ik) h(i, k). Se pueden primero establecer los
posibles valores para i de la siguiente forma i = 1, ..., x r, y por lo tanto los valores para
k son k = 1, ..., x/i, donde x r es el valor mnimo entre x y r, y x/i es la parte entera
del cociente x/i. Igualando estos coecientes se tiene que
=
xf
S
(x) =
xr

i=1
x/i

k=1
f
S
(x ik) h(i, k)
101
para x 1 f
S
(x) =
1
x
xr

i=1
x/i

k=1
f
S
(x ik) h(i, k)
y para S = 0 que es cuando no se efect ua ninguna reclamacion, entonces x = 0 y de ah
f
S
(0) =
r

i=1
m

j=1
(1 q
j
)
n
ij

De manera explcita, los primeros terminos de esta formula son


f
S
(0) =
r

i=1
m

j=1
(1 q
j
)
n
ij
f
S
(1) = f
S
(0) h(1, 1)
f
S
(2) =
1
2
{f
S
(0) [h(1, 2) + h(2, 1)] + f
S
(1) h(1, 1)}
f
S
(3) =
1
3
{f
S
(0) [h(1, 3) + h(3, 1)] + f
S
(1) [h(1, 2) + h(2, 1)] + f
S
(2) h(1, 1)}
.
.
.
102
Ejemplo
Una aseguradora posee una cartera de 66 p olizas para un seguro de vida. La siguiente tabla
muestra las probabilidades de reclamacion y los montos de reclamaci on por grupo de asegura-
dos. Obtener la funci on de densidad de las perdidas agregadas para valores de x = 0, 1, ..., 30
mediante la formula recursiva de De Pril
# polizas Probabilidad de reclamacion Monto de reclamacion
20 0.02 5000
14 0.012 10000
8 0.05 15000
24 0.013 20000
Reescribiendo la tabla conforme a la F ormula de De Pril:
Probabilidad de reclamacion (q
j
)
Monto de reclamacion (i)
0.02 0.012 0.05 0.013
1 20 0 0 0
2 0 14 0 0
3 0 0 8 0
4 0 0 0 24
La implementaci on de este metodo se realizo en R. A continuaci on se muestra una tabla
resumen de los primeros valores de la funci on de densidad y distribuci on de S, y su graca
para x = 0, 1, ..., 30.
x f
S
(x) F
S
(x)
0 0.2732243 0.2732243
1 1.115201e 01 0.3847444
2 6.808043e 02 0.4528248
3 1.366522e 01 0.5894770
4 1.408985e 01 0.7303755
5 6.588025e 02 0.7962558
103
0 5 10 15 20 25 30
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
Densidad de Reclamaciones Agregadas
Frmula de De Pril
x
f
S
(
x
)
0 5 10 15 20 25 30
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
Densidad de Reclamaciones Agregadas
Frmula de De Pril
x
f
S
(
x
)
104
Teora de la credibilidad
Consideremos un riesgo determinado que proveniente de un conjunto de asegurados vigentes
por un periodo determinado. Si este grupo de asegurados es homogeneo en el sentido de que
todos sus miembros tienen la misma probabilidad de realizar una reclamacion, entonces es
razonable aplicar una misma prima a todos ellos. Sin embargo, cuando el grupo no es ho-
mogeneo, o bien, al paso del tiempo aparecen factores de heterogeneidad dentro del mismo,
habr a subgrupos de bajo riesgo y otros de alto riesgo. Cobrar una misma prima a todos
resultara injusto, y no sera conveniente para la aseguradora pues, eventualmente, los ase-
gurados de bajo riesgo buscaran un mejor trato con otra aseguradora. La idea fundamental
es aplicar primas menores a los asegurados de bajo riesgo y primas mayores a los de alto
riesgo, con base en el historial de reclamaciones que cada uno de los asegurados o subgrupos
hayan realizado durante los periodos anteriores. En la teora de la credibilidad se estudian
metodos para el c alculo de primas a traves de la combinaci on de la experiencia individual
(historial de reclamaciones, datos propios) y la experiencia de grupo (datos del mercado,
contratos similares, experiencia propia acumulada, datos colaterales).
Este escenario plantea entonces que, cada caracterstica a estimarse en la poblaci on, depende
de dos fuentes de informacion (o tiene dos fuentes de datos): Los datos propios o datos indi-
viduales y la informacion colateral, dada por los datos del mercado o la experiencia propia
acumulada. Si basamos esta estimaci on solo en los datos propios y estos son escasos, en-
tonces su estimacion sera poco conable (escencialmente podra tener una varianza muy
grande). Por otro lado, si esta estimaci on se realizara unicamente con la informacion co-
lateral, que, tal vez, sea basta, podra ser que no todos estos datos estuvieran totalmente
relacionados con el mismo riesgo, este podra haber sufrido modicaciones, por ejemplo, a
traves del tiempo. Entonces, la mejor alternativa para estimar estas caractersticas, debiera
ser una combinaci on de las dos fuentes de informaci on. En concreto, si deamos estimar la
caracterstica de la poblaci on, nuestro estimador debiera ser
Z
i
+ (1 Z)
C
Con
i
el estimador dado por la informaci on individual y
C
el estimador dado por la
informaci on colateral. Con Z [0, 1] conocido como factor de credibilidad, generalmente
determinado por los datos individuales y colaterales. Si la informaci on generada por la expe-
riencia propia es abundante, este factor debera ser cercano a uno, y cercano a cero cuando
105
esta informacion sea muy escasa.
Para asignar el valor de Z en condiciones reales, se toman en cuenta
El volumen de los datos individuales o propios respecto a los datos colaterales, y
Diferencias entre datos individuales y colaterales.
Credibilidad total o completa
Supongamos que S representa el riesgo para una aseguradora correspondiente a un asegurado
o un conjunto de asegurados con ciertas caractersticas particulares, con covertura por un pe-
riodo jo determinado, por ejemplo, un a no. Sean S
1
, ..., S
m
los montos de las reclamaciones
efectuadas por este asegurado o grupo de asegurados durante m periodos consecutivos, y
sea

S = (S
1
, ..., S
m
) /m el promedio de las reclamaciones. Nos interesa estudiar el compor-
tamiento de

S a lo largo del tiempo para un conjunto de asegurados en particular, pues
deseamos determinar si la prima que se les cobra a cada uno de ellos es la adecuada. Si las
variables S
1
, ..., S
m
son independientes, e identicamente distribuidas y con esperanza nita,
entonces la ley de los grandes n umeros garantiza que la media muestral

S converge a E(S),
conforme el n umero de sumandos crece a innito.
106
Convergencia de S
m
S
E(S)
Denicion. Sea k (0, 1) y p (0, 1) dos valores jos. Se dice que

S tiene credibilidad total
o completa (k, p), si
P
_

S E(S)

kE(S)
_
p
Esta denici on enuncia que

S tiene credibilidad completa si dista de E(S), en menos de
kE(S) con probabilidad mayor o igual a p. Observese que la denicion tiene sentido cuando
E(S) distinta de cero. En la pr actica, obviamente se toman valores de k cercanos a cero y
valores de p cercanos a uno, tpicamente k = 0.05 y p = 0.9.
Regresando al esquema de la estimaci on a traves de las dos fuentes de informaci on: datos
individuales e informacion colateral, nuestra estimacion de

S, queda como
Z

S + (1 Z)E(S)
Notemos que estamos utilizando la esperanza de S como la informaci on colateral. Entonces,
una pregunta que surge de manera natural es: de que tama no debe ser la experiencia propia
107
para que la aseguradora pueda eliminar la informacion colateral?. En otras palabras, cu al
es el n umero de periodos, m, necesarios para que se cumpla el enunciado de la denicion
anterior?
Credibilidad completa bajo normalidad asintotica
Determinemos una condicion sobre este n umero de periodos, m, para obtener credibilidad
completa asumiendo que, bajo el teorema central del lmite,

S tiene una distribucion aprox-
imadamente normal. Recordemos que
E
_

S
_
= E(S) y V
_

S
_
=
V(S)
m
Entonces
P
_

S E(S)

kE(S)
_
= P
_


S E(S)

_
V(S)/m

kE(S)
_
V(S)/m
_
P
_
|Z|
kE(S)
_
V(S)/m
_
= P
_

kE(S)
_
V(S)/m
Z
kE(S)
_
V(S)/m
_
=
_
kE(S)
_
V(S)/m
_

kE(S)
_
V(S)/m
_
=
_
kE(S)
_
V(S)/m
_

_
1
kE(S)
_
V(S)/m
_
= 2
_
k

mE(S)
_
V(S)
_
1
Como esta probabilidad debe ser mayor o igual a p seg un la denici on, tenemos que
2
_
k

mE(S)
_
V(S)
_

1 + p
2
108
Lo que queremos es encontrar el valor de m m as peque no que cumpla esta desigualdad, que
es aquel que cumple con la igualdad en esta ecuaci on. Denotemos por z
q
al cuantil de orden
q de la normal est andar, i.e., (z
q
) = q. Entonces, el valor mnimo de m para garantizar
credibilidad total o completa es tal que
k

mE(S)
_
V(S)
z
(1+p)/2
y despejando m obtenemos
m
z
2
(1+p)/2
V(S)
k
2
E
2
(S)
Las cantidades E(S) y V(S) pueden estimarse por medio de la media y varianza muestral,
respectivamente, usando la informaci on que se tenga a disposici on al momento de hacer el
an alisis. Substituyendo estos valores en la formula se puede conocer una aproximacion del
n umero de periodos m de historial para que

S tenga credibilidad completa. Observese que
cuando p crece, es decir, cuando se desea tener una mayor conanza en la estimaci on de

S,
entonces el n umero de periodos de observacion m tambien crece. Si ademas queremos que
el parametro k decrezca tambien, es decir, si se pide que la distancia entre

S y E(S) tenga
menor amplitud, entonces m crece. En resumen, si requerimos condiciones muy exigentes a
estos par ametros, el precio que hay que pagar es un mayor n umero de periodos del historial,
de lo contrario, necesitaremos menos periodos.
Ejemplo
Supongamos que N denota la v.a. que representa el n umero de recamaciones de un portafo-
lio de seguros, durante determinado periodo. Asumamos como es costumbre que N
Poisson(). Supongamos ademas que la variable de monto de reclamaci on X
i
, sigue una
distribuci on Weibull(, ).
Recordemos que, dado que N es Poisson, entonces el modelo para S es Poisson compuesto.
Con
109
E(S) = E(N)E(X
i
) =
_
1 +
1

_
y
V(S) =
2

_
1 +
2

_
Encontrar el valor mnimo de m, para tener credibilidad total, si p = 0.9 y k = 0.05. Real-
izando un c alculo simple obtenemos
m
1.96
2

_
1 +
2

_
(0.05)
2

2
_
1 +
1

_
m 1536.64

_
1 +
2

2
_
1 +
1

_
Observemos que m representa el total de reclamaciones promedio durante m periodos.
Ejemplo 2
La siguiente tabla corresponde a una muestra de 100 reclamaciones sobre un seguro. Supong-
amos que la tasa media de reclamaci on es de 0.015. Calcular el n umero mnimo de reclama-
ciones esperadas, as como el tama no aproximado que debera tener el portafolio de experi-
encia para asignarle credibilidad total con k = 0.05 y p = 0.9
Tabla
Monto de reclamacion N umero de reclamaciones
0 400 2
400 800 24
800 1200 32
1200 1600 21
1600 2000 10
2000 2400 6
2400 2800 3
2800 3200 1
3200 3600 1
Entonces, recordemos que, en general
E(S) = E(N) E(X) y V(S) = E(N) V(X) +V(N) E
2
(X)
110
En este caso, utilizaremos las verisiones empricas

E(N) =

N = 11.11111;

V(N) = 135.1111

E(X) =

X = 1216;

E
2
(X) = 1841600
Entonces

E(S) = 11.11111 1216 = 13511.11 y

V(S) = 11.11111 (1841600 1216


2
) + 135.1111 1841600 = 252853312
m 1536.64
252853312
13511.11
2
= 2128.427
111
Credibilidad parcial
En muchas ocaciones reales, la experiencia acumulada no es tan grande como para otorgarle
credibilidad total o completa, solamente creibilidad parcial, (Z < 1). Entonces, necesitamos
determinar que valor habra que asignarle a Z, para que nuestro estimador

S cumpla las
mismas condiciones anteriores. Por lo que, en la combinacion lineal convexa que determi-
namos para estimar

S, Z

S + (1 Z)E(S), le asignamos credibilidad total a E(S); (Z = 1).
Procediendo de manera semejante al desarrollo para creibilidad total, tenemos que
P
_

Z
_

S E(S)
_
kE(S)

_
p
que podemos reescribir como
P
_

S E(S)
_

k
Z
E(S)

_
p
condici on similar a la de credibilidad completa, cambiando k, por k/Z. Es decir, la credi-
bilidad completa (k, p), para Z

S + (1 Z)E(S), es equivalente a la credibilidad completa
(p, k/Z), para

S.
Credibilidad parcial bajo normalidad asintotica
De manera totalmente analoga al desarrollo para credibilidad completa, bajo la hip otesis de
normalidad asintotica para para

S y para los valores de k y p mencionados anteriormente,
se tiene la aproximaci on
m
Z
2
z
2
(1+p)/2
V(S)
k
2
E
2
(S)
de donde obtenemos
Z =
kE(S)

m
z
(1+p)/2
_
V(S)
Este valor de Z excede el valor de uno para valores sucientemente grandes de m, por lo
tanto se dene el factor de credibilidad como
112
Z = min
_
kE(S)

m
z
(1+p)/2
_
V(S)
, 1
_
Ejemplo. Retomemando nuestro primer ejemplo
Donde N Poisson() y X
i
, sigue una distribuci on Weibull(, ), con k=0.05 y p=0.9.
Calculemos la condicion de crdibilidad parcial para Z

S +(1Z)E(S). En este caso tenemos
que
m 1536.64

_
1 +
2

2
_
1 +
1

_Z
2
Si tomamos la igualda y despejamos Z, obtenemos
Z =

m
_
1 +
1

_
39.2
_

_
1 +
2

_
Entonces, la combinaci on lineal queda como

m
_
1 +
1

_
39.2
_

_
1 +
2

_

S +
_
_
1

m
_
1 +
1

_
39.2
_

_
1 +
2

_
_
_
E(S)
con E(S) es el valor esperado teorico de S y

S es la experiencia observada.
113
Creibilidad Bayesiana
La estadstica Bayesiana consituye una manera natural de incorporar el historial de reclama-
ciones (informaci on) de un grupo de asegurados en el c alculo de las primas. Una aseguradora
que ha tenido mucha experiencia realizando este c alculo, tendr a una estimacion mas precisa
de estas primas; no obstante, solo ser a una estimacion que deber a actualizar tan pronto
tenga mas informaci on a mano. Por el contrario, una nueva aseguradora en el mercado,
tendr a poca o nula informacion propia en la que basar sus estimaciones, por lo que dicha
estimaci on sera muy incierta y, tal vez, este basada en la informacion del mercado o de juicios
subjetivos de especialistas del area, por lo que le resultar a de suma importancia actualizarla
en cuanto empiece a acumular informaci on propia.
Enfoque Bayesiano
En la estadstica tradicional, enfoque clasico, uno de los problemas inferenciales m as im-
portantes es la estimacion del, parametro, , de una distribuci on de probabilidad, f(x; ).
Para realizar dicha estimacion seleccionamos una muestra aleatoria de esta distribucion y se
tienen distintos metodos para estimar , considerando siempre que este parametro tiene un
valor desconocido y jo. En el enfoque Bayesiano, , se trata como una variable aleatoria
para la que se supone una distribucion de probabilidad, p(), llamada distribucion inicial o
distribucion apriori. Esta distribuci on reeja la informaci on subjetiva o cuantitativa que el
observador pueda tener sobre este par ametro, , antes de observar la muestra.
Actualizaci on de la informacion a traves del teorema de Bayes
La forma en la que se actualiza la informacion inicial sobre nuestro par ametros de interes,
, mediante la informacion contenida en la muestra, p(x|) = L(; X) (la verosimilitud), es
a traves del teorema de Bayes.
Teorema de Bayes
Dados dos eventos A y B tales que P(B) > 0, la probabilidad condicional de A dado B,
P(A|B), se dene como
P(A|B) =
P(B A)
P(B)
=
P(B|A)P(A)
P(B)
114
Teorema de Bayes
Si {A
i
: i = 1, 2, ..., M} es un conjunto exhaustivo de eventos mutuamente excluyentes, en-
tonces
P(A
i
|B) =
P(B|A
i
)P(A
i
)
M

j=1
P(B|A
j
)P(A
j
)
La forma esquem atica de actualizar esta informaci on a traves del teorema de Bayes es la
siguiente
debe tener una distribucion de probabilidad, p(), que reeje nuestro conocimiento inicial
acerca de su valor.
La informaci on sobre que contiene la muestra aleatoria seleccionada, est a resumida en la
verosimilitud: p(x|) = L(; X)
Por lo tanto, nuestro conocimiento acerca del valor de queda descrito a traves de su dis-
tribucion nal
p(|X)
El Teorema de Bayes nos dice c omo encontrarla:
p(|X) =
p(x|)p()
_
p(x|)p()d
Este proceso se conoce como el proceso de actualizacion de la informacion sobre , y es la
manera de combinar las dos fuentes de informaci on que tenemos: La inicial, dada a traves
de p() y la de la muestra, dada por medio de la verosimilitud: p(x|), para obtener la
distribuci on nal: p(|X), que contiene la suma de estas dos fuentes de informacion.
Observese que el denominador, p(x) =
_
p(x|)p()d, no depende de , por lo que es com un
escribir esta distribucion nal como
115
p(|x) p(x|)p()
En la pr actica, el calculo de la distribuci on nal puede ser un asunto complicado, especial-
mente si la dimensi on del par ametro es grande.
Sin embargo, para ciertas combinaciones de distribuciones iniciales y verosimilitudes es posi-
ble simplicar el an alisis.
En otros casos se requieren aproximaciones analticas y/o tecnicas computacionales relativa-
mente sosticadas.
Familias conjugadas
Comentamos en uno de los puntos anteriores, que existen ciertas combinaciones de distribu-
ciones iniciales y verosimilitudes, que simplican el an alisis Bayesiano, esencialmente, porque
el modelo de la distribucion nal de , pertenece a la misma familia que el de la inicial.
Denici on. Sea P = {p(x|) : } una familia parametrica. Una clase (o colecci on) de
distribuciones de probabilidad F es una familia conjugada para P si para toda p(x|) P
y p() F se tiene que p(|x) F
Algunos modelos parametricos univariados con sus respectivas familias conjugadas:
Familia parametrica Familia Conjugada
Bernoulli(x|) Beta(|, )
Poisson(x|) Gamma(|, )
Geometrica(x|) Beta(|, )
Exponencial(x|) Gamma(|, )
Uniforme(x|0, ) Pareto(|, )
Normal(x|) Normal(|
0
,
0
)
Normal(x|) Gamma(|, )
Normal(x|, ) Normal Gamma(, |
0
,
0
, , )
116
Ejemplo. Consideremos la familia parametrica P = {Poisson(x|) : R
+
}. Si utilizamos
como distribucion inicial p() F = {Gamma(|, ) : , R
+
}. Entonces, si se tiene
una muestra aleatoria x = (x
1
, ..., x
n
), la distribuci on nal es
p(|X) = Gamma(| +r, n + )
con r =
n

i=1
x
i
.
Dem. S olo demostraremos que el kernel de la distribuci on nal, pertenece a la distribucion
Gamma(| + r, n + ).
Sabemos, por Bayes, que
p(|X) =
p(x|)p()
_
p(x|)p()d
con
p(x|) =
n

i=1

x
i
e

x
i
!

n
i=1
x
i
e
n
y
p() =

1
e

()
, por lo que
p(|X)

n
i=1
x
i
e
n

1
e

=
+

n
i=1
x
i
1
e
(+n)
Gamma
_
+
n

i=1
x
i
, +n
_
Aplicacion a la teora de credibilidad
Por lo general, la tasa de frecuencia de reclamaci on, , de un seguro presenta incertidumbre,
por lo que se puede suponer que sus valores est an dados mediante una distribucion de prob-
abilidades. El rango de denici on de esta tasa es (0, ), por lo que una distribucion
adecuada para ella puede ser la Gamma(, ). Consideremos tambien que el n umero de
reclamaciones sigue una distribuci on Poisson() y tenemos m p olizas o periodos de obser-
vaci on independientes. Entonces la distribucion nal de la tasa de frecuencia de reclamaci on
es una Gamma con las caractersticas anteriores. Esta distribucion nal tiene media
117
+

m
i=1
x
i
+ m
=
+ m

S
+m
=
m
+m

S +

+m

= Z

S + (1 Z)

con Z =
m
m+
el factor de credibilidad. Este factor crece de forma mon otona a uno cuando
m tiende a innito, dando, como es l ogico, cada vez m as credibilidad a la media muestral

S,
es decir, a la informaci on individual o de la Ca., y menor credibilidad a la media te orica o
poblacional, que representa la informaci on colateral. Adem as si m tiende a innito la media
de la distribuci on nal o aposteriori converge a la media muestral lmite dada por el historial
de reclamaciones; y la varianza de esta tasa, , que es
+m

S
(m+)
2
converge a cero, lo cual indica que la distribucion nal se concentra cada vez mas alrededor
de su media.
Ejemplo: Estimacion del fraude en un tipo de poliza
Un actuario desea estimar la proporci on, , de fraude en un determinado tipo de poliza.
Para esto, se realizan inspecciones aleatorias a las reclamaciones realizadas. Se sabe que el
fraude en el sector es del 4% con una desviaci on estandard del 2%. Se inspeccionan un total
de 240 p olizas, y se determina que 22 de ellas son fraudulentas. El actuario quiere combinar
estas dos fuentes de informaci on (Sector y Ca.) para actualizar esta proporci on de freude.
Sea X v.a. que representa el n umero de polizas fraudulentas en un total de n inspecciones.
Es claro que X tiene una distribuci on Binomial(n, ).
f (x|) =
_
n
x
_

x
(1 )
nx
, x = 0, 1, ..., n; (0, 1)
118
Bajo el enfoque Bayesiano, debemos asignar una distribucion inicial a . El hecho de que
su espacio parametral sea (0, 1), nos obliga a buscar una distribuci on que tenga exibili-
dad (distintas formas posibles) en este intervalo; una elecci on que parece conveniente, es la
distribuci on beta.
0.0 0.5 1.0 1.5 2.0
0
2
4
6
8
1
0
Diversas formas de la distribucin Beta
x
B
e
t
a
a1= 0.5 , a2= 3
a1= 1 , a2= 3
a1= 1.5 , a2= 3
a1= 3 , a2= 3
a1= 5 , a2= 3
a1= 7 , a2= 3
0.0 0.5 1.0 1.5 2.0
0
2
4
6
8
Diversas formas de la distribucin Beta
x
B
e
t
a
a1= 3 , a2= 1
a1= 3 , a2= 0.8
a1= 3 , a2= 0.6
a1= 3 , a2= 0.4
a1= 3 , a2= 0.2
a1= 3 , a2= 0.1
cuya funci on de densidad es
p(; , ) =

1
(1 )
1
Beta(, )
; (0, 1), > 0, > 0
con y par ametros de la distribuci on inicial, conocidos como hiperparametros, que se
pueden estimar a partir de la informaci on inicial sobre , cuya distribuci on inicial supusimos
Beta(, ), de la siguiente forma
E() =

+
= 0.04, y
V() =

( + + 1)( +)
2
= 0.02
2
119
cuya soluci on es: = 0.02386583 y = 0.000009779513.
Para encontrar la distribuci on nal de dados los datos observados, utilizaremos el teorema
de Bayes para distribuciones. Sabemos que, en este caso, la distribuci on nal tambien debe
ser una Beta, porque es conjugada para la Bernoulli. Por lo que solo resta ver como se
actualizan los parametros de la Beta inicial (Modelo Beta-Binomial). Entonces
p(|X) =
f(x|)Beta(|, )
_
1
0
f(x|)Beta(|, )d
=
_
n
x
_

x
(1 )
nx

1
(1 )
1
Beta (, )
_
1
0
_
n
x
_

x
(1 )
nx

1
(1 )
1
Beta (, )
d
=

x+1
(1 )
nx+1
Beta(x + , n x +)
Por lo tanto
p(|x) = Beta(x + , n x +)
Con x el valor observado de la Binomial. Entonces, la media de la distribuci on nal, que es
la proporcion de fraude actualizada, es
E(|x) =
+x
+ +n
=
n
+ +n
x
n
+
+
+ +n

+
=
n
+ +n
p +
+
+ + n
E()
que representa la formula de credibilidad, donde se combinan la experiencia del sector (colec-
tivo) y la informaci on de la Ca. (individual). Con el factor de credibilidad dado por
120
Z =
n
+ +n
Finalmente, la proporcion de fraude actualizada es 0.09175698 y factor de credibilidad
Z = 0.9999005. Para construir un intervalo de probabilidad sobre esta proporcion. Debemos
encontrar los lmites (l, u), sobre la distribuci on nal de , tal que
P(l |x u) = 1 q
con 0 < q < 1, la probabilidad de cobertura deseada.
Calculo Bayesiano de primas de seguros
El uso de las distribuciones iniciales que tienen un car acter evidentemente subjetivo, resulta
de utilidad en el mercado de seguros, sobre todo si se tiene en cuenta que cuando se quiere
tarifar un riesgo nuevo no se dispone de informacion para ello.
La visi on Bayesiana se incorporo rapidamente a la disciplina actuarial, demostrando que
algunas primas que se obtienen a traves de la metodologa Bayesiana pueden escribirse como
f ormulas de credibilidad.
En estos terminos actuariales, la cuesti on basica de credibilidad es determinar una prima
establecida como una combinaci on lineal convexa entre la experiencia particular de un ase-
gurado y la experiencia del colectivo, esto es toda la cartera. Es decir
P
j
= Z

P + (1 Z) P
0
Con
P
j
prima a aplicar a los asegurados por el riesgo j.
P
0
prima a aplicar a un colectivo al que pertenece el asegurado j.


P Prima calculada con base en la experiencia del asegurado j.
Z Factor de credibilidad. Que debe vericar las condiciones: lim
m
Z = 1, con m el
n umero de sujetos expuestos al riesgo j o el periodo de observacion de la poliza j. Entonces,
si Z = 1 la experiencia del asegurador recibe credibilidad total o del 100%, mientras que si
121
Z = 0, P
j
= P
0
y la prima del asegurado j coincide con la del colectivo a la que pertenece
dicha p oliza, o la experiencia del colectivo recibe credibilidad total o del 100%.
Entonces, desde el punto de vista Bayesiano, esta f ormula de credibilidad puede interpretarse
como: Podemos considerar P
0
como la informaci on inicial o a priori. A

P como la nueva
informaci on que se obtiene mediante la observaci on de la siniestralidad del riesgo j (los datos
recabados; la informaci on recabada) y P
j
la actualizaci on del c alculo de la p oliza (prima a
posteriori), resultado de combinar la informaci on inicial con la informacion recabada. Por lo
tanto
Prima(a posteriori) = (1 Z) Prima a priori +Z Experiencia dada por los datos
De esta manera, la teora de la credibilidad Bayesiana, sigue un esquema donde la infor-
maci on a priori sobre el calculo de las primas, se actualiza con la informaci on dada por la
observacion del siniestro (muestra), dando como resultado la actializacion de la prima, me-
diante el calculo de la prima a posteriori.
122
Teora de la Ruina
Introduccion
Hasta aqu hemos presentado modelos de diversa naturaleza que permitan a una compa na
aseguradora modelar sus riesgos, tomando en cuenta los pagos inciertos (aleatorios) que efec-
tuar a en el futuro por concepto de reclamaciones. Pagos a los que hara frente a partir del
cobro de primas sucientes para saldar estas eventuales obligaciones, en caso de que ocurran
los siniestros.
Resulta natural entonces, considerar el problema de que en alg un momento del tiempo las
perdidas agregadas de la compa na excedan las reservas de la misma. La Teora de la Ruina
tiene como objetivo estimar (o al menos acotar) la probabilidad de que la reserva sea negativa
en en alg un tiempo determinado. De manera general, la reserva al tiempo, t, esta constituida
por capital inicial m as las primas recibidas, menos el monto correspondiente a los pagos por
reclamaciones realizados hasta ese momento, por lo que debemos denir algunos procesos
que seran de utilidad para modelar este proceso de ruina.
Algunas deniciones y resultados de utilidad
Esperanza Condicional
Antes de dar una denicion formal sobre la esperanza condicional, hagamos una introduccion
simple de este concepto.
Supongamos que X es una v.a. que denota el resultado de un experimento aleatorio.
Si no tenemos informaci on sobre el resultado del experimento, entonces, nuestra mejor
conjetura (apuesta) sobre el valor de X ser a, E(X), la esperanza o valor esperado de X.
Si conocemos el resultado del experimento, entonces conocemos el valor exacto de X.
Frecuentemente conocemos el valor de otra variable aleatoria Y que esta relacionada con
X. En este caso, la mejor predicci on del valor de X ser a la esperanza condicional E[X|Y ].
La esperanza condicional, E[X|Y ], es una nueva variable aleatoria de la forma, g(Y ), que
aproxima X, usando la informaci on sobre v.a. Y.
123
Ejemplo
Consideremos el experimento de lanzar un dado dos veces. Sean Y y Z los puntajes que
aparecen en el primero y segundo lanzamiento, respectivamente. Sabemos que
E[Y ] =
6

y=1
xP[Y = y] = 3.5, y E[Z] =
6

z=1
zP[Z = z] = 3.5
y, por independencia entre Y y Z,
E[Z|Y ] = E[Z] = 3.5
En este caso, la funci on g es constante como funci on de y, lo que implica que conocer Y no
sirve para predecir Z o no aporta informaci on sobre Z).
Ahora, consideremos la v.a. X = Y + Z . Es claro que X y Y son, ahora, variables
aleatorias dependientes. Entonces,
E[X|Y ] = E[Y + Z|Y ] = E[Y |Y ] +E[Z|Y ] = Y +E[Z] = Y + 3.5
Entonces, E[X|Y ] = Y + 3.5 = g(Y ), que es una v.a.
Ostro
Ahora supongamos que lanzamos un dado hasta obtener un seis. Sea Y el n umero total de
lanzamientos del dado, y X el n umero de unos observado. Calcular E[Y |X].
El evento Y = y 1 signica que se realizaron y 1 lanzamientos en los que no se observo
un seis, y que el seis se observ o en el lanzamiento y. Entonces, dado este evento, X tiene
una distribucion Binomial(y 1,
1
5
). Entonces
E[X|Y ] = np =
1
5
(y 1)
que es una funci on de Y .
124
Las siguientes deniciones y resultados requieren de un espacio de probabilidad. Entonces
Sea (, A, P) un espacio de probabilidad
Denici on 1 Sea X una variable aleatoria con esperanza
1
nita, y sea F una sub -
algebra de A. La esperanza condicional de X dado F , E[X|F] , es una variable aleatoria
que cumple:
Es F-medible
Tiene Esperanza nita

_
B
XdP =
_
B
E[X|F]dP B F
Usando el teorema de Radon-Nykodim puede desmostrarse que E[X|F] existe y es unica
casi seguramente.
Proposicion 1 Sean X y Y variables aleatorias con esperanza nita, F una -algebra y c
una constante, entonces
1. E[X|F] = E[X] si X es independiente a F
2. Si X 0 E[X|F] 0
3. E[cX + Y |F] = cE[X|F] +E[Y |F]
4. Si X Y E[X|F] E[Y |F]
5. E[E[X|F]] = E[X]
6. Si X es F-medible E[X|F] = X c.s.
7. Si XY es integrable
2
y X es F-medible E[XY |F] = XE[Y |F]
8. Si F
1
F
2
E[E(X|F
2
)|F
1
] = E[X|F
1
]
1
E[X] :=
_

XdP
2
Una v.a. X es integrable si E[|X|] <
125
Y c omo denimos la esperanza condicional dada una variable aleatoria, como las de la in-
troducci on, es decir, E[X|Y ]?
Denici on 2 Sea (, A, P) un espacio de probabilidad, X (, A, P), integrable, y sea
Y (, A, P) otra variable aleatoria. Se dene la esperanza condicional de X dado Y, como
E[X| (Y )]
Mas ejemplos: Jaula con tres puertas
Un prisionero est a encarcelado en una jaula que tiene tres puertas.
La puerta 1 lo lleva inmediatamente a la libertad.
La puerta 2 lo conduce a un tunel que lo regresa a la misma jaula despues de un da de
trayecto.
La puerta 3 lo lleva, tambien, a un tunel que lo regresa a la misma jaula despues de tres
das de trayecto.
La probabilidad de escoger cualquiera de las puerta es la misma: p =
1
3
.
Suponemos que si regresa a la jaula, inicia el mismo proceso de nuevo como si hubiera
olvidado sus experiencias pasadas con la elecci on de las puertas. Entonces
Cual es el valor esperado del tiempo que tardara el prisionero, hasta que este
en libertad?
Sol.
Sea X la v.a. que determina el tiempo hasta que el prisionero consiga la libertad, y Y la
v.a. que determina el n umero de la puerta elegida inicialmente. Observamos que
E[X|Y = 1] = 0
E[X|Y = 2] = 1 +E[X]
E[X|Y = 3] = 3 +E[X]
126
Ahora, utilizando la propiedad 5 de la esperanza condicional, tenemos
E[X] = E[E[X|Y ]]
=
1
3
E[X|Y = 1] +
1
3
E[X|Y = 3] +
1
3
E[X|Y = 3]
=
1
3
(0 + 1 +E[X] + 3 +E[X])
=
1
3
(4 + 2E[X])
Por lo tanto: E[X] = 4 das
Ejemplo 2
Sean X
1
, X
2
, ..., X
n
variables aleatorias i.i.d. con esperanza com un . Denimos la v.a.
S
n
= X
1
+ X
2
+ + X
n
Para m < n tenemos
E[S
n
|X
1
+ X
2
+ + X
m
] = E[X
1
+ X
2
+ + X
m
|X
1
+ X
2
+ + X
m
] +
E[X
1
+ X
2
+ + X
m
|X
m+1
+ X
m+2
+ + X
n
]
= X
1
+ X
2
+ + X
m
+E[X
m+1
+ X
m+2
+ + X
n
]
= S
m
+ (n m)
Denici on 3 Una ltracion es una coleccion de -algebras {F
n
}
n1
tal que F
m
F
n

m n
En particular, la ltraci on natural o can onica de un proceso {X
n
} es aquella sucesi on de
- algebras denidas por F
n
= {X
1
, X
2
, ..., X
n
}
F
n
contiene la informacion del proceso {X
i
}
i1
hasta el tiempo n
Denici on 4 Se dice que un proceso {X
n
} es adaptado a la ltracion {F
n
} si X
n
es F
n
-
medible
127
Denici on 5 Una variable aleatoria con valores en N {} es un tiempo de paro con
respecto a la ltracion {F
n
}
n1
si { n} F
n
n N
Equivalentemente { = n} F
n
Que se interpreta como: La ocurrencia del evento paramos el proceso al tiempo = n,
puede determinarse conociendo solo los valores de X
0
, X
1
, ..., X
n
, i.e., no se requiere conocer
los valores X
n+1
, X
n+2
, ....
Ejemplo
Supongamos que {X
n
} es una cadena de Markov que representa nuestro capital en dolares,
despues de haber jugado n veces. Podemos pensar en ganar apostando en un casino, y parar
de apostar (jugar) cuando alcancemos una suma deseada, digamos, m d olares.
El tiempo aleatorio, , en el que por primera vez acumulamos m d olares es un tiempo de paro:
{ = n} = {X
0
= m, X
1
= m, ..., X
n1
= m, X
n
= m}
Martingalas
Denici on 6 Un proceso estocastico {X
n
} es una {F
n
}-martingala si
1. X
n
es integrable n 1
2. {X
n
} esta adaptado a {F
n
}
3. E[X
n+1
|F
n
] = X
n
n 1
Implicaciones:
1. E[X
m
|F
n
] = X
n
m n
2. E[E(X
m
|F
n
)|{, }] = E[X
m
|{, }] = E[X
m
]
E[X
n
] = E[X
m
] m n
Denicion 7 Un proceso estocastico {X
n
} es una {F
n
}-submartingala si
1. X
n
es integrable n 1
128
2. {X
n
} esta adaptado a {F
n
}
3. E[X
n+1
|F
n
] X
n
n 1
Denici on 8 Un proceso estocastico {X
n
} es una {F
n
}-supermartingala si
1. X
n
es integrable n 1
2. {X
n
} esta adaptado a {F
n
}
3. E[X
n+1
|F
n
] X
n
n 1
La idea de un proceso martingala es la de aquel proceso que tiende estabilizarse en cierto
punto, a saber, su valor esperado, es decir, en promedio no crece ni decrece; en cambio una
submartingala muestra una tendencia de crecimiento; por su parte, una supermartingala
tiende a decrecer.
Ejemplos
Sean X
0
, X
1
, X
2
, ... variables aleatorias i.i.d. con esperanza com un , y
M
n
=
n

i=0
X
i
, una caminata aleatoria
ya que
E[M
n+1
|M
0
, M
1
, ..., M
n
] = E[M
n
+ X
n+1
|M
0
, M
1
, ..., M
n
]
= E[M
n
|M
0
, M
1
, ..., M
n
] +E[X
n+1
|M
0
, M
1
, ..., M
n
]
= M
n
+E[X
n+1
]
Entonces, {M
n
, n 0} es una Martingala si E[X
i
] = 0; es una Supermartingala si E[X
i
] < 0
y es una Submartingala si E[X
i
] > 0.
Ejemplo 2
Sean X
0
, X
1
, X
2
, ... variables aleatorias i.i.d. con esperanza com un , y
M
n
=
n

i=0
X
i
129
ya que
E[M
n+1
|M
0
, M
1
, ..., M
n
] = E[M
n
X
n+1
|M
0
, M
1
, ..., M
n
]
= M
n
E[X
n+1
|M
0
, M
1
, ..., M
n
]
= M
n
E[X
n+1
]
Entonces, {M
n
, n 0} es una Martingala si E[X
i
] = 1; es una Supermartingala si E[X
i
] < 1
y es una Submartingala si E[X
i
] > 1.
Ejemplo 3
Sean X
0
, X
1
, X
2
, ... variables aleatorias i.i.d. con esperanza com un , y
M
n
=
1

n
n

i=0
X
i
=
1

X
n
M
n1
Entonces, {M
n
, n 0} es una martingala.
Dado que
E[M
n+1
|M
0
, M
1
, ..., M
n
] = E
_
M
n

X
n+1

|M
0
, M
1
, ..., M
n
_
=
M
n

E[X
n+1
|M
0
, M
1
, ..., M
n
]
=
M
n

E[X
n+1
]
=
M
n

= M
n
Proposicion 2 Un proceso estocastico {X
n
} es una martingala si {X
n
} es submartingala
y supermartingala
Teorema 1 Teorema de Paro Opcional (TPO)
Sea {X
n
} una {F
n
}-martingala y un {F
n
}-tiempo de paro acotado
E[X

] = E[X
n
] n 1
130
Demostracion. Como es acotado entonces n
0
N tal que n
0
por lo que
E[X

] = E
_
n
0

n=1
1
{=n}
X
n
_
=
n
0

n=1
E
_
1
{=n}
X
n

=
n
0

n=1
E
_
E(X
n
0
|F
n
)1
{=n}

ya que {X
n
} es martingala
=
n
0

n=1
E
_
E(1
{=n}
X
n
0
|F
n
)

pues 1
{=n}
es F
n
medible
=
n
0

n=1
E
_
X
n
0
1
{=n}

= E[X
n
0
]

Teorema 2 Teorema de Paro Opcional (TPO1)


Sea {X
n
} una martingala y un tiempo de paro nito casi seguramente tal que
1. E[|X

|] <
2. lim
n
E
_
X
n
1
{>n}

= 0
E[X

] = E[X
n
] n 1
Demostracion. Denamos
n
= min{, n} n tiempo de paro, entonces por el TPO
tenemos
E[X
n
] = E[X
1
]
E[X
1
] = lim
n
E[X
n
]
= lim
n
(E[X
n
1
{n}
] +E[X
n
1
{>n}
])
pero X
n
= X

+ (X
n
X

)1
{>n}
, entonces
E[X
1
] = lim
n
(E[X

1
{n}
] +E[X
n
1
{>n}
])
= lim
n
E[X

1
{n}
]
131
Ahora, notese que |X

1
{n}
| |X

| n E[|X

1
{n}
|] E[|X

|] <
adem as, por ser < casi seguramente, se tiene que lim
n
X

1
{n}
= X

, entonces por
el teo. de convergencia dominada lim
n
E[X

1
{n}
] = E[X

]
E[X

] = E[X
n
] n 1

Teorema 3 Teorema de Paro Opcional (TPO2).


Sea {X
n
} una martingala y un tiempo de paro tales que
1. E[] <
2. E[|X
n+1
X
n
||F
n
] c para alguna c R
E[X

] = E[X
n
] n 1
Demostracion. Denamos Z
1
= |X
1
| , Z
n+1
= |X
n+1
X
n
| n 1
N otese que X

= X
1
+ (X
2
X
1
) + (X
3
X
2
) + ... + (X

X
1
)
|X

| W :=

k=1
Z
k
=

k=1
Z
k
1
{k}
Adem as,
E[W] = E[|X
1
|] +

k=2
E[Z
k
1
{k}
]
= E[|X
1
|] +

k=2
E[E(Z
k
1
{k}
|F
k1
)]
Observe que si A F 1
A
es F-medible
132
Como { k 1} F
k1
{ > k 1} = { k} F
k1
, entonces
E[W] = E[|X
1
|] +

k=2
E[1
{k}
E(Z
k
|F
k1
)]
E[|X
1
|] +

k=2
cP( k)
= E[|X
1
|] + c

k=0
P( k) 2
= E[|X
1
|] + c(

k=0
P( = k) +P( > k)) 2
= E[|X
1
|] + c(1 +E[]) 2 <
E[|X

|] E[W] < ...()


Ahora para k N jo tenemos
E[X
k
1
{>k}
] |E[X
k
1
{>k}
]|
E[|X
k
|1
{>k}
] por la desigualdad de Jensen
E[|X
k
|1
{k}
]
E[W1
{k}
] 0 cuando k ...()
As, () y () permiten utilizar el TPO1, y nalmente E[X

] = E[X
n
] n

Teorema 4 Teorema de Wald.


Consideremos la caminata aletoria {S
n
}
nN
, S
n
=

n
k=1
X
K
, donde {X
k
} son variables
aleatorias independientes e identicamente distribuidas tales que E[|X
k
|] < k. Sea F
n
=
{X
1
, ..., X
n
}. Si es un {F
n
}-tiempo de paro tal que E[] <
E[S

] = E[]E[X]
Demostraci on. Considere el proceso {Y
n
}
nN
dado por Y
n
= S
n
nE[X].
Se puede demostrar f acilmente que {Y
n
} es una {F
n
}-martingala.
133
Observese que
E[ |Y
n+1
Y
n
| |F
n
] = E[ |X
n+1
E[X]| |F
n
]
E[ |X
n+1
| |F
n
] +E[E[ |X|] |F
n
]
E[ |X| ] +E[ |X| ]
= 2E[ |X| ] <
Entonces por el TPO2 tenemos que
E[Y

] = E[Y
1
] = E[ S
1
E[X] ] = E[X] E[X] = 0
Por otro lado,
E[Y

] = E[ S

E[X] ] = E[S

] E[]E[X]
E[S

] = E[]E[X]
134
Procesos asociados a la teora de ruina
Hasta aqu hemos visto al modelo de perdidas agregadas
S =
N

i=1
X
i
durante un periodo jo de tiempo, e.g., un a no.
Ahora haremos la extensi on para tratarlo como dependiente del tiempo. Es decir
S(t) =
N(t)

i=1
X
i
donde N(t) denota el n umero de reclamaciones que ocurren antes del tiempo, t.
Utilizaremos este modelo dependiente del tiempo para describir el ujo de dinero de una
aseguradora, y determinar caractersticas de la probabilidad de ruina, tanto a corto como a
largo plazo.
Notacion
Denotaremos por
N(t): El n umero aleatorio de reclamaciones generadas por un portafolio en el intervalo de
tiempo [0, t], t 0.
X
i
: el momto de la i-esima reclamaci on, i=1,2,3,....
S(t): El monto de las reclamaciones agregadas en el intervalo [0, t], t 0.
Entonces
{X
i
}

i=1
es una sucesi on de variables aleatorias.
{N(t)}
t0
es un proceso estocastico
135
{S(t)}
t0
es un proceso estocastico
Es obvio que
S(t) =
N(t)

i=1
X
i
con S(t) = 0 si N(t) = 0.
Al proceso estoc astico {S(t)}
t0
denido anteriormente, se le conoce como el proceso de
perdidas agregadas generadas por el riesgo cubierto.
La aseguradora recibe de sus asegurados, el pago de primas correspondientes a la covertura
del portafolio.
Supondremos que estos pagos se reciben a una tasa constante de forma continua. Sea c > 0
esta tasa de pagos por unidad de tiempo. Ya que el total de primas se recibe en el intervalo
de tiempo [0, t], entonces, este total es ct.
Supongamos que al tiempo, t = 0, la aseguradora tiene un capital inicial respecto al
portafolio. Este cantidad inicial de dinero es el capital inicial y lo denotaremos como U.
Asumiremos que U 0.
La aseguradora necesita este capital inicial, porque el ingreso futuro por primas, podra no
ser suciente para cubrir las reclamaciones futuras.
El capital de la aseguradora a cualquier tiempo, t > 0, es una variable aleatoria, ya que
su valor depende de las reclamaciones que se realicen hasta este tiempo. Denotaremos este
capital por U(t)
Entonces, podemos escribir
U(t) = U + ct
N(t)

i=1
X
i
, o
U(t) = U +ct S(t)
con U(0) = U.
136
N otese que el capital inicial y el monto total de las primas, no son variables aleatorias, ya
que se determinan antes de que el proceso de riesgo inicie.
Para un valor dado de t, U(t) es una variable aleatoria, ya que S(t) lo es.
El proceso estoc astico
{U(t)}
t0
se conoce como el proceso de ujo de dinero o proceso de capital.
La probabilidad de ruina a tiempo continuo
De manera vaga, cuando el capital es negativo, la aseguradora ha perdido todo su dinero
y se dice que esta en ruina o arruinada.
Nuevamente de forma vaga, la ruina puede ocurrir cuando la aseguradora se declara insol-
vente, no obstante, determinar si una compa na de seguros es insolvente es, en la pr actica,
una cuestion muy compleja.
Otra manera de ver esta probabilidad de ruina, es pensarla como la posibilidad de que,
en alg un tiempo futuro, la compa na aseguradora requiera prover m as capital para nanciar
este particular portafolio.
Probabilidades de ruina
Denimos las siguientes dos probabilidades
(U) = P[U(t) < 0, 0 < t < ] y
(U, t) = P[U() < 0, 0 < < t]
(U) se le conoce como la probabilidad de ruina eventual (horizonte innito), dado el
capital inicial, U. Se denota como funci on de U, para hacer enfasis de que dicha probabilidad
depende, entre otros par ametros, del capital inicial del que se disponga.
(U, t) es la probabilidad de ruina antes del tiempo, t (horizonte nito), dado el capital
inicial, U.
137
Algunas relaciones simples y logicas
Enunciamos algunas importantes relaciones logicas entre estas dos probabilidades. Sean
0 < t
1
< t
2
< y U
1
< U
2
, entonces
1. (U
2
, t) (U
1
, t)
(U
2
) (U
1
)
Es decir, a un capital inicial mayor, es menos creible que la ruina ocurra ya sea en
horizonte nito o innito.
2. (U, t
1
) (U, t
2
) (U)
Dado un capital inicial, al prolongar el periodo de tiempo para observar la ruina, es
m as creible que esta ocurra.
3. lim
t
(U, t) = (U)
La probabilidad de ruina a horizonte innito, puede ser aproximada (es similar) a la
probabilidad de ruina a horizonte nito, si t es sucientemente grande.
4. lim
U
(U, t) = 0
Cuando el capital inicial crece, la ruina es cada vez menos creible.
Probabilidades de ruina en tiempo discreto
Las probabilidades de ruina anteriores, son probabilidades de ruina a tiempo continuo, lla-
madas as porque hay un seguimiento continuo de la posibilidad de ruina de la aseguradora.
En la pr actica puede ser posible, y aun deseable, hacer el seguimiento de ruina solo a
intervalos discretos de tiempo.
Supongamos que los intervalos son de longitud h. Entonces, denimos las siguientes prob-
abilidades de ruina a tiempo discreto
138

h
(U) = P[U(t) < 0, t = h, 2h, 3h, ...], y

h
(U, t) = P[U() < 0, = h, 2h, 3h, ..., t h, t]
N otese que se supone, por conveniencia en la denicion de
h
(U, t), que t es un entero
m ultiplo de h.
El proceso Poisson
Dada la dependencia del modelo de Camer-Lundberg (que enunciaremos posteriormente) del
proceso Poisson, lo deniremos en seguida.
Def. 1: Un proceso estoc astico, {X(t), t 0}, a tiempo continuo, se dice que es de incre-
mentos independientes si para cada t
0
< t
1
< < t
n
, con t
0
, t
1
, ..., t
n
T se tiene que
X(t
1
) X(t
0
), X(t
2
) X(t
1
), ..., X(t
n
) X(t
n1
)
son variables aleatorias independientes.
Def. 2: Un proceso estocastico, {X(t), t 0}, a tiempo continuo, es de incrementos esta-
cionarios si la distribuci on, dado t T, de
X(t +s) X(t)
es la misma s T.
En un proceso con incrementos estacionarios, cambios en el proceso de igual tama no son
iguales en distribucion.
Def. 3: Un proceso estoc astico a tiempo continuo, {N(t), t 0}, se dice puntual o de con-
teo, si N(t) representa el n umero de veces que ocurre un suceso hasta el instante de tiempo, t.
En particular
N(t) N, t T
N(s) N(t), si s < t (Los incrementos son no negativos)
139
Por lo tanto, un proceso de conteo es de incrementos independientes si el n umero de sucesos
en intervalos de tiempo que no se traslapan son variables aleatorias independientes.
Y es de incrementos estacionarios, si el n umero de sucesos en un intervalo de tiempo es el
mismo en intervalos de igual longitud.
Un uso muy frecuente de la distribuci on de Poisson surge en situaciones en las que los
eventos ocurren a lo largo del tiempo, por ejemplo: ocurrencia de terremotos, personas que
ingresan a un banco, llegadas a un servidor, emisiones de partculas por una fuente radiac-
tiva, etc.
Def. 4: Un proceso de conteo {N(t), t 0}, se dice de Poisson (homogeneo), con tasa de
intesidad, , si
N(0) = 0
Es de incrementos independientes

P(N(t +s) N(s) = n) =


(t)
n
e
t
n!
, n N, s, t > 0
De la denici on es claro que el proceso es de incrementos estacionarios, y los incremen-
tos siguen una distribucion Poisson de par ametro t para intervalos de tiempo de longitud, t.
El n umero promedio de eventos hasta el instante, t, es
E[N(t)] = E[N(t + 0) N(0)] = t
V[N(t)] = t
Para cualquier intervalo de longitud, t, se tiene
E[N(s +t) N(s)] = E[N(t)] = t
140
q
q q q
q
q
q
q
q
q q q q q q
q q q
q
q
q
q q
q
q q
q q
q q
q
q
q
q
q
q
q
q
q q q q
q
q
q
q
q
q
q q
q
q
q
q q
q q
q q q
q
q
q q q
q
q
q q q
q
q q q q
q
q
q
q q
q q q
q q
q
q
q
q
q q
q q
q
0 20 40 60 80
0
5
1
0
1
5
2
0
2
5
3
0
Trayectoria: Proceso Poisson
t
N
(
t
)
141
Proceso de Poisson no homogeneo (o no estacionario). En muchas situaciones es mas realista
suponer que hay m as incidencias a ciertas horas (o en ciertos intervalos) que a otras. Para
modelar esta situaci on, es conveniente la siguiente generalizaci on del Proceso Poisson.
Def. 5: Decimos que {N(t), t 0}, es un Proceso Poisson no homogeneo, con tasa de in-
tesidad, t, si
N(0) = 0
Es de incrementos independientes

P(N(t +s) N(s) = n) =


_
t+s
s
(x)dx, s 0, t > 0
En otras palabras, para cada s 0 y t > 0 se tiene que N(t + s) N(s) es una variable
aleatoria Poisson con media
m(t + s) m(t) =
_
t+s
s
(x)dx
N(t) tiene distribuci on Poisson con esperanza
m(t) =
_
t
0
(x)dx
Si t = (constante), entonces N(t + s) N(s) es una variable aleatoria Poisson con
media t.
142
El modelo clasico de Camer-Lundberg
El modelo de Cramer-Lundberg, tiene sus orgenes en la tesis doctoral de Filip Lundberg
que defendi o en el a no de 1903. En este trabajo, Lundberg analiza el reaseguro de riesgos
colectivos y presenta el proceso de Poisson compuesto. Lundberg utiliz o terminos un tanto
distintos a los actuales pues en aquellos a nos a un no se haba formalizado la teora de los
procesos estoc asticos como la entendemos actualmente. En 1930, Harald Cramer retoma
las ideas originales de Lundberg, y las pone en el contexto de los procesos estocasticos, en
ese entonces, de reciente creacion. El modelo se ha estudiado de manera extensa, y se han
propuesto varias formas de generalizarlo y analizado.
Este modelo cl asico de riesgo para la actividad de una compa na de seguros, es el proceso
estocastico a tiempo continuo {U(t), t 0}, denido por
U(t) = U +ct
N(t)

t=1
X
i
, t 0
con U el capital inicial de la compa na aseguradora, ct es el ingreso por primas hasta
el tiempo, t, con c una constante positiva; X
i
es el monto de la i-esima reclamaci on, y
{N(t), t 0} un proceso Poisson de parametro, .
La variable U(t) representa el balance m as simple de ingresos menos egresos de una compa na
aseguradora. Al proceso, {U(t), t 0}, se le llama proceso de riesgo (risk process), o pro-
ceso de super avit (surplus process), y tiene trayectorias como se muestra en la siguiente gura
143
2 4 6 8 10

2
0
0
2
0
4
0
6
0
Trayectoria del proceso de ruina
tiempo
U
(
t
)

Algunas caractersticas del proceso de riesgo


Las trayectorias del proceso empiezan siempre en U el capital inicial.
Las variables aleatorias X
i
, i = 1, 2, ... son i.i.d., con funci on generadora de momentos
M
X
(t)
E(U(t)), es
E(U(t)) = E
_
U(t) = U + ct

N(t)
t=1
X
i
_
=
..

U +ct t = U + (c ) t
* ya que
N(t)

t=1
X
i
es un Poisson compuesto, con intensidad t.
V(U(t)) =
2
t Por el mismo argumento anterior.
La trayectoria promedio de este proceso de riesgo es la lnea recta que inicia en U > 0 y
tiene pendiente c , que es positiva por la condici on o hip otesis de ganancia neta (enun-
144
ciada posteriormente). La variable aleatoria U(t) puede interpretarse como el capital de
la compa na aseguradora al tiempo, t, y por razones naturales y legales es importante que
U(t) este por arriba de cierto nivel mnimo. Supongamos que tal nivel mnimo es a, con
0 < a < U. Ajustando el capital inicial, U, esto es, suponiendo un nuevo capital inicial de
magnitud U a, se puede suponer, sin perdida de generalidad, que este nivel mnimo es cero,
y as lo haremos en nuestro an alisis. De esta forma cuando U(t) 0 para alg un t > 0 se dice
que hay ruina. La ruina casi nunca sucede en la practica, es solamente un termino tecnico
que produce alguna toma de decision. Por ejemplo, si el capital de una compa na aseguradora
asignado a una cartera decrece en forma signicativa, autom aticamente la aseguradora puede
tomar ciertas medidas para subsanar esta situacion y no se trata de un evento insalvable.
Por otro lado es natural suponer que la compa na aseguradora posea varios portafolios de
modo que ruina en uno de ellos no signica necesariamente bancarrota que el termino ruina
podra sugerir.
La condicion de ganancia neta
Sean T
0
, T
1
, T
2
, ... los tiempos aleatorios en donde la aseguradora recibe las reclamaciones.
Supondremos T
0
= 0. Para cada entero k 1 denamos la variable aleatoria Y
k
=
c (T
k
T
k1
) X
k
, que pueden interpretarse como el balance de la compa na aseguradora
entre dos siniestros sucesivos. La esperanza de esta variable es
E(Y
k
) = cE(T
k
T
k1
) E(X
k
) = c
_
1

Se puede demostrar que la ruina ocurre casi seguramente si, y solo si, E(Y
k
) 0. Como no
deseamos que la ruina ocurra, debemos suponer que E(Y
k
) > 0, es decir, supondremos que
se tiene la condicion de ganancia neta
c >
Que interpretamos de la siguiente forma: en promedio, la entrada por primas por unidad de
tiempo, c, es mayor que el total de reclamaciones por unidad de tiempo, .
145
Probabilidades de ruina con el modelo Carmer-Lundberg
Nos interesa calcular o estimar la probabilidad de una eventual ruina (horizonte innito) en
el modelo de Cramer-Lundberg.
Denamos el tiempo de ruina, , como el primer momento en que la ruina se presenta, es deir
= inf {t > 0 : U(t) 0}
y se dene inf = . Por lo que es una variable aleatoria que toma valores en el intervalo
(0, ]. Recordemos que, dado un valor, t > 0 jo, habamos denido la probabilidad de
ruina en el intervalo (0, t], llamada probabilidad de ruina a horizonte nito, como
(U, t) = P( t|U(0) = U)
Y esta misma probabilidad de ruina a horizonte innito, como
(U) = P( < |U(0) = U)
Probabilidad de ruina a horizonte innito
Ahora presentaremos tres resultados generales sobre la probabilidad de ruina con horizonte
innito. Denotaremos como F(y) a la funci on de distribuci on de cualquiera de las reclama-
ciones, Y, y funcion de supervivencia como

F(y) = 1 F(y). La correspondiente funci on de
densidad sera denotada por f(y), siempre que exista.
Proposicion. Sea

(U) = 1 (U). Supongamos que la distribiuci on de cualquier recla-
maci on en el modelo de Cramer-Lundberg es absolutamente continua, con funcion de densi-
dad f(y). Entonces
1.-
d
dU

(U) =

c
_

(U)
_
U
0

(U y) f(y)dy
_
2.- (0) =

c
146
3.- (U) =

c
__

U

F(y) +
_
U
0
(U y)

F(y)dy
_
Dem.
Demostracion. Para hacer la demostraci on del punto 1, condicionaremos al monto de la
primera reclamaci on Y
1
y el momento T
1
en el que ella ocurre. Usaremos adem as el hecho
de que T
1
tiene distribuci on exp(), ya que es el tiempo que ocurre antes de la primer recla-
maci on, que, en este modelo de Cramer-Lundberg, tiene distribucion Poisson. Entonces

(U) = P(No ruina en (0, )|U(0) = U)


=
_

0
_

0
P(No ruina en (0, )|U(0) = U, Y
1
= y, T
1
= t) f(y)f
T
1
(t)dydt
=
..

_

0
_
U+ct
0
P(No ruina en (0, )|U(0) = U, Y
1
= y, T
1
= t) f(y)f
T
1
(t)dydt
=
_

0
e
y
_
U+ct
0
P(No ruina en (0, )|U(0) = U, Y
1
= y, T
1
= t) f(y)dydt
=
..

_

0
e
y
_
U+ct
0

(U +ct y) f(y)dydt
* Ya que si no hay ruina para Y = Y
1
, entonces (U) 0 U +ct Y
1
0 Y
1
U +ct
** Ya que, por el punto * este es un valor de U, tal que (U), y la ruina no se presenta. Si
hacemos el cambio de variable: s = U+ct, que implica t = (s U) /c y ds = cdt, tenemos que

(U) =

c
e
U/c
_

U
e
s/c
_
s
0

(s y) dyds
Derivando esta expresi on respecto a U, utilizando el teorema fundamental del calculo, obten-
emos la relaci on deseada.
147
Para derivar el segundo inciso, integramos en el intervalo [0, U], la expresion en 1. Y obten-
emos
_
U
0
d
ds

(s) =

(U)

(0) =

c
__
U
0

(x)
_
U
0
_
x
0

(x y) dF(y)dx
_
=

c
__
U
0

(x)
_
U
0
_
U
y

(x y) dxdF(y)
_
(x y > 0 x > y)
=
..

c
__
U
0

(x)
_
U
0
_
Uy
0

(x) dxdF(y)
_
=

c
__
U
0

(x)
_
U
0
_
Ux
0

(x) dF(y)dx
_
=

c
__
U
0

(x)
_
U
0

(x) [F(y)]
Ux
0
dx
=

c
_
U
0

(x) [1 F(U x)] dx


=

c
_
U
0

(x)

F(U x)dx
=

c
_
U
0

(U x)

F(x)dx (1)
=

c
_
U
0

(U x)

F(x)1
[0,U]
(x)dx
* Ya que si x=y, entonces, el lmite inferior de la integral es cero y si x=U, el lmite superior
es u-y.
Ahora, solo resta tomar lmite cuando U . En el lado derecho de la igualdad tenemos
lim
U
_

(U)

(0)
_
= 1

(0) (Ya que si U entonces la ruina ocurre con proba-
bilidad uno). En el lado izquierdo ocurre que

(U x) es una funci on monotona creciente
que converge a uno, entonces, esta integral converge a la integral
_

0

F(x)dx =
_

0
[1 F(x)] dx
148
Y recordando que
E(X) =
_

0

F(x)dx =
_

0
[1 F(x)] dx =
Finalmente tenemos que
1

(0) =

c
por lo que
(0) = 1

(0) =

c
(2)
Para probar el ultimo inciso, usaremos los resultados (1) y (2), de la siguiente forma
Primero tenemos que

c
_
U
0

(U x)

F(x)dx =

(U)

(0)
= 1 (U)

(0)
=
..
2

c
(U)
Entonces
149
(U) =
..
1

c
_

_
U
0

(U x)

F(x)dx
_
=

c
_

_
U
0
(1 (U x))

F(x)dx
_
=

c
_

_
U
0

F(x)dx +
_
U
0
(U x)

F(x)dx
_
=

c
__

0

F(x)dx
_
U
0

F(x)dx +
_
U
0
(U x)

F(x)dx
_
=

c
__

U

F(x)dx +
_
U
0
(U x)

F(x)dx
_
Observese que la ultima expresion corresponde a una forma recursiva para encontrar la
probabilidad de ruina. En general no es f acil resolver este tipo de ecuaciones, de modo que
unicamente nos limitaremos a encontrar algunas estimaciones de las mismas. Sin embargo,
cuando las reclamaciones tienen distribucion exponencial el sistema es soluble como se mues-
tra a continuacion.
Ejercicio Encontraremos la probabilidad de ruina, en el modelo de Camer-Lundberg, cuando
las reclamaciones son exponenciales().
En este caso, sabemos que E(X) =
1

. Entonces, la probabilidad de no ruina es

(u) =

c
_

(u) e
u
_
u
0

(y)e
y
dy
_
Entonces, derivando esta expresion obtenemos la ecuacion diferencial

(u) =
_

c

_

(u)
cuya soluci on es
(u) = a +be
(/c)u
150
Utilizando las condiciones iniciales (0) =

c
y () = 0, se tiene que a = 1 y b =

c
.
Por lo que la solucion queda como
(u) =

c
e
(/c)u
cuya gr aca se encuentra en la siguiente gura. Observe que debido a la condici on de ganan-
cia neta, el exponente
_


c
_
es negativo, y por lo tanto la probabilidad de ruina decae
a cero exponencialmente cuando el capital inicial, U, crece a innito.
0.0 0.2 0.4 0.6 0.8 1.0
0
2
4
6
8
1
0
Grfica probabilidad de ruina exponencial
u
c
(u)
Coeciente de ajuste
Una aproximaci on para la probabilidad de ruina bajo el estudio de un horizonte innito, es
la que proporciona el coeciente de ajuste de Lundberg. Se trata de un instrumento util para
conseguir lmites para la probabilidad de ruina. Para eso es preciso denir previamente el
Coeciente de Ajuste. Denamos primero la funcion
151
(r) = (M
Y
(r) 1) cr
con M
Y
(r) la funcion generadora de momento de Y . Por supuesto, esta funci on esta denida
para los valores de r en donde M
Y
(r) existe. Entonces, suponiendo que esta funci on es
diferenciable, tenemos que

(r) = M

Y
(r) c

(r) = M

Y
(r) = E
_
Y
2
e
rY
_
> 0
Por lo tanto, es una funcion estrictamente convexa, con (0) = 0. Y por la condici on de
ganancia neta, (c > ), se tiene que

(0) = M
Y
(0) c = c < 0. Entonces, es posible que exista un valor R > 0 tal que
(R) = 0. Observese la siguiente gura
0.0 0.5 1.0 1.5 2.0 2.5 3.0

2
0
2
4
6
Grfica coeficiente de ajuste
r

(
r
)
152
Def. A la posible soluci on, R > 0, de la siguiente ecuacion se le llama coeciente de ajuste,
o exponente de Lundberg.
(R) = (M
Y
(R) 1) cr = 0
Observese que la existencia del coeciente de ajuste depende totalmente de la distribuci on
de las reclamaciones. Aquellas distribuciones para las que el coeciente de ajuste existe se
les llama distribuciones con colas ligeras, y la raz on de ello es que la funci on de densidad
decae a cero exponencialmente, asignando probabilidades peque nas a reclamaciones grandes.
Este hecho signica que la distribuci on tiene momentos nitos, y M
Y
existe. Por ejemplo,
demostraremos a continuaci on que en el caso de reclamaciones exponenciales (distribuci on
con colas ligeras), el coeciente de ajuste existe y es f acil calcularlo.
Ejemplo. Montos de reclamacion con distribucion exponencial. Supongamos que
Y
i
Exp (), con funci on generadora de momentos dada por M
Y
(r) =

r
, r < . En-
tonces
(r) = (M
Y
(r) 1) cr
=
_

r
1
_
cr
=
_
r
r
_
cr
=
_

r
c
_
r
Por lo que (r) = 0 r = 0, o

r
c = 0. Esta segunda ecuacion implica
R = r =

c
M as a un, recordando el resultado que obtuvimos al calcular la probabilidad de ruina cuando
los montos de reclamaci on eran exponenciales, esta probabilidad de ruina puede escribirse
de la siguiente forma
153
(u) =

c
e
(/c)u
=

c
e
Ru
e
Ru
La desigualdad es consecuencia de la condici on de ganancia neta.
c > , en este caso c >
1

c > y

c
< 1
Este tipo de cota superior para la probabilidad de ruina (llamada desigualdad de Lundberg)
la demostremos m as adelante, para cualquier distribuci on de las reclamaciones para la que
el coeciente de ajuste exista.
Ostro ejemplo (Reclamaciones con distribucion gamma). Supongamos que las reclama-
ciones se distribuyen gamma(, ) con = 2. Con funci on generadora de momentos
M
Y
(r) =
_

r
_

, r <
Por lo que
(r) =
__

r
_

1
_
cr
El requerimiento (r) = 0, genera la ecuacion cuadr atica
cr
2
+r ( 2c) + (c
2
2) = 0
cuyas races, son
r =
2c

2
+ 4c
2c
El caso con raz cuadrada positiva no es valido pues resulta r > . En efecto, utilizando la
condici on de ganancia neta, c >
2

, tenemos
154
2c +

2
+ 4c
2c

2c +

2
+ 8
2
2c
= +

c
>
por lo que la raz con el signo negativo es el coeciente de ajuste.
Ejemplo (Reclamaciones con distribucion gamma) En el ejemplo anterior, el hecho de asig-
narle al par ametro de la distribuci on gamma, el valor dos, fue premeditado para obtener
una ecuaci on de segundo grado, si asignamos el valor de = 3, obtenemos la ecuacion c ubica
f(r) =
_

3
( r)
3
_
cr ( r)
3
= 0
La raz, r, que buscamos es tal que por condiciones de existencia de la funcion generadora
de momentos debe satisfacer 0 < r < . Para ilustrar el c alculo con R de la solucion de esta
ecuaci on, tomaremos = 3, = 1 y c=2. Estos valores aseguran que se cumple la condici on
de ganancia neta: c >
3

.
155
0 1 2 3 4 5

2
0
0
2
0
4
0
6
0
8
0
1
0
0
Grfica coeficiente de ajuste gamma
r

(
r
)
R
f < function(x)(9 (3 x)
3
) 2 x (3 x)
3
uniroot(f, c(0, 10))
root [1]1.737766
f.root [1] 0.000450224
iter [1]10
estim.prec [1]6.103516e 05
El siguiente resultado proporciona una forma equivalente de denir el coeciente de ajuste,
permite, adem as, comprobar su existencia a traves de la determinaci on del car acter nito de
una integral, y posibilita dar una interpretaci on de aquellas distribuciones de probabilidad
para las cuales el coeciente de ajuste existe.
Proposicion. La ecuacion (r) = (M
X
(r) 1) cr = 0 tiene una posible solucion r > 0 si,
y solo si, se cumple la identidad
156
_

0
e
rx

F(x)dx =
c

con

F = 1 F(x), y F(x), la funci on de distribuci on de los montos de reclamacion.
Dem
Recordemos que la funci on generador de momentos de una v.a. X, se dene como
M
X
(r) =
_

0
e
rx
f(x)dx =
_

0
e
rx
dF(x)dx =
_

0
e
rx
d

F(x)dx
Integrando por partes la ultima expresi on en la funci on generadora de momentos
Sea u = e
rx
du = re
rx
dx y dv = d

F(x) V =

F(x). Por lo que
_

0
e
rx
dF(x)dx =
_
e
rx

F(x)|

0

_

0
re
rx

F(x)dx
_
Ya que por hip otesis la funci on generadora de momentos existe, entonces e
rx

F(x)|

= 0 y
e
rx

F(x)|
0
= 1 (esto implica que el decaimiento en las colas de la distribucion de F(x), es
mayor al crecimiento de e
rx
). Entonces
_

0
e
rx
dF(x)dx =
_
1
_

0
re
rx

F(x)dx
_
Por lo tanto
_

0
e
rx
dF(x)dx = 1 +
_

0
re
rx

F(x)dx
Ahora, ya que
157
0 = (r)
= (M
X
(r) 1) cr
=
__

0
e
rx
dF(x)dx 1
_
cr
= r
_

0
e
rx
d

F(x)dx cr (despejando del resultado anterior)


Entonces, despejando esta ultima igualdad, tenemos
_

0
e
rx
d

F(x)dx =
c

Ejemplo Usaremos este criterio para demostrar que para la distribucion Weibull existe el
coeciente de ajuste, si el par ametro de forma, 1. En este caso tenemos que
f(x, , ) = (t)
1
e
(t)


F = e
(t)

Entonces
_

0
e
rx
d

F(x)dx =
_

0
e
rx
e
(x)

dx
=
_

0
e
rx(x)

dx
Esta integral existe si rx (x)

0 rx (x)

x x

1.
Ejemplo 2. Veamos que pasa con la distribucion Burr y este coeciente. Esta variable tiene
funci on de distribuci on dada por
F(x) = 1
_
k
k + x

, x 0, > 0, > 0
158
Por lo que

F(x) =
_
k
k + x

. Entonces
_

0
e
rx
d

F(x)dx =
_

0
e
rx
_
k
k +x

dx

_

0
e
rx
x

dx =
Por lo tanto la distribuci on Burr es una distribucion con colas pesadas.
Comentamos en el desarrollo de este coeciente de ajuste que, para que exista, la cola de la
distribuci on, F, debe decaer a cero lo sucientemente r apido para anular el comportamiento
creciente del termino, e
rx
dentro de la integral. En el ejemplo de la distribucion Burr, la cola
decae a cero en la forma, x

que resulta insuciente para hacer que la integral sea nita.


Una distribuci on con cola ligera asigna probabilidades muy peque nas a los valores grandes de
la variable aleatoria. Esto puede representar un inconveniente para modelar algunos riesgos
que pudieran registrar grandes montos en las reclamaciones.
Desigualdad de Lundberg
Vamos a demostrar ahora que para aquellas distribuiones para las cuales el coeciente de
ajuste, R, existe se cumple la desigualdad (u) < e
Ru
. Para demostrar este resultado
haremos uso de la teora de martingalas.
Proposicion. Sea {U(t)} el proceso de riesgo, y sea (r) = (M
X
(r) 1) cr. Entonces, el
proceso
_
e
rU(t)(r)t
: t 0
_
es una martingala.
Utilizaremos la denicion, equivalente a la que dimos antes, de martingala siguiente
Def. Un proceso {M
t
: t 0} que es adaptado e integrable es una martingala si para
0 s t, se cumple que
E(M
t
|F
s
) = M
s
con F
s
una ltracion.
159
Dem. Que el proceso es adaptable es claro pues, implcitamente, estamos usando la ltraci on
natural, F
t
= {X
s
: 0 s t}.
Para demostrar que es integrable, consideremos los siguientes c alculos
E
_
e
rU(t)(r)t
_
= e
(r)t
E
_
e
r

u+ct

N(t)
j=1
Y
j

_
= e
(r)tr(u+ct)
E
_
e
r

N(t)
j=1
Y
j
_
= e
(r)tr(u+ct)
M
S(t)
(r)
= e
(r)tr(u+ct)
e
t(M
Y
(r)1)
<
..

* Ya que (r)t = t (M
Y
(r) 1) +crt. Entonces, el exponente de la funci on exponencial
es
t (M
Y
(r) 1) + crt ru crt +t (M
Y
(r) 1) = ru
Y para demostrar que se cumple la propiedad de martingala: E(M
t
|F
s
) = M
s
. Para 0
s < t
E
_
e
rU(t)(r)t
|F
s
_
= e
(r)t
E
_
e
rU(t)
|F
s
_
= e
(r)t
E
_
e
r(U(t)U(s))rU(s)
|F
s
_
= e
(r)trU(s)
E
_
e
r(U(t)U(s))
|F
s
_
= e
(r)trU(s)
E
_
e
r(c(ts)

N(t)
j=N(s)+1
Y
j
)
|F
s
_
= e
(r)trU(s)rc(ts)
E
_
e
r

N(t)
j=N(s)+1
Y
j
|F
s
_
= e
(r)trU(s)rc(ts)
E
_
e
r

N(ts)
j=1
Y
j
|F
s
_
= e
(r)trU(s)rc(ts)
e
(ts)(M
Y
(r)1)
= e
rU(s)(r)s
= M
s
160
En particular, si el coeciente de ajuste existe, es decir, si (R) = 0, entonces el proceso,
_
e
RU(t)
_
es una martingala. Este es el resultado clave para demostrar la siguiente cota
superior para la probabilidad de ruina.
Desigualdad de Lundberg. Suponga que el coeciente de ajuste R existe. Entonces
(u) e
Ru
Dem. Sea el tiempo de paro correspondiente al tiempo (momento) de ruina. Como el
proceso
_
e
RU(t)
_
es una martingala, se tiene que el proceso
_
e
RU(t)
_
tambien es una
martingala, que inicia en e
Ru
, ya que U(t) = u + ct
N(t)

j=1
Y
j
U(0) = u entonces el
proceso,
_
e
RU(t)
_
, inicia en e
Ru
. Por lo tanto
e
Ru
= e
RU(0)
= E
_
e
RU(t)
_ _
Porque e
RU(t)
, es matingala
_
= E
_
e
RU(t)
| t
_
P( t)
+E
_
e
RU(t)
| > t
_
P( > t)
E
_
e
RU(t)
| t
_
P( t)
= E
_
e
RU()
| t
_
P( t)
=
__
e
RU()1
t
dP
_
P( t)
Si hacemos que t , entonces, el evento ( t) tiende de manera mon otona al evento
( < ). Utilizando el teorema de convergencia mon otona se obtiene entonces que
161
e
Ru
E
_
e
RU()
| <
_
P( < )
> E(1| < ) P( < )
= P( < )
= (u)
por lo tanto, se tiene la desigualdad de Lundberg
(u) e
Ru
0 2 4 6 8 10
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
Desigualdad de Liundberg
u

(
u
)
e
Ru
Ejemplo Supongamos que la distribuci on de las reclamaciones es Exp(1) y que el tiempo
entre dos eventos Poisson se distribuye como Exp(2); adem as la tasa constante de pago de
primas es c = 2.4 miles de pesos. Calcular el coeciente de ajuste para este caso.
Lo primero que hay que hacer es calcular R. Recordemos que para este caso
R =

c
= 1
2
2.4
= 0.1666667
162
Por lo que la desigualdad de Lundber es
(u) e
0.1666667u
El calculo con R es
adjCoef(mgf.claim = mgfexp(x), mgf.wait = mgfexp(x, 2), premium.rate = 2.4, upper =
1)
[1]0.1666667
Uno mas complicado
adjCoef(mgf.claim = mgfgamma(x, 3, 3), mgf.wait = mgfexp(x, 1), premium.rate =
2, upper = 1)
[1]0.8404738
Como hemos visto, el coeciente de ajuste no siempre existe, y a un cuando conozcamos su
existencia no siempre es facil calcularlo. El siguiente resultado proporciona algunas cotas
para el valor de este coeciente, suponiendo su existencia.
Proposicion Si el coeciente de ajuste, R, existe, entonces
1
M
ln
_
c

_
< R <
2 (c )

2
Demostracion para la cota superior. Consideremos nuevamente la funcion (r) = (M
X
(r) 1)
cr, para r 0. Sabemos que (0) = 0. Derivando dos veces esta funcion tenemos

(r) = M

Y
(r) c

(r) = E
_
Y
2
e
rY
_
> E(Y
2
) =
2
De donde tenemos que

(0) = c. Ademas, utilizando el teorema fundamental del


c alculo, tenemos que
163
_
r
0

(s)ds =

(r) +

(0)

(r) =

(0) +
_
r
0

(s)ds > c +
_
r
0

2
dr = c +
2
r
Integrando ambos lados de la desigualdad, tenemos
(r) = (0) +
_
t
0

(s)ds > ( c) t +
2
r
2
2
Evaluando esta desigualdad en la raz, R, obtenemos
0 > ( c) R +
2
R
2
2
=
_
( c) +
2
R
2
_
R
Ya que R > 0, entonces, para que la expresi on en la derecha de la desigualdad sea negativa,
debe suceder que
( c) +
2
R
2
< 0 R <
2 (c )

2
Para la cota inferior tenemos
Supongamos Y M c.s. y denamos la funci on
h(x) =
x
M
_
e
RM
1
_

_
e
Rx
1
_
Entonces, tenemos que h

(x) = R
2
e
Rx
< 0. Porlo tanto, h, es c oncava, con h(0) = h(M) =
0, que implica que h(x) > 0 para x (0, M). Es decir
x
M
_
e
RM
1
_

_
e
Rx
1
_
> 0
equivalentemente
_
e
Rx
1
_
<
x
M
_
e
RM
1
_
(1)
164
Ahora, consideremos la funcion g(x) = xe
x
e
x
+1. Entonces tenemos que g

(x) = xe
x
> 0.
Por lo tanto, g(x) es creciente, y g(x) > g(0) = 0. Es decir g(x) = xe
x
e
x
+1 > 0, si x > 0.
Si evaluamos esta funci on en x = RM > 0, tenemos g(x) = RMe
RM
e
RM
+1 > 0. Por lo que
e
RM
1
RM
< e
RM
Por otro lado, y utilizando (1), tenemos
M
Y
(R) 1 =
_
M
0
_
e
Rx
1
_
dF(x)

..
(1)
_
M
0
x
M
_
e
RM
1
_
dF(x)
=
1
M
_
e
RM
1
_
_
M
0
xdF(x)
=

M
_
e
RM
1
_
(2)
Ahora, utilizando (2) y despues (1), obtenemos
0 = (M
Y
(R) 1) cR

..
(2)

M
_
e
RM
1
_
cR
<
..
(1)
Re
RM
cR
=
_
e
RM
c
_
R
de donde tenemos que e
RM
c > 0. Y nalmente
1
M
ln
_
c

_
< R
165
Observese que la cota superior no requiere de hip otesis adicionales, de modo que cuando el co-
eciente de ajuste, R, existe, este se encuentra siempre dentro del intervalo
_
0,
2 (c )

2
_
.
Observe tambien que cuando las reclamaciones est an acotadas superiormente por una con-
stante positiva, M, puede encontrarse una cota superior para la probabilidad de ruina sin
conocer, necesariamente, el coeciente de ajuste pues
(u) < e
Ru
<
..

u
M
ln(
c

)
= e
ln(

c
)
u
M
=
_

c
_ u
M
*Multiplicando la cota superior por -u.
Aproximaciones al modelo de Carmer-Lundberg
Aproximacion de De Vylder
Consideremos nuevamente el modelo de Cramer-Lundberg
U(t) = U +ct
N(t)

j=1
Y
j
donde las reclamaciones Y
j
tienen una distribucion desconocida. La aproximacion propuesta
por De Vylder consiste en aprovechar el hecho de que, para este modelo, el problema de
encontrar la probabilidad de ruina es completamente soluble cuando las reclamaciones son
exponenciales. De Vylder propone la siguiente reformulacion del modelo

U(t) = u +ct

N(t)

j=1

Y
j
c una nueva tasa de ingreso por primas,
_

N(t) : t 0
_
, un proceso Poisson de par ametro

, y

Y
j
variables aleatorias con distribucion exp( ). La idea es aproximar la probabilidad
de ruina del modelo original de riesgo, por medio de este modelo reformulado. Para ello se
deben encontrar los valores de los par ametros, c,

y , en terminos de los parametros del
166
riesgo original, como lo mostramos en seguida.
Proposicion. La probabilidad de ruina del riesgo en el modelo de Carmer-Lundberg, puede
aproximarse por la f ormula
(u)

c
e

c
u

, con
=
3
2

3
,

=
9
2

3
2

2
3
, c = c +
3
2

2
2

3
Dem. El metodo consiste en igualar los tres primeros momentos de los procesos U(t) y

U(t),
asumiendo que estos existen.
Igualaci on de las esperanzas. Es decir, hay que encontrar las condiciones bajo las que
E[U(t)] = E
_

U(t)
_
. Entonces, tenemos que
E[U(t)] = U +ct t = u +ct

1

t = E
_

U(t)
_
c = c +

1

Igualaci on de varianzas (Igualaci on de los segundos momentos). El siguiente paso es igualar
las varianzas. Recordemos que la varianza de un riesgo, S, que sigue un modelo de perdidas
agregadas Poisson(), est a dada por V(S) =
2
. Entonces, igualando las varianzas de
estos dos procesos, tenemos
V[U(t)] =
2
=

2

2
= V
_

U(t)
_
Igualadad entre los terceros momentos. Finalmente, recordemos que el tercer momento cen-
tral de un riesgo, S, que sigue un modelo colectivo Poisson(), esta dada por E
_
(S E(S))
3

.
En este caso del modelo de perdidas, tenemos
E
_
(U(t) E(U(t)))
3

=
3
=

6

3
= E
_
_

U(t) E(

U(t))
_
3
_
167
S olo resta igualar convenientemente estas ecuaciones para encontrar los parametros de in-
teres. De las igualdades de la varianza y tercer momento, se desprende que
1
2

2

2
=
1
6

3

3
=
3
2

3
Ahora, sustituyendo este valor en la ecuacion generada al igualar las varianzas, tenemos

=
9
2

3
2

2
3
Finalmente, sustituyendo estos dos valores en la igualdad entre las esperanzas, tenemos
c = c +
3
2

2
2

3
Entonces, hemos encontrado los valores de los parametros del modelo reformulado:

, , c,
en terminos de los del modelo original , c y de los momentos de la distribuci on de las
reclamaciones, Y.
Formula de Pollaczec-Khinchin
La formula de Pollaczek-Khinchin es una expresi on general que permite escribir a la proba-
bilidad de ruina en terminos de una serie innita de convoluciones.
Proposicion (F ormula de Pollaczec-Khinchin). La probabilidad de ruina en el modelo de
Cramer-Lundberg est a dada por
(u) = (1 p)

n=1
p
n

H
(n)
(u)
con p =

c
, y H(x) =
1

_
x
0

F(y)dy, x 0
168
Con la esperanza de la distribuci on asociada al monto de reclacion. Claramente es muy
difcil de utilizar esta serie para calcular la probabilidad exacta de ruina, debido a su caracter
innto. No obstante, se usa ampliamente para calcular aproximaciones de probabilidades de
ruina.
Dem
Primero veamos que la variable aleatoria 1 (u) corresponde a la distribuci on de una
variable geometrica compuesta con par ametros
_
1 p = 1

c
, H

_
(Recordemos que la
probabilidad de exito se toma como q=1-p). Efectivamente, sea
N Geo
_
1

c
_
, y
X =
n

i=1
Y
i
tales que Y
1
, Y
2
, ..., Y
n
son variables aleatorias independientes con distribuci on H(y). En-
tonces
(x) = P(X x) =

n=0
P(X x|N = n) (1 p)p
n
=

n=0
(1 p)p
n
H
(n)
Entonces
169
1 (u) = =

n=0
(1 p)p
n
_
1 H
(n)
_
=

n=0
(1 p)p
n

H
(n)
= (1 p)

n=1
p
n

H
(n)
(u)
=
_
1

c
_

n=1
_

c
_
n

H
(n)
(u)
Para utilizar esta f ormula para obtener aproximaciones de las probabilidades de ruina, la
combinaremos con el algoritmo de Panjer.
Ejemplo. Utilizaremos R para aproximar las probabilidades de ruina de algunos modelos.
Supongamos que las reclamaciones siguen una distribuci on Pareto(5,4), la tasa de intensidad
Poisson es = 1 y tasa de primas por unidad de tiempo, c = 30. Ya que los momentos de
esta distribucion son de la forma
E
_
X
k
_
=

k
k
en este caso, se pueden implementar las dos aproximaciones que presentamos, ya que esta
distribuci on tiene los tres primeros momentos nitos.
Aproximacion de De Vylder
Entonces, el primero, segundo y tercer momento de esta distribuci on son
E(X) =

1
; E
_
X
2
_
=
2
2
( 2)
y E
_
X
3
_
=
6
3
( 3)
Por lo que los valores para nuestra aproximaci on son
170
=
3
2

3
=
3 2
2
( 2)
6
3
( 3)
=
( 3)
( 2)

=
9
2

3
2

2
3
=
9
2
8
6
( 2)
3
36
6
( 3)
3
=
( 3)
3
( 2)
3
c = c +
3
2

2
2

3
= c

( 1)
+
( 3)
( 2)
2
Utilizando los valores particulares de este ejemplo, que son: = 5, = 4, = 2 y c = 12,
tenemos
= 0.16666667;

= 0.5925926 y c = 11.7777778
0.1666667 0.5925926 11.7777778 0.1163522 0.3018868
y la aproximacion a la probabilidad de ruina queda como
(u)
0.5925926
0.1666667 11.7777778
e
0.1163522u
171
0 20 40 60 80 100
0
.
0
0
0
.
0
5
0
.
1
0
0
.
1
5
0
.
2
0
0
.
2
5
0
.
3
0
Aproximacin de De Vylder
u

(
u
)
Utilizando la aproximaci on que se desprende de la formula de Pollaczec-Khinchin. Tenemos
F(x) = 1
_
4
4 + x
_
5
H(x) =
1

_
x
0
1
_
1
_
4
4 + z
_
5
_
dz
= 1
_
x
0
_
4
4 + z
_
5
dz
= 1
_
4
4 + x
_
4
Es decir, H Pareto(4, 4). Adem as, tenemos que la probabilidad de exito de la geometrica
asociada es
1

c
= 1
11
30
172
Entonces, cocluiremos este ejemplo utilizando R, para construir el modelo agregado subya-
cente.
0 20 40 60 80 100
0
.
0
8
0
.
1
0
0
.
1
2
0
.
1
4
0
.
1
6
Aprox. PollaczecKhinchin
x

(
u
)
Severidad de la ruina
Nuevamente, consideremos nuestro proceso de riesgo {U(t) : t 0|U(0) = U}, con capital
inicial U(0). Supongamos ahora que el tiempo de ruina, , es nito. Entonces, consideremos
las siguientes variables aleatorias
X = U (

)
Y = U()
Que representan, respectivamente, el valor del proceso de riesgo un instante antes de la ru-
ina, y justo en el momento de la ruina. Estas variables se muestran de forma graca en la
siguiente gura.
173
2 4 6 8 10 12 14
0
1
0
2
0
3
0
Proceso en Riesgo
tiempo
U
(
t
)

X
Y
A la variable Y se le llama severidad de la ruina. El problema en cuesti on es el de encontrar
la probabilidad conjunta
(u, x, y) = P( < , X > x, Y > y) , x 0 y 0
Es claro que esta probabilidad es una version mas elaborada que la probabilidad de ruina,
(u) = P( < |U(0) = U). Como era de esperarse, no se cuenta con una f ormula explcita
para (u, x, y), pero encontraremos una ecuaci on integral para esta probabilidad. La de-
mostraci on para encontrar la ecuacion integral de (u, x, y), sigue la misma tecnica que la
que se utiliz o para el caso de la probabilidad de ruina.
Proposicion. Para x 0 y y 0
1.-

(u, x, y) =

c
_
(u, x, y)
_
u
0
(u v, x, y) dF(v) 1
(u>x)

F (u + y)
_
2.- (0, x, y) =

c
_

x+y

F(v)dv
174
3.-

c
__

u+y

F(v)dv +
_
u
0
(u v, x, y)

F(v)dv +1
(u<x)
_
u+y
x+y

F(v)dv
_
Dem. Para el desarrollo de la demostraci on del primer paso, condicionaremos sobre el mo-
mento y monto de la primera reclamacion, Y
1
. Entonces
(u, x, y) =
_

0
_

0
P( < , X > x, Y > y|T
1
= t, Y
1
= y) dF(y)dF
T
1
=
_

0
e
t
_
u+ct
0
(u +ct v, x, y) dF(v)dt
+
_

0
1
(u+ct>x)

F (u +ct +y) e
t
dt
175

You might also like