Professional Documents
Culture Documents
Cadenas de Markov
COSTOS ESPERADOS Y
ESTADOS ABSORBENTES
Antonio Hoyos Chaverra
Departamento de Ingeniera Industrial
Facultad de Ingeniera Universidad de Antioquia
Antonio Hoyos Chaverra. Cadenas de Markov
Agenda
Objetivo
Introduccin
Costos esperados
Ejemplos
Estados absorbentes
Ejemplos
Antonio Hoyos Chaverra. Cadenas de Markov
Objetivo
Aprender a calcular los costos esperados de una cadena
de Markov y la probabilidad de absorcin de un estado
determinado.
Antonio Hoyos Chaverra. Cadenas de Markov
Introduccin
Muchas veces los estados del sistema tienen unos costos
asociados, por ejemplo en un sistema de inventarios sera
til conocer cul sera el costo de operacin a largo plazo.
Antonio Hoyos Chaverra. Cadenas de Markov
Costos esperados
Recuerde que en cadenas de Markov ergdicas (recurrentes y
aperidicas). El siguiente lmite existe:
00 = 1 si n es impar
Antonio Hoyos Chaverra. Cadenas de Markov
Costos esperados
No obstante el siguiente lmite siempre existe para una cadena de Markov
irreductible de estados finitos.
Este resultado es importante para el clculo del costo promedio esperado por
unidad de tiempo.
Costos esperados
Supongamos que se incurre en un costo C cuando el sistema se
encuentra en el estado en el tiempo t.
Costos esperados
Usando
p 0 0.4005
p 0 c0 p 1 c1 p 2 c2 p 3 c3 2.1028
p 1 0.2623
p 2 0.2222 El costo esperado por semana del
sistema es de 2.1028 USD
p 3 0.1149
Historical statistics:
1. If a customer had an accident last year then they have a
10% chance of having one this year;
2. If they had no accident last year then they have a 3%
chance of having one this year.
Antonio Hoyos Chaverra. Cadenas de Markov
Solution approach: Construct a Markov chain with four states: (N, N), (N,
Y), (Y, N), (Y,Y) where these indicate (accident last year, accident this
year).
Solution:
p(N,N) = 0.939, p(N,Y) = 0.029, p(Y,N) = 0.029, p(Y,Y) = 0.003
Estados absorbentes
Recordemos que un estado k se llama absorbente si =
1
k
Estados absorbentes
Estas probabilidades se pueden calcular resolviendo el
siguiente sistema de ecuaciones lineales.
i j k
Antonio Hoyos Chaverra. Cadenas de Markov
Bibliografa
Hillier, Frederick S., and Gerald J. Lieberman. Introduction
to Operations Research. McGraw-Hill, 2001.
Calderon, B. (2006) Cadenas de Markov. Notas de
clase. Universidad de Antioquia.