Professional Documents
Culture Documents
S discreto S continuo
Sucesión de
variables
T discreto Cadena
aleatorias
continuas
2)
3)
** Una cadena de Markov tiene probabilidades de transición
estacionarias Si para cualquier par de estados Si y Sj existe una
probabilidad de transición Pij tal que:
PROPIEDAD MARKOVIANA
Ejemplos:
Comportamiento (sube/baja) del precio de las
acciones hoy depende de lo ocurrido ayer
A B C
Matriz de A 0,8 0,1 0,1
transición en un B 0,15 0,82 0,03
ciclo (P) C 0,13 0,12 0,75
¿Cómo se repartirán el mercado dentro de 1
Ciclo: Mes mes, 6 meses, 1 año?, ¿A largo plazo?
1
Estados 0 1 2 3 4
P 0 0.25 0.75 0 0 0
1 0.5 0.5 0 0 0
2 0 0 1 0 0
3 0 0 0.33333333 0.66666667 0
4 1 0 0 0 0
Tipos de estados y Cadenas de Markov
2
Tipos de estados y Cadenas de Markov
2
2
Tipos de estados y Cadenas de Markov.
2
Tipos de estados y Cadenas de Markov.
4
Comportamiento a largo plazo de las
Cadenas de Markov: el caso de las cadenas
absorbentes
• CM absorbente:
– Tiene al menos un estado absorbente
– Desde cualquier estado no absorbente se puede acceder
a algún estado absorbente
• A largo plazo, termina en absorción con
probabilidad 1
• Interesa calcular:
– Probabilidad de absorción por cada estado absorbente
– Numero esperado de pasos antes de la absorción
Software y bibliografía
• Usaremos QSB
• Un excelente texto para este tema es el de
Hillier y Lieberman (está referenciado en el
programa)