You are on page 1of 3

Cadenas de markov de tiempo

continuo y Cadenas de markov


ocultas.

Espacio
Reservado

Primer Primer
1
Primer
Primer
Autor Autor
Autor Autor1
Segundo S.
Segundo
S.2
Autor
Autor
Autor Autor2
Tercer Tercer
3
Tercer
Tercer
Autor Autor
Autor Autor3
Cuarto Cuarto
Autor Autor4
Quinto Quinto
Autor Autor5
Sexto Sexto
Autor Autor6

Resumen

de una manera que en apariencia es algo aleatoria. O


bien, la sucesin podra consistir en los precios de las
acciones que cotizan en la bolsa en donde otra vez
interviene cierto grado de aleatoriedad.

Este documento contiene informacin acerca de


las cadenas de markov de tiempo continuo, las
cadenas ocultas de markov y de sus posibles
aplicaciones, Con el fin de Estudiarlas como una
herramienta para analizar el comportamiento y
todo aquello que abarcan determinados tipos de
procesos estocsticos, Permitir describir el
comportamiento a largo trmino de la Cadena y
determinar el estado de equilibrio del sistema.
(faltan resultados)

El anlisis de Markov, llamado as en honor de un


matemtico ruso que desarrollo el mtodo en 1907,
permite encontrar la probabilidad de que un sistema se
encuentre en un estado en particular en un momento
dado. Algo ms importante an, es que permite
encontrar el promedio a la larga o las probabilidades
de estado estable para cada estado. Con esta
informacin se puede predecir el comportamiento del
sistema a travs del tiempo. La tarea ms difcil es
reconocer cundo puede aplicarse. La caracteristica
ms importante que hay que buscar en la memoria de
un evento a otro.

Palabras clave: cadenas de markov.

Markov chains and


continuous time Markov
chains hidden.

1.1.1.

Abstract

CADENAS DE MARKOV DE
TIEMPO CONTINUO

This document contains information about


Markov chains and continuous-time Markov
chains hidden, in order to Stu-diarlas as a tool to
analyze the behavior and everything ranging
from-finished types of stochastic processes,
Permi-tir describe the long term behavior of the
chain and to determine the equilibrium state of
the system.

En esta investigacin consideraremos


cadenas de Markov de tiempo continuo. Al
igual que en el caso de las cadenas de tiempo
discreto, estas estn caracterizadas por la
propiedad Markoviana de que dado el estado
presente, el futuro es independiente del
pasado.

(faltan resultados)

Asistente del Grupo de


Investigacin XXXX.
2
Estudiante de Ingeniera de
Sistemas de la Universidad
Distrital.
3
Profesor de la Facultad de
Ingeniera de la Universidad
Distrital.
4
Estudiante Asistente del
Grupo de Investigacin
XXXX.
5
Investigador del Grupo de
Investigacin XXXX.
6
Director del Proyecto YYYY.
1

Key words: Markov


aleatorio, estocastico.

chains,

Desarrollo del
tema

indiscreto,

2. ecuaciones.
Procesos de Markov de salto puro
Denicion 3.1.1. Sea { X t }t 0 un proceso
estocstico de tiempo continuo (es decir t
R jo), que toma
[ 0,T ] con T
valores en un conjunto numerable E .
Decimos que el proceso { X t }t 0 en una
cadena de Markov de tiempo continuo si
s , t 0 y i , j , x u E con 0 u< s se

1. Introduccin

Un proceso o sucesin de eventos que se


desarrolla en el tiempo en el cual el resultado en
cualquier etapa contiene algn elemento que
depende del azar se denomina proceso aleatorio
o proceso estocstico. Por ejemplo, la sucesin
podra ser las condiciones del tiempo en Paran en una
serie de das consecutivos: el tiempo cambia da a da
1

cumple que
parmetro 1. Para cada x E
P ( X t +8= j| X 8=i , X u=x u 0 u< s ) =P ( X t +8= j|particionamos
X 8 =i )
el Intervalo I x [ 0, q ( x) ]
En otras palabras, una cadena de Markov de
en intervalos I ( x , y) tales que
tiempo continuo (CMTC) es un proceso
|I (x , y )|=q (x , y ) . De esta forma,
Estocstico que verica la propiedad
tenemos que { I ( x , y ) } y E R verica
markoviana, es decir, que la probabilidad
que:
condicional de un futuro estado en el tiempo
t+ s , dado el estado presente en el tiempo
1. |I (x , y )|=q ( x , y )
s y todos los estados pasados, solo
depende del presente estado y en
2. yE I ( x , y ) =I x =[ 0, q(x ) ]
independiente del pasado.
Denticin 3.1.2. Si { X t }t 0 es una CMTC y Sea x 0 E y supongamos que X 0 =x0 .
adems verica que
Sea 1 el primer momento en que un
P ( X t +8= j| X 8=i )
evento del proceso M ( ) aparece en el
Es independiente de s entonces se dice que la intervalo I x 0 . Entonces:
CMTC tiene probabilidades de transicin
estacionarias u homogneas.
inf {t >0 : M ( [ 0,t ] I x0 ) > 0 }
1

A continuacin construiremos un proceso


{ x t } con t R a valores en un espacio
E numerable y veremos luego que dicha
construccin resulta ser una CMTC.
Supongamos entonces que el espacio de
estados E es un conjunto numerable. Sea
q : E E R una funcin tal que
q ( x , y ) 0 para todos x , y , x y .
Llamaremos a q ( x , y ) velocidad de
transicin del estado x al estado y .
Queremos construr un proceso con la
propiedad de que la velocidad de salto de un
estado x a otro y sea q ( x , y ) . En
otras palabras el proceso debe vericar
P ( X t +h= y| X t=x ) =hq ( x , y ) +o ( h ) x y
Sea q : E R tal que
q ( x ) q ( x , y ) la velocidad de salida

Denimos x 1= y donde
estado que satisface que

del estado x .
Supondremos que las
tasas de salida estn uniformemente acotadas,
es decir que

y x n= y donde
que verica que

yE

q ( x , y )=

xE

es el nico

inf {t >0 : M ( [ 0,t ] I x0 ) > 0 }=inf { t>0 : M ( [ 0,t ] I (x


(**)
(Observar que x 1 esta bien denido, ya
que como los { I (x , y ) } y E son una
particin del intervalo [ 0, q(x ) ] entonces el
estado y que verica (**) es nico).
Supongamos ahora que tenemos
determinados n1 y x n1 . Denimos
entonces de manera inductiva:

n inf t> n1 : M ([ n1 , t ] I

y E

xE

)> 0 }

es el nico estado

inf t> n1 : M ( [ n1 , t ] I

q ( x ) <+

xn1

xn1

)> 0 }=inf { t> n1 : M ([

Denicin 3.1.3. Denimos

nn

(Observar que si el espacio de estados E


es nito, entonces esta condicin se satisface
automticamente). Para construr el proceso,
introducimos un proceso de Poisson
bidimensional M ( ) : P ( R2 ) R con

y el proceso
tal que

x t : E con t [ 0,

X t x n Siempre que t [ n , n+1


2

De esta forma n es el tiempo en el que


ocurre el n-esimo salto del proceso, y x n
es el n-esimo estado visitado por el proceso
0,
.
{ X t }t [

especiales. Revista Ecosistemas, 15(3).


[2] Rincn, L. (2008). Introduccion a los procesos
estocsticos. Departamento de matemticas, Facultad
de ciencias UNAM.
[3] Vega, M. V. (2004). Cadenas de markov de
tiempocontinuo
y
aplicaciones.
Monografia.
Licenciatura en matemtica. Universidad de la
republica de Uruguay.

Referencias
[1] Rodriguez, F., & Bautista, S. (2006). Modelos
ocultos de markov para el anlisis de patrones

You might also like