You are on page 1of 4

CADENAS DE MARKOV

Cada proceso suceso individual se denomina un estado. Habr tantos estados


como procesos o sucesos posibles. Para propsitos de notacin utilizaremos Si
que significa el i-simo estado de un total de m estados posibles: >m>=2.

Cada vez que se produce un nuevo resultado, se dice que el proceso ha


avanzado un paso, Utilizaremos una n para indicar el nmero de pasos: n=0
nos indica el presente; n=1 representa el suceso posible en la siguiente
seleccin; n=2 representa 2 pasos despus, etc.

Cuando n se dice que el proceso se ha estabilizado y se encuentra en


condiciones de estado estable.

Los periodos de tiempo que identifican a un paso, son diferentes de acuerdo al


sistema de que se trate.

CADENAS DE MARKOV ERGODICAS

Para asegurar la obtencin de condiciones de estado estable, la cadena debe


ser ergodica (tambin llamada irreducible). Una cadena ergodica describe
matemticamente un proceso en el cual es posible avanzar desde un estado i
hasta cualquier estado "j. No es necesario que esto se logre en un solo paso
pero debe ser posible para que cualquier resultado sea logrado
independientemente del estado presente.

CADENA REGULAR

Un caso ms restringido de cadena ergodica, es una cadena regular. Una


cadena regular se define como una cadena que tiene una matriz de transicin P,
que contiene elementos igual a cero y para la cual alguna potencia de P,
nicamente tendr elementos positivos de probabilidad (diferentes a cero. Todas
las cadenas regulares pueden ser ergodicas, pero no todas las ergodicas son
regulares).
Cuando desaparecen los ceros si elevo la matriz de transicin a una potencia,
es regular y si puedo ir de uno de los estados a todos los dems, es ergodica.

CADENAS DE MARKOV ABSORVENTES


Los estados absorbentes describen procesos que terminan o finalizan despus
de alcanzar determinadas condiciones y dan como resultado un caso especial
de cadenas de Markov, algunos ejemplos son:
En control de calidad, despus de encontrar un nmero predeterminado
de partes que pueden ser aceptadas o rechazadas, se suspende la
inspeccin secuencial.
Despus de x horas de funcionamiento, una mquina se detiene para
repararla o reemplazarla.
Despus de que una persona ha trabajado en una empresa, puede
jubilarse o recontratarse.
Despus del seguimiento que se hace a una cuenta bancaria esta se paga
o se considera perdida

CARACTERSTICAS.
Un estado absorbente es aquel que tiene una probabilidad de ser
abandonado igual a cero, o sea que una vez comenzado es imposible
dejarlo y el proceso se detiene completamente o se detiene para luego
comenzar a partir de algn otro estado.
Una cadena de Markov es absorbente si:
Tiene por lo menos un estado absorbente.
Es posible ir desde cada estado no absorbente hasta por lo menos un
estado absorbente. No es necesario efectuar esta transicin en un
paso; ni es necesario alcanzar cada estado absorbente a partir de
cualquier estado no absorbente.
Ejercicio

La planta de refinacin de la empresa minera PLATINIUM WORLD S.A.C


produce dos tipos de minerales: Oro y Plata. Cuando la industria China desea
comprar el Oro de la empresa minera hay una probabilidad de 90% de que siga
comprndola la vez siguiente. Si la industria australiana compra Plata, hay 80%
de que repita la vez siguiente. Se pide:

Si la industria Australia actualmente es compradora de Plata. Cul es la


probabilidad de que compre Oro pasadas dos compras a partir de hoy?
Si en la actualidad la industria China es comprador de Oro. Cul es la
probabilidad de que compre Plata pasadas tres compras a partir de
ahora?
Supongamos que el 60% de toda la industria compra Oro y el 40% Plata.
A tres compras a partir de ahora, Qu fraccin de los compradores
(industria) estar tomando Oro?

SOLUCIN:

La situacin se puede modelar como una cadena de Markov con dos estados
{Oro, Plata}= {O, P}. La matriz de transicin para el orden O, P, es:

a) Se pide la probabilidad de transicin en dos pasos, es decir que se pide


el valor en fila 2, columna 1 para la matriz P2, 0.34

b) Al igual que en el apartado anterior se pide el valor de probabilidad de


transicin en fila 1 y columna 1 para la matriz P3. La matriz es:
La solucin 0.781 de que la industria China compre Oro pasada
tres compra compre nuevamente Oro.

c) El vector de probabilidad inicial es (0.6, 0.4), por tanto la probabilidad de


consumir ambos estados a partir de tres etapas es:

Esto es que al cabo de tres compras el 64.38% comprar Oro y el


35.62% comprar Plata.

d) El estado estable se determina resolviendo el sistema de ecuaciones:

Resultando x=2/3; y= 1/3

You might also like