You are on page 1of 6

Modelos de Markov

aplicados a la investigación
en Ciencias de la Salud

Ricardo Ocaña-Riola

RESUMEN

En ciencias de la salud, muchas variables de interés muestran siendo una línea de investigación de interés en la actualidad
cambios en el tiempo. Predecir qué valor futuro alcanzará una tanto a nivel teórico como aplicado. El objetivo de este trabajo
variable bajo determinadas condiciones iniciales constituye una es mostrar los modelos markovianos utilizados con mayor fre-
importante fuente de información para la investigación básica y cuencia en ciencias de la salud, prestando especial atención a
aplicada, al igual que para la toma de decisiones en la gestión los métodos de estimación, la interpretación de resultados y el
de servicios de salud y la atención sanitaria. Los procesos es- software disponible para su aplicación. Desde un punto de vista
tocásticos son secuencias de variables aleatorias observadas en práctico se abordan cuatro aspectos fundamentales para llevar
sucesivos instantes de tiempo, y los modelos de Markov permiten a cabo análisis de datos basados en modelos de Markov, a sa-
estudiar la evolución temporal de cualquier proceso cuyo estado ber: definición de los estados del proceso y los mecanismos de
futuro dependa solo del estado en que se encuentre en el pre- transición entre ellos, selección del modelo más apropiado, de-
sente, pero no de su historia pasada. Desde comienzos del siglo terminación de las probabilidades de transición entre estados y
XX sus aplicaciones en el ámbito sanitario han sido múltiples, descripción de la evolución temporal del proceso.

Procesos Estocásticos transiciones entre diferentes estados. En la ter- 2005; Uchida et al., 2006) como en los estu-
minología habitual, se denomina espacio de dios en humanos (Trajstman, 2002; Alexan-
uchas de las variables ana- estados a todos los posibles valores que pueda dersson et al., 2003; Berg et al., 2004; Kopyc-
lizadas en la investigación tomar la variable que define el proceso. ka-Kedzierawski y Billings, 2006).
biomédica muestran valores El análisis de procesos es- Dependiendo de las condi-
que cambian con el tiempo. En los modelos tocásticos permite predecir el estado en que se ciones particulares de cada estudio, la metodo-
de cáncer mamario en ratas, la respuesta al encontrará el proceso en el futuro a partir de logía para el análisis de datos difiere. Cuando
carcinógeno puede ser evaluada observando la información disponible sobre su pasado. La los valores que puede tomar el proceso son
mensualmente el número de animales que han complejidad de estas predicciones depende en discretos suele hablarse de cadenas de Markov,
desarrollado cáncer o midiendo cada semana gran medida del tipo de proceso; sin embargo, mientras que el término proceso de Markov
el crecimiento del tumor hasta completar el las características de algunos de ellos facilitan suele reservarse para procesos con espacio de
periodo de experimentación (Thompson y su análisis e interpretación. Un caso particular estados continuo. Aunque la terminología no
Sporn, 2002). En humanos, la presión arterial, bien estudiado es el proceso de Markov, pro- está estandarizada, la clasificación general de
el número de células CD4 o el estado del pa- ceso estocástico cuyo estado futuro dependerá los modelos markovianos puede esquematizar-
ciente durante el transcurso de una enferme- solo del estado en que se encuentre en el pre- se como se muestra en la Tabla I.
dad son variables con evolución temporal. sente, pero no de su historia pasada (Feller, El objetivo de este trabajo
Habitualmente, el valor que 1968; Drake, 1988). es mostrar los modelos markovianos más uti-
toma la variable X en el tiempo t suele deno- Desde que, en 1906, el ma- lizados actualmente en el campo de la epide-
tarse por X(t). Así, X(t1)... X(tk) forman una temático ruso Andrei Andreyevich Markov miología y las ciencias de la salud desde un
secuencia denominada proceso estocástico definió por primera vez este tipo de procesos, punto de vista eminentemente práctico, pres-
(Lindsey, 2004). Los valores que puede tomar sus aplicaciones en la investigación biomédica tando especial atención a las principales técni-
la variable reciben el nombre de estados, de han sido múltiples (Basharin et al., 2004), tan- cas de análisis, la interpretación de resultados,
manera que durante su evolución en el tiempo to en la experimentación animal (Carey et al., la utilidad de los modelos y el software dispo-
el proceso estará sujeto a cambios de estado o 2005; Yang y Chao, 2005; Zhai y Morris, nible para su aplicación.

PALABRAS CLAVE / Ciencias de la Salud / Investigación Biomédica / Markov / Probabilidad / Procesos Estocásticos /
Recibido: 28/01/2008. Modificado: 05/02/2009. Aceptado: 10/02/2009.

Ricardo Ocaña-Riola. Doctor en Matemáticas, Universidad de Barcelona, España. Profesor, Es-


cuela Andaluza de Salud Pública, Granada, España. Dirección: Escuela Andaluza de Salud Pública, Campus Universitario de Cartu-
ja, Cuesta del Observatorio 4, Apdo. de Correos 2070, 18080 Granada, España. e-mail: ricardo.ocana.easp@juntadeandalucia.es

MAR 2009, VOL. 34 Nº 3 0378-1844/09/03/157-06 $ 3.00/0 157


Las cadenas de Markov Tabla I
(Norris, 1998) suelen aplicarse con frecuencia Clasificación de los modelos de Markov
en el campo de la salud, motivo por el que Espacio de Estados
serán tratadas con más detalle en este artículo.
Los procesos de Markov presentan una mayor Discreto Continuo
complejidad matemática y su análisis extrali- Discreto Cadena de Markov discreta Proceso de Markov discreto
mitaría el objetivo de este artículo; sin embar- Tiempo de
go, el lector interesado puede encontrar intere- observación Continuo Cadena de Markov continua Proceso de difusión
santes aspectos sobre ellos en otros textos
(Karatzas y Schreve, 1991; Tuerlinckx et al.,
2001; Lindsey, 2004). será la misma en todos los instantes de obser- dos junto con las probabilidades de transi-
vación del proceso. En ese caso se tendrá una ción teóricas.
Cadenas de Markov en Tiempo Discreto única probabilidad de transición pij constante Los estados S, VIH y
en el tiempo tal que pij= pij(1)=pij(2)=... =pij(n). SIDA se denominan transitorios puesto que
Cuando la variable estudia- El proceso será entonces una cadena de el individuo nunca volverá a ellos una vez
da solo puede tomar valores discretos y su ob- Markov homogénea o estacionaria en tiempo que los abandone para alcanzar otro estado
servación en el tiempo se realiza en instantes discreto, con una única matriz de transición de la enfermedad. El estado M, en cambio,
de tiempo discretos, el proceso estocástico dada por es absorbente ya que los sujetos que lo alcan-
queda representado por X(1), X(2), X(3), ..., zan permanecen en él sin posibilidad de
siendo X(n) el valor de la variable X en el cambiar a otro estado.
tiempo n, con n=1, 2, 3, ... Este modelo epidémico es
Si el proceso es markovia- una variante de los modelos SIR y Reed-Frost
no, su estado futuro dependerá solo del estado utilizados para estudiar la dinámica de proce-
en que se encuentre en el presente, pero no de sos infecciosos en poblaciones (Hurd y Ka-
sus estados o valores pasados. En ese caso, las Análisis de cadenas de Markov neene, 1993; Chen y Bokka, 2005).
probabilidades de transición de un estado a homogéneas en tiempo discreto
b) Selección del modelo markoviano más
otro quedan definidas por
Desde comienzos de los apropiado para el estudio del proceso. La
pij(n)= P[X(n+1)=j|X(n)=i]i,j=1, 2,..., m años 80, el SIDA se ha convertido en una de observación de los sujetos se realiza de for-
las mayores pandemias de nuestra época. En ma anual, por lo que tanto los estados como
donde pij(n): probabilidad de que la variable X
la actualidad, España es uno de los países los instantes de tiempo del proceso son dis-
tome el valor j en el tiempo de observación
del oeste de Europa más afectados por el vi- cretos. Además, el estado futuro en que se
n+1 si en el momento actual, n, su valor es i.
rus (EuroHIV, 2005), por lo que el conoci- encuentre un individuo dependerá solo de su
En otras palabras, pij(n) es la probabilidad de
miento de la evolución futura de la epidemia estado actual, pero no de su historia pasada.
que el proceso cambie del estado i al estado j
es un objetivo prioritario para establecer polí- Por ello, el proceso estocástico es una cade-
en el instante de tiempo n.
ticas sanitarias adecuadas. Los siguientes na de Markov discreta.
La evolución de la cadena
apartados muestran cómo llevar a cabo un Si las políticas de preven-
de Markov quedará determinada conociendo
análisis de la epidemia de VIH-SIDA utili- ción de VIH y las pautas de tratamiento no
estas probabilidades para cada tiempo n, for-
zando una cadena de Markov homogénea varían, tanto la incidencia de VIH-SIDA como
mando la matriz de transición P(n) dada por
con tiempos de observación anuales. la tasa de mortalidad entre los casos de SIDA
a) Definición de los estados del proceso y permanecerán constantes, por lo que las proba-
los mecanismos de transición entre ellos. bilidades de transición no cambiarán en el
Uno de los modelos más sencillos para el es- tiempo. Bajo esta hipótesis, la cadena de
tudio de la epidemia de SIDA establece que Markov discreta será además homogénea, sien-
cada sujeto de la población puede estar ex- do éste el modelo markoviano más apropiado
clusivamente en uno de los siguientes esta- para estudiar la evolución de la epidemia.
Por tratarse de probabilidades, todos los ele- dos: susceptible (S), infectado por VIH c) Determinación de las probabilidades de
mentos de la matriz de transición tienen que (VIH), con SIDA (SIDA) o muerto como transición entre estados. En epidemias huma-
estar entre 0 y 1, y la suma de los valores de consecuencia de la enfermedad (M). nas, la matriz de transición suele obtenerse a
cada fila ha de ser igual a 1. Es lo que se de- El sujeto susceptible no partir de los datos de población, incidencia,
nomina una matriz estocástica. está infectado (estado 1, -S-). Tras el con- prevalencia y mortalidad publicados en los re-
En el proceso descrito, las tacto con un infectado desarrollará la infec- gistros oficiales. En el momento de redactar
probabilidades de transición cambian con el ción y podrá contagiar a otros individuos de este trabajo, las últimas cifras registradas so-
tiempo, es decir, hay una matriz de transición la población (estado 2, -VIH-). Cuando el bre la epidemia de VIH-SIDA en España co-
distinta para cada tiempo de observación. Es sujeto infectado desarrolla la enfermedad se rrespondían a 2004 (EuroHIV, 2005), infor-
lo que ocurre en las epidemias víricas como convertirá en un caso de SIDA (estado 3, mación que será utilizada para calcular las
las de varicela, donde la probabilidad de pasar -SIDA-), pudiendo morir por causa de la probabilidades de transición.
de estar enfermo a estar sano será casi 0 el enfermedad (estado 4, -M-). La Figura 1 Los datos publicados mues-
primer día de la enfermedad y próxima a 1 muestra las posibles transiciones entre esta- tran que el número estimado de nuevos casos
cuando han pasado entre 7 y 10 días después
de los primeros síntomas (Arvin y Gershon,
2001). Cuando esto ocurre se tendrá una ca-
dena de Markov discreta no homogénea.
Cuando las probabilidades
de transición no cambian con el tiempo, la
probabilidad de pasar de un estado i a otro j Figura 1. Estados en la epidemia de VIH-SIDA

158 MAR 2009, VOL. 34 Nº 3


fue de 2750 en una población de 43197684 forma equivalente, dentro de dos años habrá
habitantes, lo que supone una tasa de contagio 128 nuevos infectados por millón de habitan-
de 64 casos por millón de habitantes (CNE, tes. Análogamente, es posible calcular la
2005). Como consecuencia, p12=0,000064. Se- probabilidad de que un individuo que ac-
gún el modelo establecido, un sujeto en estado tualmente se encuentra en un estado esté en
susceptible no puede pasar directamente al es- otro determinado dentro de tres años, a par-
tado SIDA ni al estado M, por tanto. La suma tir de la matriz de transición en tres tiempos
de las probabilidades de una fila de la matriz P(3)=P(2)×P. En general, la matriz de transición
de transición ha de ser 1, por lo que p11=1-p12- en n tiempos no es más que un producto su-
p13-p14=0,999936. cesivo de matrices dado por P(n)=P(n-1)×P, con
La segunda fila de la ma- n≥2 un número entero.
triz corresponde a las transiciones que pueden El curso que seguirá la
realizarse desde el estado VIH. Así, un indivi- evolución de la epidemia en el tiempo depen-
duo infectado no volverá a ser susceptible, por derá de las condiciones iniciales de la pobla-
lo que p21=0. La incidencia de SIDA en 2004 ción estudiada con respecto al virus, es decir,
fue de 804 nuevos casos (EuroHIV, 2005) en de la distribución actual de los individuos en
una población prevalente estimada de 125000 cada uno de los estados de la enfermedad.
individuos con VIH (Cañas et al., 2003), por En 2004 había en España 43065533 de suje-
lo que p23=0,006432. Siguiendo el modelo tos susceptibles, 125000 personas vivas in-
propuesto, un sujeto VIH+ no puede pasar di- fectadas con VIH, 6609 casos de SIDA y
rectamente al estado M, por tanto p24=0. Ade- 542 muertes causadas por la enfermedad. Es-
más, puesto que los valores de la fila han de tas cifras conforman el vector de casos pre-
sumar 1, se tendrá p22=1-p21-p23-p24=0,993568. valentes iniciales que constituyen el punto de
Los sujetos que han desa- partida para estudiar la evolución futura de la
rrollado SIDA no retornarán al estado S o epidemia. Este vector está representado por
VIH, por tanto p31=p32 =0. En 2004 se pro- v=(43065533, 125000, 6609, 542) y la suma
dujeron 542 muertes entre un total de 6609 de todos sus valores ha de coincidir con la
casos de SIDA (EuroHIV, 2005), lo que población total estudiada, dada por 43 197
supone p34 =0,0082. Por último, p33=1-p31-p32- 684 habitantes. El número de sujetos que ha-
p34=0,917991. brá en cada uno de los estados de la enfer-
Puesto que M es un estado medad dentro de n años viene dado por el
absorbente y los sujetos permanecen en él, se producto del vector de prevalencias iniciales
tiene p44=1 y p41=p42=p43=0. y la matriz de transición en n tiempos, es de-
La matriz de transición cir, v×P(n) (Lindsey, 2004; Norris, 1998). Figura 2. Predicciones sobre la evolución de la
para la epidemia de VIH-SIDA en España En el estudio de epidemias epidemia de VIH-SIDA en España
será por tanto poblacionales, la manera más habitual de ex-
presar el vector de prevalencias iniciales es do ésta una de las principales aportaciones de
como número de casos por millón de habitan- los modelos markovianos a la investigación
tes, es decir, v=(996940, 2894, 153, 13). La biomédica.
Figura 2 muestra la evolución de la epidemia
tomando este vector como punto de partida y Análisis de cadenas de Markov
calculando las tasas por millón para cada uno no homogéneas en tiempo discreto
de los estados de la enfermedad hasta 2024,
d)-Análisis de la evolución de la epidemia en veinte años después del inicio del estudio. Algunos modelos animales
el tiempo. La matriz de transición contiene las Para cada año, esta tasa viene dada por v×P(n) de aprendizaje utilizan un laberinto en T con
probabilidades de paso de un estado a otro en con n=1, ... , 20. un punto de salida y dos metas situadas en
un año, es decir, la probabilidad de que un su- Si la incidencia y mortali- cada uno de los extremos del laberinto. El
jeto susceptible esté infectado al año siguiente dad de VIH-SIDA no se modifica, los casos investigador define una de estas metas como
es 0,000064. Sin embargo, para conocer la de VIH y SIDA seguirán una tendencia cre- correcta, de manera que cada vez que el ani-
evolución de la epidemia es necesario calcular ciente en España. En 2024 el número de in- mal se dirige a ella obtiene un refuerzo posi-
la probabilidad de que un sujeto susceptible fectados por VIH habrá ascendido a 3744 por tivo que habitualmente suele ser comida o
actualmente pueda estar infectado dos años millón de habitantes, el número de enfermos agua (Dickinson, 1980; Domjan y Burkhard,
después. Las ecuaciones de Chapman-Kolmo- de SIDA será de 248 por millón de habitantes 1986). La repetición del experimento permite
gorov (Feller, 1968) permiten calcular estas y las muertes por SIDA llegarán a ser de 46 obtener la curva de aprendizaje utilizando ca-
probabilidades multiplicando la matriz de tran- por millón de habitantes. Estas cifras signifi- denas de Markov no homogéneas como se
sición por ella misma y obteniendo la matriz can que en 20 años el número de infecciones describe a continuación.
de transición en dos tiempos, es decir se habrá incrementado en un 29%, los casos Supongamos un modelo
de SIDA aumentarán un 62% y las muertes de aprendizaje como el anterior realizado
por la enfermedad serán un 154% superior. cinco veces consecutivas con 20 ratas adul-
Modificando el vector de tas. En cada una de las repeticiones del ex-
prevalencias iniciales se pueden obtener dife- perimento se anota el extremo del laberinto
rentes simulaciones de la evolución hipotética elegido por cada rata, definiendo la elección
de la epidemia en España. Conocer qué ocu- como correcta (C) si llevaba hasta el refuer-
Así, la probabilidad de que rriría en el futuro si la situación actual fuese zo positivo o incorrecta (I) en caso contra-
un sujeto susceptible en la actualidad esté in- diferente constituye una importante fuente de rio. El objetivo es comprobar si la rata
fectado dos años después es 0,000128 o, de información para la toma de decisiones, sien- aprende a dirigirse al brazo en el que se si-

MAR 2009, VOL. 34 Nº 3 159


túa la comida y estudiar la evolución de la Las matrices de transición
curva de aprendizaje en el tiempo. en tres y cuatro tiempos serán respectiva-
mente P(3)=P(2)×P(3) y P(4)=P(3)×P(4). El con-
a) Definición de los estados del proceso y los
cepto es similar al que se vio para las cade-
mecanismos de transición entre ellos. En el
nas de Markov homogéneas. La única dife-
modelo animal de aprendizaje, el espacio de
rencia es que entonces las matrices de transi-
estados está compuesto por dos alternativas: Figura 3. Estados en un modelo animal de apren-
ción multiplicadas eran idénticas ya que, al
elección del brazo correcto (estado 1, -C-) o dizaje en ratas.
tratarse de un proceso homogéneo, no cam-
incorrecto (estado 2, -I-). Cada vez que se re-
Al repetir el experimento biaban con el tiempo.
pite el experimento el animal puede optar por
por primera vez, 6 de las 10 ratas que ini- Las condiciones de parti-
cualquiera de las dos opciones, pudiendo repe-
cialmente eligieron el brazo correcto del da del proceso marcarán la curva de apren-
tir la misma opción varias veces consecutivas.
laberinto volvieron a elegir esta opción, por dizaje de las ratas, de manera que si inicial-
La Figura 3 muestra las posibles transiciones
lo que p11(1)=0,60. A pesar de que inicial- mente el 50% de los animales eligieron el
entre ambos estados, denominados recurrentes
mente seleccionaron el camino correcto, el brazo del laberinto correcto y el 50% el in-
puesto que aunque la rata haya elegido cual-
resto de ratas tomó el brazo incorrecto en correcto, el vector de probabilidades inicia-
quiera de ellos una vez puede volver a elegirlo
esta primera repetición, de manera que les es v=(0,50;0,50).
en otras repeticiones del experimento.
p12(1)=0,40 (Tabla II). La probabilidad de elegir el
b) Selección del modelo markoviano más De las 10 ratas que inicial- brazo correcto o incorrecto cuando el experi-
apropiado para el estudio del proceso. El mente tomaron el brazo incorrecto del laberin- mento se haya repetido n veces viene dada
experimento se realiza cinco veces consecu- to, 2 cambiaron de opción al repetir el experi- por el producto del vector de probabilidades
tivas, tomando cada repetición como un mento, por lo tanto p21(1)=0,20. Por ser com- iniciales y la matriz de transición en n tiem-
tiempo de observación. En este caso, tanto plementarios se tiene p22(1)=0,80 (Tabla II). pos, es decir, v×P(n) con n=1, 2, 3, 4.
los estados como los instantes de tiempo del La Tabla II muestra las La Figura 4 muestra la
proceso son discretos. Además el brazo del cuatro matrices de transición obtenidas en curva de aprendizaje de las ratas, donde se
laberinto que elija la rata en la siguiente re- cada una de las repeticiones del experi- observa una tendencia creciente a elegir el
petición del experimento dependerá sólo de mento, cuya interpretación es similar a la brazo correcto a medida que se repite el ex-
la elección actual, pero no de las decisiones que se acaba de hacer. perimento. Tras cuatro repeticiones, la pro-
pasadas. Por ello, el proceso estocástico es babilidad de que una rata elija el brazo del
una cadena de Markov discreta. d) Análisis de la evolución del aprendizaje. Al laberinto que le lleva hasta el refuerzo posi-
Si la repetición del experi- igual que en el caso de las cadenas de Markov tivo es 0,90. El 10% de los animales elegi-
mento hace que el animal aprenda a elegir el homogéneas, las ecuaciones de Chapman-Kol- rán la opción contraria.
camino correcto, la probabilidad de acertar en mogorov (Feller, 1968) permiten calcular la
matriz de transición en n tiempos, dada por Cadenas de Markov en Tiempo Continuo
la siguiente repetición si la elección anterior
fue errónea no será la misma al inicio que al P(n). Con ella es posible conocer la probabi- En ocasiones, los cambios
final del experimento. Bajo esta hipótesis, las lidad de que una rata elija el brazo correc- de estado de una variable pueden producirse
probabilidades de transición entre estados no to del laberinto la vez n que se repite el en cualquier momento, no solo en tiempos
serán constantes en el tiempo, por lo que la experimento (tiempo n) si en la primera re- discretos, de manera que el proceso estocás-
cadena de Markov discreta será además no petición (tiempo 1) elige el brazo incorrec- tico queda representado por una sucesión de
homogénea. Habrá por tanto una matriz de to. Esta matriz de transición en n tiempos valores X(t) que representan el valor de la
transición para cada una de las repeticiones está dada por el producto de todas las ma- variable X en cualquier instante de tiempo
del experimento. trices de transición anteriores al tiempo n, es t, con t≥0.
decir, P(n)=P(1)×P(2)×...×P(n). Así, la matriz De forma análoga a las ca-
c) Determinación de las probabilidades de de transición en 2 tiempos viene dada por denas de Markov discretas, si el proceso es
transición entre estados. En modelos de este markoviano las probabilidades de transición
tipo, las probabilidades de transición suelen de un estado a otro quedan ahora definidas
estimarse mediante estudios longitudinales di- por pij(t, t+h)=P[X(t+h)=j|X(t)=i]i,j= 1, 2,..., m.
señados para llevar a cabo el objetivo. En este Así, si en el tiempo t la
caso el experimento se realizó en 20 ratas, de de manera que si una rata que elige el brazo variable se encuentra en el estado i, pij(t,
las cuales 10 (50%) eligieron el brazo del la- incorrecto del laberinto la primera vez que se t+h) es la probabilidad de que entre t y
berinto correcto en la prueba inicial (Tabla II). repite el experimento, la probabilidad de elegir t+h se produzca un cambio al estado j,
Las 10 obtuvieron el refuerzo positivo. correctamente la segunda vez es p(2)21 =0,49. siendo h un incremento de tiempo muy pe-

TABLA II
MATRICES DE TRANSICIÓN EN UN MODELO ANIMAL DE APRENDIZAJE ESPACIAL EN RATAS
Probabilidades Primera repetición Segunda repetición Tercera repetición Cuarta repetición
iniciales
Tiempo 1 Tiempo 2 Tiempo 3 Tiempo 4
-P(1)- -P(2)- -P(3)- -P(4)-
C I C I C I C I C I
C 6 (0,60) 4 (0,40) 10 C 6 (0,75) 2 (0,25) 8 C 9 (0,82) 2 (0,18) 11 C 14 (0,93) 1 (0,07) 15
I 2 (0,20) 8 (0,80) 10 I 5 (0,42) 7 (0,58) 12 I 6 (0,67) 3 (0,33) 9 I 4 (0,80) 1 (0,20) 5
10 (0,50) 10 (0,50) 20 8 12 20 11 9 20 15 5 20 18 2 20
Nota: Datos simulados con propósitos didácticos. Las celdas de cada matriz contienen el número de ratas que han pasado de un estado a otro. En-
tre paréntesis aparecen las probabilidades de transición.

160 MAR 2009, VOL. 34 Nº 3


queño cercano a 0. En definiti- cualquier caso, el manejo de
va se trata de probabilidades estos programas requiere al-
de transición instantáneas. gunos conocimientos de pro-
En el proceso descrito, el gramación informática, espe-
valor de estas probabilidades cialmente si se desea imple-
de transición depende del ins- mentar nuevos macros aún
tante t en el que se produce el no desarrolladas por otros au-
salto, es decir, la probabilidad tores.
instantánea de pasar del estado Otros programas específi-
i al estado j es diferente en los cos como Relex Markov
tiempos t=0, t=1,72, t=4,21, (www.relex.com), DecisionPro
etc. Se tendrá por tanto una (www.vanguardsw.com) o
cadena de Markov continua no TreeAge Pro (www.treeage.
homogénea. Sin embargo, si com) han sido diseñados ex-
las probabilidades de transi- clusivamente para el análisis
ción entre estados no dependen de cadenas de Markov. Son
del tiempo se tendrá una cade- programas fáciles de utilizar;
na de Markov continua homo- sin embargo, algunos de ellos
génea o estacionaria, en cuyo están enfocados únicamente al
caso pij(h)=P[X(t+h)=j|X(t)=i] Figura 4. Curva de aprendizaje en un modelo experimental de aprendizaje espa-
análisis de cadenas de Markov
cial en ratas.
i,j= 1, 2,..., m. en tiempo discreto.
Ambos tipos El uso de
de modelos, homogéneos y no homogé- Aspectos Adicionales en el Análisis de uno u otro software dependerá en gran me-
neos, se han aplicado en estudios de gené- Modelos de Markov dida de la complejidad del estudio y de las
tica (De Gruttola y Foulkes, 2004; Tyvand necesidades del investigador (Hazen, 2002;
y Thorvaldsen, 2006), investigaciones so- Para aplicar los métodos descritos ante- Adalsteinsson et al., 2004).
bre la carga viral de pacientes con VIH riormente es necesario verificar que el proce-
(Mathieu et al., 2005) o variaciones en el so cumple la propiedad de Markov. Con las AGRADECIMIENTOS
estado de personas asmáticas (Combescure parametrizaciones adecuadas, cualquier pro-
et al., 2003; Saint-Pierre et al., 2006), en- ceso estocástico puede expresarse como un Humana Press, a través de
tre otros. Sin embargo, la estimación de las modelo lineal generalizado autoregresivo Springer Rights and Permissions, ha autoriza-
probabilidades de transición y los gráficos donde los valores pasados actúan como va- do la traducción y el uso de material proce-
de la evolución del proceso en el tiempo riables explicativas del estado actual del pro- dente de Ricardo Ocaña-Riola (2008) para
no son tan sencillos de obtener como en ceso (Hardin y Hilbe, 2006). Para comprobar este trabajo.
las cadenas de Markov discretas, especial- si la cadena es de Markov bastará con verifi-
mente para los modelos no homogéneos. car que todos los coeficientes de regresión REFERENCIAS
En las últimas décadas, del modelo son 0 excepto el que corresponde
muchos autores han propuesto diferentes al estado del proceso en el instante de tiem- Adalsteinsson D, McMillen D, Elston TC (2004)
técnicas de análisis para este tipo de pro- po anterior, en cuyo caso se tendrá un mode- Biochemical Network Stochastic Simulator
cesos estocásticos, entre las que se en- lo autoregresivo de primer orden equivalente (BioNetS): Software for stochastic modeling
of biochemical networks. BMC Bioinformat-
cuentran la resolución de ecuaciones dife- a la propiedad de Markov. ics 5: 24.
renciales (Feller, 1968; Drake, 1988), al- En general, las cadenas de Alexandersson M, Cawley S, Pachter L (2003) SLAM:
goritmos basados en datos de panel (Kal- Markov homogéneas son más fáciles de mo- Cross-species gene finding and alignment with a
bfleisch y Lawless, 1985; Ocaña-Riola, delar que las no homogéneas. Sin embargo, no generalized pair hidden Markov model. Genome
2005), métodos paramétricos y aproxima- es buena práctica asumir la homogeneidad del Res. 13: 496-502.
ciones no paramétricas (Frydman, 1992; proceso sin una comprobación previa que ga- Arvin AM, Gershon AA (2001) Varicella-Zoster Vi-
Commenges, 2002). Muchos de estos mé- rantice el uso apropiado de modelos estaciona- rus: Virology and Clinical Management. Cam-
bridge University Press. Cambridge, RU. 556 pp.
todos están basados en complejas ecuacio- rios. El test propuesto por Kalbfleisch y
nes matemáticas que no se encuentran in- Lawless (1985) suele ser el más utilizado para Basharin GP, Langville AN, Naumov VA (2004) The
life and work of A.A. Markov. Lin. Alg. Appl.
corporadas en los programas informáticos verificar esta hipótesis. En él se compara el 386: 3-26.
habituales para el análisis de datos biomé- número de transiciones observadas en cada Berg AT, Lin J, Ebrahimi N, Testa FM, Levy SR,
dicos, motivo por el que en los últimos tiempo con el número de transiciones espera- Shinnar S (2004) Modelling remission and re-
años se están desarrollando macros espe- das bajo la hipótesis de homogeneidad, obte- lapse in pediatric epilepsy: application of a Mark-
cíficos que permitan aplicar algunos de niendo un test de razón de verosimilitudes ba- ov process. Epilepsy Res. 60: 31-40.
estos modelos con un menor esfuerzo sado en la distribución Chi-cuadrado. Cañas EJ, García-León FJ, Andérica-Frías G (2003)
(Hui-Min et al., 2004). Cualquier software que Epidemiología de la infección VIH y SIDA. En
Pachón J, Pujol E, Rivero A (Eds) La Infección
Actualmente, tanto las ca- permita programar macros puede ser utiliza- por el VIH: Guía Práctica. 2ª ed. Sociedad An-
denas de Markov en tiempo continuo como do para el análisis de cadenas de Markov de daluza de Enfermedades Infecciosas. Sevilla, Es-
los procesos de Markov con espacio de es- cualquier tipo. SAS (www.sas.com), Stata paña. 614 pp.
tados continuos constituyen importantes lí- (www.stata.com), SPLUS (www.insightful. Carey JR, Liedo P, Müller HG, Wang JL, Zhang Y,
neas de investigación, siendo de especial in- com) o R (www.r-project.org) suelen ser los Harshman L (2005) Stochastic dietary restriction
terés el desarrollo de nuevos métodos de programas informáticos más usados para este using a Markov chain feeding protocol elicits
complex, life history response in medflies. Aging
estimación y la implementación de software propósito, con la ventaja de que para algunos Cell 4: 31-39.
específico que facilite el análisis de la infor- de ellos ya existen rutinas específicas a dis- Chen WY, Bokka S (2005) Stochastic modelling of
mación (Karatzas y Schreve, 1991; Tuer­ posición de los investigadores interesados nonlinear epidemiology. J. Theor. Biol. 234: 455-
linckx et al., 2001; Lindsey, 2004). (Hui-Min et al., 2004; Lindsey, 2004). En 470.

MAR 2009, VOL. 34 Nº 3 161


CNE (2005) Valoración de la epidemia de VIH en Hardin J, Hilbe J (2006) Generalized Linear Models Ocaña-Riola R (2008) Markov processes for bio-
España a partir de los sistemas de notificación and Extensions. 2a ed. State Press. College Sta- medical data analysis. En Conn M (Ed.)
de casos de las Comunidades Autónomas. tion, TX, EEUU. 387 pp. Source Book of Models for Biomedical Re-
Centro Nacional de Epidemiología. Madrid, Es- Hazen GB (2002) Stochastic trees and the StoTree mod- search. Humana. Nueva Cork, NY, EEUU. pp.
paña. 6 pp. eling environment: Models and software for medical 739-745.
Combescure C, Chanez P, Saint-Pierre P, Daures JP, decision analysis. J. Med. Syst. 26: 399-413. Saint-Pierre P, Bourdin A, Chanez P, Daures JP,
Proudhon H, Godard P (2003) Assessment of Hui-Min W, Ming-Fang Y, Chen TH (2004) SAS Godard P (2006) Are overweight asthmatics
variations in control of asthma over time. Eur. macro program for non-homogeneous Markov more difficult to control? Allergy 61: 79-84.
Respir. J. 22: 298-304. process in modelling multi-state disease progres- Thompson H, Sporn MB (2002) Mammary cancer
Commenges D (2002) Inference for multi-state models sion. Comput. Meth. Progr. Biomed. 75: 95-105. in rats. En Teicher BA (Ed.) Tumor Models in
from interval-censored data. Stat. Meth. Med. Hurd HS, Kaneene JB (1993) The application of simu- Cancer Research. Humana Press. Totowa, NJ,
Res. 11: 167-182. lation models and systems analysis in Epidemiol- EEUU. pp. 173-181.
De Gruttola V, Foulkes AS (2004) Validation and dis- ogy: A review. Prev. Vet. Med. 15: 81-99. Trajstman AC (2002) A Markov chain model for
covery in Markov models of genetics data. Stat. Kalbfleisch JD, Lawless JF (1985) The analysis of Newcastle disease and its relevance to the in-
Appl. Genet. Mol. Biol. 3: Article 38. panel data under a Markov assumption. J. Am. tracerebral pathogenicity index. Biometr. J.
Stat. Assoc. 80: 863-871. 44: 43-57.
Dickinson A (1980) Contemporary Animal Learning
Theory. Cambridge University Press. Cambridge, Karatzas I, Schreve SE (1991) Brownian Motion and Tuerlinckx F, Maris E, Ratcliff R, De Boeck P
RU. 188 pp. Stochastic Calculus, 2a ed. Springer. Nueva York, (2001) A comparison of four methods for si-
NY, EEUU. 470 pp. mulating the diffusion process. Behav. Res.
Domjan M, Burkhard B (1986) The Principles of Meth. Instr. Comput. 33: 443-456.
Learning and Behavior. Brooks-Cole. Monterrey, Kopycka-Kedzierawski DT, Billings RJ (2006) Appli-
cation of nonhomogeneous Markov models for Tyvand PA, Thorvaldsen S (2006) Markov model
CA, EEUU. 448 pp.
analysing longitudinal caries risk. Commun. of haploid random mating with given distribu-
Drake AW (1988) Fundamentals of Applied Probabil- Dent. Oral. Epidemiol. 34: 123-129. tion of population size. Bull. Math. Biol. 68:
ity Theory. McGraw-Hill. Nueva York, NY, Lindsey JK (2004) Statistical analysis of stochastic 807-819.
EEUU. 256 pp. processes in time. Cambridge University Press. Uchida G, Fukuda M, Tanifuji M (2006) Correla-
EuroHIV (2005) HIV/AIDS Surveillance in Europe Cambridge, RU. 338 pp. ted transition between two activity state of
(End-year report 2004). Institut de Veille Sani- Mathieu E, Loup P, Dellamonica P, Daures JP (2005) neurons. Phys. Rev. E. Stat. Nonlin. Soft.
taire. Saint-Maurice, Suecia. 72 pp. Markov modelling of inmunological and virologi- Matt. Phys. 73(3 Pt 1).
Feller WF (1968) An Introduction to Probability The- cal states in HIV-1 infected patients. Biometr. J. Yang HC, Chao A (2005) Modelling animal’s be-
ory and its Applications, 3a ed., vol. I. Wiley. 47: 834-846. havioural response by Markov chain models
Nueva York, NY, EEUU. 509 pp. Norris JR (1998) Markov Chains. Cambridge Univer- for capture-recapture experiments. Biometrics
Frydman H (1992) A nonparametric estimation proce- sity Press. Cambridge, RU. 256 pp. 61: 1010-1017.
dure for a periodically observed three‑state Mark- Ocaña-Riola R (2005) Non-homogeneous Markov Zhai J, Morris RW (2005) A Markov chain model
ov process with application to AIDS. J. Roy. Stat. processes for biomedical data analysis. Biometr. for animal estrus cycling data. Biometrics 61:
Soc. B 54: 853-866. J. 47: 369-376. 141-150.

MARKOV MODELS APPLIED TO HEALTH SCIENCES RESEARCH


Ricardo Ocaña-Riola
SUMMARY

Many variables of interest in health sciences change with time. theoretical and applied research line. This paper shows some of the
Understanding their evolution and predicting their future status Markov models that are currently the most widely used in the fields
under certain initial conditions provide key information that is ex- of health sciences. The content has been drafted with particular em-
tremely useful in health research, health management and health phasis on the main techniques for analysis, interpretation of results,
care. Stochastic processes are sequences of random variables which the usefulness of the models and software available for applications.
change over time and Markov models study the evolution of any pro- From a practical standpoint, four essential aspects are taken into
cess where its future status will depend on its present status alone, account in data analysis based on Markov models: definition of the
but not on its past history. Since the beginning of the XX century process states and their transitions, selection of the best model, esti-
there have been numerous applications of this type of processes in mation of transition probabilities between states, and description of
health sciences. Today, these kinds of models are an interesting the process temporal evolution.

Modelos de Markov aplicados À investigaÇÃO em CiÊncias da SaúdE


Ricardo Ocaña-Riola
RESUMO

Em ciências da saúde, muitas variáveis de interesse mostram mu- sendo uma línha de investigação de interesse na atualidade tanto a
danças no tempo. Predizer que valor futuro alcançará uma variável nivel teórico como aplicado. O objetivo deste trabalho é mostrar os
sob determinadas condições iniciais constitui uma importante fonte modelos markovianos utilizados com maior frequência em ciências
de informação para a investigação básica e aplicada, igual que para da saúde, prestando especial atenção aos métodos de estimação, a
a tomada de decisões na gestão de serviços de saúde e a atenção interpretação de resultados e o software disponível para sua apli-
sanitária. Os processos estocásticos são sequências de variáveis ale- cação. Desde o ponto de vista prático se abordam quatro aspectos
atórias observadas em sucessivos instantes de tempo, e os modelos fundamentais para realizar análises de dados basaedos em modelos
de Markov permitem estudar a evolução temporal de qualquer pro- de Markov, a saber: definição dos estados do processo e os meca-
cesso cujo estado futuro dependa somente do estado em que se en- nismos de transição entre eles, seleção do modelo mais apropriado,
contre no presente, mas não de sua história passada. Desde o início determinação das probabilidades de transição entre estados e des-
do seculo XX suas aplicações no âmbito sanitário têm sido múltiplas, crição da evolução temporal do processo.

162 MAR 2009, VOL. 34 Nº 3

You might also like