You are on page 1of 35

INGENIERA DE

SISTEMAS












APLICACIN DE LA CADENA DE MARKOV

CURSO : INVESTIGACIN OPERATIVA II
DOCENTE : ING. SOSA PALOMINO ALCIBADES



INTEGRANTES :
ELAS MORE, EVER.
MANYA REQUENA, ROCI.
MUOZ QUISPE, JAVIER.
ORTIZ PIMENTE, ROSMEL.
ZORRILLA GRADOS, MARCO.




HUACHO
2010
AUTOVAGEN AUTOMOTRIZ HORNA

INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 2

























DEDICATORIA:

A todos aquellos que nos brindan su apoyo da a
da para nuestra superacin acadmica
profesional, y velan por nuestro bienestar de
manera desinteresada.


INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 3


NDICE

DEDICATORIA: ............................................................................................................................... 2
INTRODUCCIN ............................................................................................................................. 4
PRESENTACIN .............................................................................................................................. 5
OBJETIVOS ..................................................................................................................................... 6
CAPITULO I: ................................................................................................................................... 7
MARCO TERICO ........................................................................................................................... 7
I.- MODELO DE MARKOV ............................................................................................................... 8
II.- CADENAS DE MARKOV ............................................................................................................. 9
III.- CADENA INFINITA DE MARKOV ............................................................................................. 11
IV.- CADENA FINITA DE MARKOV ................................................................................................ 17
CAPITULO II: ................................................................................................................................ 20
SITUACION ACTUAL DE LA EMPRESA .......................................................................................... 20
LA EMPRESA ................................................................................................................................ 21
RESEA HISTRICA.................................................................................................................. 22
VISIN ..................................................................................................................................... 23
MISIN .................................................................................................................................... 23
VALORES .................................................................................................................................. 24
SERVICIOS ................................................................................................................................ 25
PRODUCTOS ............................................................................................................................ 26
CAPITULO III:. 28
PROBLEMA 1. 29
PROBLEMA 2. 32
CONCLUSIONES.. 35
BIBLIOGRAFIA...36




INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 4










INTRODUCCIN


El presente trabajo pretende mostrar la aplicacin de las cadenas de Markov en el los procesos
de la AUTOMOTRIZ HORNA.









INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 5



PRESENTACIN

El presente trabajo de investigacin tiene como objetivo aplicar los modelos de
Markov a la empresa AUTOVAGEN AUTOMOTRIZ HORNA, con la finalidad de
contribuir en el conocimiento y proyeccin, as como la toma de decisiones de la
empresa.
Como sabemos muchas de las variables analizadas en una investigacin,
muestran valores que cambian en el tiempo. En el Modelo de Markov los valores que
pueden tomar las variables se llaman estados, de manera que durante la evolucin en
el tiempo el proceso estar sujeto a cambios de estado o transiciones entre diferentes
estados. Por lo que al realizar el presente trabajo y apoyados en los modelos de
Markov pretendemos de alguna manera predecir el estado en el que se encontrara el
proceso en el futuro a partir de la informacin del presente y pasado.
En la empresa AUTOVAGEN AUTOMOTRIZ HORNA, muchas variables toman
diferentes valores en el tiempo, por ejemplo un cliente, los autos, las maquinas que se
utilizan en la empresa, las herramientas, los mecnicos, etc. Sin embargo en el
presente trabajo solo analizaremos a los clientes y herramientas, con el fin de predecir
el comportamiento del cliente y el valor de las herramientas del taller, con tales
anlisis y resultados se le prever informacin la empresa, permitindole anticiparse a
los hechos y con mejores decisiones para el bienestar de la empresa.



INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 6



OBJETIVOS


GENERAL:
Aplicar nuestros conocimientos sobre las cadenas de Markov para determinar el
comportamiento de los clientes a futuro en cada proceso de la empresa AUTOMOTRIZ
HORNA.


ESPECIFICOS:
- Mostrar que el proceso es una cadena de Markov.
- Construir la matriz de transicin.
- Mostrar que los estados son accesibles.
- Mostrar que los estados se comunican.
- Mostrar que los estados son recurrentes.
- Mostrar que los estados son aperidicos.
- Determinar el polinomio caracterstico y los valores propios.
- Determinar la regularidad de la matriz.
- Determinar el vector propio para el valor propio = 1.
- Presentar las probabilidades de estado estable.
- Presentar los tiempos de: recurrencia y primera ocurrencia.











INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 7



CAPITULO I:

MARCO TERICO














INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 8


I.- MODELO DE MARKOV

Una cadena de Markov, que recibe su nombre del matemtico ruso Andrei
Andreevitch Markov (1856-1922), es una serie de eventos, en la cual la probabilidad de
que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas
de este tipo tienen memoria. "Recuerdan" el ltimo evento y esto condiciona las
posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a
las cadenas de Mrkov de las series de eventos independientes, como tirar una
moneda al aire o un dado.

Este tipo de proceso, introducido por Mrkov en un artculo publicado en 1907,[1]
presenta una forma de dependencia simple, pero muy til en muchos modelos, entre
las variables aleatorias que forman un proceso estocstico. En los negocios, las
cadenas de Mrkov se han utilizado para analizar los patrones de compra de los
deudores morosos, para planear las necesidades de personal y para analizar el
reemplazo de equipo.

DEFINICIN:
Un modelo oculto de Markov es un modelo estadstico en el que se asume que el
sistema a modelar es un proceso de Markov de parmetros desconocidos. El objetivo
es determinar los parmetros desconocidos (u ocultos, de ah el nombre) de dicha
cadena a partir de los parmetros observables. Los parmetros extrados se pueden
emplear para llevar a cabo sucesivos anlisis, por ejemplo en aplicaciones de
reconocimiento de patrones. Un HMM se puede considerar como la red bayesiana
dinmica ms simple.

En un modelo de Markov normal, el estado es visible directamente para el observador,
por lo que las probabilidades de transicin entre estados son los nicos parmetros. En
un modelo oculto de Markov, el estado no es visible directamente, sino que slo lo son
las variables influidas por el estado. Cada estado tiene una distribucin de probabilidad
sobre los posibles smbolos de salida. Consecuentemente, la secuencia de smbolos
generada por un HMM proporciona cierta informacin acerca de la secuencia de
estados.
Los modelos ocultos de Markov son especialmente aplicados a reconocimiento de
formas temporales, como reconocimiento del habla, de escritura manual, de gestos o
bioinformtica.

El modelo de Markov va a caracterizar el desarrollo secuencial tecnolgico mediante
dos parmetros probabilsticos: la secuencia de los desarrollos y el tiempo entre
desarrollos sucesivos. Estos dos parmetros se pueden representar con los conceptos
transicin de estados y tiempo de permanencia en el estado.
Se dice que un proceso es de Markov cuando verifica la propiedad de Markov: la
evolucin del proceso depende del estado actual y del prximo, y no de anteriores o
posteriores.
INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 9


II.- CADENAS DE MARKOV

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que
ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de
este tipo tienen memoria. Recuerdan" el ltimo evento y esto condiciona las
posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a
las cadenas de Markov de las series de eventos independientes. Las probabilidades de
transicin son constantes.

Una cadena de Markov q = {q
t
}
teN
es un proceso estocstico de Markov discreto. Un
proceso estocstico se llama de Markov si conocido el presente, el futuro no depende
del pasado, esto quiere decir, que dada una variable estocstica q
t-1
que denota el
estado del proceso en el tiempo t-1, entonces la probabilidad de transicin en el
momento t se define como:
P[q
t
= o
t
| q
t-1
= o
t-1
]

APLICACIONES
a) Fsica
Las cadenas de Markov son usadas en muchos problemas de la termodinmica y la
fsica estadstica. Ejemplos importantes se pueden encontrar en la Cadena de
Ehrenfest o el modelo de difusin de Laplace.

b) Meteorologa

Si consideramos el clima de una regin a travs de distintos das, es claro que el estado
actual solo depende del ltimo estado y no de toda la historia en s, de modo que se
pueden usar cadenas de Markov para formular modelos climatolgicos bsicos.

c) Modelos epidemiolgicos

Una importante aplicacin de las cadenas de Markov se encuentra en el proceso
Galton-Watson. ste es un proceso de ramificacin que se puede usar, entre otras
cosas, para modelar el desarrollo de una epidemia (vase modelaje matemtico de
epidemias).

d) Internet

El pagerank de una pgina web (usado por google en sus motores de bsqueda) se
define a travs de una cadena de Markov, donde la posicin que tendr una pgina en
el buscador ser determinada por su peso en la distribucin estacionaria de la cadena.

e) Simulacin

Las cadenas de Markov son utilizadas para proveer una solucin analtica a ciertos
problemas de simulacin tales como el Modelo M/M/1.

INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 10


f) Juegos de azar

Son muchos los juegos de azar que se pueden modelar a travs de una cadena de
Markov. El modelo de la ruina del jugador, que establece la probabilidad de que una
persona que apuesta en un juego de azar eventualmente termine sin dinero, es una de
las aplicaciones de las cadenas de Markov en este rubro.

g) Economa y Finanzas

Las cadenas de Markov se pueden utilizar en modelos simples de valuacin de
opciones para determinar cundo existe oportunidad de arbitraje, as como en el
modelo de colapsos de una bolsa de valores o para determinar la volatilidad de
precios.

h) Msica

Diversos algoritmos de composicin musical usan cadenas de Markov, por ejemplo el
software Csound o Max

MODELO MATEMTICO:
Notacin:
- Pij: Probabilidad de cambiar del estado i al estado j.
- P : Matriz formada por los valores de Pij (Matriz de transicin)
- S
i
(t): Probabilidad de encontrarse en el estado i en el periodo t.
- S(t): Vector d e probabilidad de estado en el periodo t.

Planteamiento:
( ) ( ) ( ) 1 ..... ..........
2
= + + + t S t S t S
n i
. n estados
1 .. ..........
2 1
= + + +
in i i
P P P

La transicin de un periodo al siguiente se expresa como:
( ) ( )P t S t S = +1

Para el primer periodo :
P S S ) 0 ( ) 1 ( =

Para el segundo periodo :
2
) 0 ( ) 1 ( ) 2 ( P S P S S = =

En general :
t
P S t S ) 0 ( ) ( =

INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 11


Formalmente, una cadena de Markov se define como (Q,A), donde Q = {1,2,,...,N} son
los posibles estados de la cadena y A = (a
ij
)
nxn
es una matriz de transicin de estados en
el modelo.
Si A(t) = a
ij
(t)
nxn
es independiente del tiempo entonces el proceso se llama homogneo
y las probabilidades de transicin de estados son de la forma a
ij
(t) = P[q
t
= j | q
t-1
= i]
con las siguientes propiedades:


La condicin fundamental de que sea una cadena de Markov establece que las
probabilidades de transicin y emisin dependen solamente del estado actual y no del
pasado, esto es, P[q
t
= j | q
t-1
= i,q
t-2
= k, ... ] = P[q
t
= j | q
t-1
= i] = a
ij
(t).

Por ejemplo, la secuencia resultante de lanzar una moneda k veces es un proceso
estocstico. Los estados del sistema son dos: cara y sello. Estos a su vez conforman el
espacio muestral pues son el conjunto de todos los estados posibles de nuestro
experimento.

III.- CADENA INFINITA DE MARKOV

Un modelo de Markov consiste en un conjunto de estados discretos. Este conjunto es
exhaustivo y describe todos los posibles estados donde el sistema puede estar. La
transicin del estado i a j ocurre con una probabilidad p
ij.

Podemos pensar en un modelo de Markov como una simple lnea de transferencia. Se
puede pensar en dos mquinas y en un inventario. Cada mquina es descrita por su
tiempo de operacin, su tiempo para la falla y su tiempo para la reparacin. El tiempo
de proceso se refiere a la cantidad de tiempo en que demora hacer una parte. El
tiempo para la falla, es el tiempo que ocurre entre la ltima reparacin y el siguiente
dao. El tiempo para reparacin, es el tiempo que transcurre entre el ultimo dao y el
momento en que la mquina est disponible para operar. Estas cantidades pueden ser
determinanticas, en estos casos se obtienen estados discretos y una cadena de Markov
con transiciones discretas(o tiempos discretos en la cadena de Markov). Tambin
puede ser continuo con variables aleatorias.

Se asume que la primera mquina nunca deja de ser alimentada y la ultima maquina
nunca es bloqueada.

Se modela para una maquina y as tener una idea bsica de la cadena de Markov. En
este caso el estado de la maquina se describe por su estatus, Wi, donde:

INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 12



Wi =
1 mquina disponible
0 mquina e reparacin



M1


Inventario


M2
La cadena se puede representar as:
Donde de 0 a 1 se da la probabilidad de repararse.
Donde de 1 a 0 se da la probabilidad de falla.


0




1
Estas probabilidades se obtienen al observar las mquinas en operacin por un largo
periodo de tiempo. Estos datos se pueden recopilar para determinar que porcentaje
de tiempo la mquina est siendo reparada e igual para el porcentaje de tiempo que la
mquina esta disponible para el trabajo.
Ahora los estados de este proceso consisten en el estatus de cada mquina ms la
cantidad de material presente en el sistema. Especficamente, el estado del sistema es:

S=(n,W1,W2),
Donde:
n= # de piezas en inventario + # piezas en la mquina 2 0<=n<=N
Ya que n, W1 y W2 son enteros, el sistema es descrito por un conjunto de estados
mutuamente excluyentes y colectivamente exhaustivos S1, S2,......., Sm. Entonces el
sistema puede estar solo en uno de estos estados en algn instante de tiempo dado.

El sistema puede experimentar un cambio de estado(o una transicin de estado) en un
instante de tiempo discreto de acuerdo a un conjunto de probabilidades. Permitamos
que P[Si(k)]= probabilidad que el sistema este en el estado Si en el tiempo k.
Ahora se puede decir que un cambio de estado ocurrir con probabilidad, P[Sj(k)]/Sa(k-
1), Sb(k-2), Sc(k-3).......] 1<=j,a,b,c<=m k = 1,2,3....
Lo anteriores denota como la probabilidad de transicin. Note que (j) podr ser igual a
(a), para el caso en que no cambie de estado.

INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 13


LA CONDICIN DE MARKOV:
Si P[Sj(k) / Sa(k-1), Sb(k-2), Sc(k-3).....] = P[Sj(k) / Sa(k-1)] para todo k, j,a, b, c,.....
Entonces el sistema es un estado discreto de discretas transiciones de procesos de
Markov. La implicacin de esta condicin es que la historia anterior del sistema a su
llegada en (a) no tiene efecto en la transicin a (j). En otras palabras, el sistema no
tiene memoria.


PROBABILIDADES DE TRANSICIN:
Para una cadena de Markov, se definen las probabilidades de transicin como:

p
ij
= P[Sj(k) / Si(k-1)] 1<= i,j <= m

las p
ij
son independientes de (k). Estas probabilidades pueden ser incluidas en una
matriz de transicin:


P11 P12 ........................ P1m
P21 P22 ........................ P2m
P= . . . .
. . . .
Pm1 Pm2 ........................ Pmm

Tambin note que las transiciones de
probabilidad satisfacen 0<=p
ij
<=1 y

M
p
ij
=1, i = 1,2,3...........,m
.j=1


Debido a que los estados son mutuamente excluyentes y colectivamente exhaustivos.
La matriz P, proporciona una completa descripcin del proceso de Markov el cual se
usara para responder numerosas preguntas sobre el sistema. Por ejemplo,

Q1. Cul es la probabilidad que el sistema este en Si despus de k transiciones si el
estado en k=0 es conocido?

INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 14


Se puede responder la pregunta as:
P[Sj(k+1)]=P[S1(k)p
1j
+P[S2(k)]p
2j
+......+P[Sm(k)]p
mj
,

- Donde P[Sj(k+1)]=probabilidad que el sistema este en el estado Sj en el tiempo
k+1.

- En la ecuacin anterior, j=1,2,.....,m.Si se escriben todos las m, se puede
representar en forma matricial y obtener:

(P*S1(k+1)+ P*S2(k+1)+.P*Sm(k+1)+)



P11 P12 ................. P1m
P21 P22 ................. P2m
=(P*S1(k+1)+ P*S2(k+1)+.P*Sm(k+1)+) . . ................. .
. . ................. .
Pm1 Pm2 ................. Pmm
O de la siguiente forma:
P(k+1) = P(k)P , k=0,1,2......
Para responder a la pregunta Q1 por induccin,

P(1) =

P(0)P

P(2)=

P(1)P=

P(0)P
2
. . .
. . .
P(k) = P(0)P
k

k=0,1,2......

Por ejemplo si se tiene la siguiente cadena de Markov de dos estados


INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 15








De los estados del diagrama tenemos la siguiente matriz:

0.5 0.5

0.4 0.6
P=


Para encontrar P(k), se necesita P
k
, que puede ser encontrada con una tcnica como la
de Cayley-Hamilton(este modelo es aplicado para una matriz 2x2, no se sabe cual es el
modelo para otro tipo de matriz).

P
k
= ((0.1)
k-1
-1)I + (10-(0.1)
k-1
)P
9 9

Donde I es la matriz identidad. P
k
puede ser evaluada para un k especfico, entonces:
P(k) = P(0)P
k


En un caso de inters particular es en el que k tiende al infinito. Para este ejemplo:
4/9 5/9

4/9 5/9
P
k
=


Con k tendiendo al infinito.
0.5
0.5

1

2

0.4
0.6
INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 16


Claramente, P
k
llega a una constante. Esto conlleva a otra propiedad la que puede ser
vista con el rotulo de P(0)=(1 0). Entonces P
k
=[4/9 5/9] con k tendiendo al infinito.
Similarmente, si P(0)=(0 1), entonces P(k) con k tendiendo al infinito sigue siendo
igual. As, los limites de las probabilidades de estado son independientes del estado
inicial. Muchos procesos de Markov presentan esta propiedad y son relacionados
como procesos ergdicos.

CLASIFICACIN DE LOS ESTADOS
Lmite de las probabilidades de estado:

Si k tiende a infinito, P(k) llega a una constante, entonces el limite de las
probabilidades de estado existe y son independientes de la condicin inicial.

Estado transitorio:

S
i
es un estado transitorio si se puede dejar el estado pero nunca retornar a l.

Estado absorbente

S
i
es un estado absorbente si el sistema entra al estado y permanece ah. Y el
lmite de la probabilidad de estado es 1. este estado es conocido tambin como
estado trampa.

Cadena recurrente

Una cadena recurrente es un conjunto de estados de los que el sistema no puede
salir. Un estado transitorio conduce al sistema dentro de este conjunto de
estados. El sistema hace saltos dentro de este conjunto indefinidamente. La
cadena recurrente es tambin llamada subcadena de Markov irreducible o de
clases recurrentes.

Finalmente se presentan unos tiles factores de las cadenas de Markov:
Cada cadena de Markov debe tener al menos una cadena recurrente
Una cadena recurrente es un estado absorbente generalizado
Un estado transitorio es un estado que ocupa el sistema antes de convertirse en
una cadena recurrente




INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 17


IV.- CADENA FINITA DE MARKOV

Se denomina cadena finita de Markov a un proceso estocstico consistente en una
sucesin de pruebas cuyos resultados X
1
, X
2
, ... satisfacen las dos propiedades
siguientes:

1. cada resultado pertenece a un conjunto finito de estados
{ }
m
S S S S , , , ,
3 2 1
llamado espacio de estados del sistema; si el resultado
de la n-sima prueba es
i
S decimos que el sistema est en el estado
i
S en la vez n
o en el paso n-simo.

2. el resultado de una prueba depende slo del resultado de la prueba
inmediatamente precedente y no de cualquier otro resultado previo; con cada par
de estados (
j i
S S , ) se establece la probabilidad
ij
p de que
j
S suceda
inmediatamente despus de que suceda
i
S . Los nmeros
ij
p llamados
probabilidades de transicin pueden ordenarse en una matriz:


(
(
(
(

=
mm m m
m
m
p p p
p p p
p p p
P

2 1
2 22 21
1 12 11

Llamada matriz de transicin, que se considera que permanece igual a travs
del tiempo.
El vector de probabilidad que representa la situacin inicial se denomina vector de
estado inicial:
0
p . Si se multiplica por la matriz P se obtiene el vector
1
p que
representa la situacin en el momento o paso 1. Al multiplicar nuevamente por la
matriz P se obtiene el vector
2
p que refleja la situacin en el momento o paso 2 y as
sucesivamente. Como
3
0
2
0 2 3
2
0 0 1 2 0 1
, , P p P P p P p p P p PP p P p p P p p = = = = = = = es
n
n
P p p
0
= de
modo que se puede obtener el vector de estado en un momento o paso cualquiera n
multiplicando el vector de estado inicial por la potencia n-sima de la matriz P.
Si existe un vector estacionario, o vector de tendencia, es decir, que se mantenga en el
tiempo, debe cumplir la condicin: t P t = Este vector es independiente del vector de
estado inicial.
INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 18


Una matriz es recproca si { } n j i , , 2 , 1 , e es
+
9 e = =
0
;
1
; 1
ij
ji
ij ii
m
m
m m (a)
Una matriz es consistente o coherente si { } n k j i , , 2 , 1 , , e
ik jk ij
m m m = (b)

de donde es recproca y coherente la matriz:
(
(
(
(
(
(
(

=
1
1
1
2
3
1
3
3
2
1
2
3
1
2
1

M

Estas matrices tienen una propiedad importante: toda fila (respectivamente toda
columna) es igual a cualquier otra fila (respectivamente otra columna) multiplicada por
un coeficiente de modo que su rango resulta ser 1. Como se sabe que la traza de una
matriz cuadrada es igual a la suma de todos sus valores propios, es decir:
) (
1
A Tr
n
i
i
=

=
.
En una matriz reciproca y coherente la traza es igual a n de modo que la suma de sus
valores propios debe ser n. Si el rango es 1 hay una sola raz distinta de cero y vale n,
que es la raz maxima.
Ahora bien, cuando el conocimiento del entorno es impreciso, como ocurre con
muchas decisiones en un ambiente de incertidumbre, el modelo debe incluir la nocin
de nivel de presuncin, y en lugar de una ley de probabilidad se deben tomar leyes de
posibilidad, lo que da lugar a la necesidad de utilizar tcnicas operativas distintas,
teniendo en cuenta el ambiente incierto en que se desarrollan.

No obstante, existe un gran paralelismo entre la teora de probabilidades y la de
posibilidades. En la primera, el axioma fundamental es la actividad en la medida, en la
segunda el axioma fundamental es la monotona en la inclusin para toda valuacin.
El encadenamiento markoviano se realiza a travs de operadores asociados suma-
producto, mientras que en la incertidumbre se lleva a cabo mediante operadores
asociados mximo-mnimo.
INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 19


Consideremos un referencial finito { }
n
x x x x E , , , ,
3 2 1
= y un subconjunto borroso
del referencial | |
n
w , , ,
~
2 1
=
A partir de w
~
construimos la matriz recproca y coherente M para la cual se da que
T T
w n w M
~ ~
= donde n es el orden de la matriz M.
Ahora bien, si
1
es el valor propio de una matriz cuadrada recproca (no coherente)
de orden n podemos definir un indicador de coherencia tal que
n
n
I
c

=
1


Si el
1
est prximo a n se puede admitir que la matriz es casi coherente.
Si
1
est muy alejado de n se debern reajustar los elementos de la matriz.
Si la matriz recproca es coherente resulta ser | | | |
T
i
T
i
n M =
Si la matriz recproca no es coherente se tendr que | | | |
T
i
T
i
M ' '
1
= . Entonces se
aceptar
| |
i
' si el indicador de coherencia definido I
c
es suficientemente pequeo.
Luego se normalizar | |
i
' en el sentido que se da a esta palabra en la teora de los
conjuntos borrosos, es decir:
i
i
i
i
MAX

'
'
= ' ' (c)o bien, si se quiere obtener una
ponderacin (semejante a probabilidad):
n
i
i
i
i

=
'
'
' ' '
1

(d)
Para determinar el valor propio dominante y vector correspondiente utilizaremos el
procedimiento seguido por T.L.Saaty y por X.B.Dinh (1978/1984) basado en la
utilizacin de matrices cuadradas con trminos simtricos invertidos.

INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 20



CAPITULO II:

SITUACION ACTUAL DE
LA EMPRESA






INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 21


LA EMPRESA

AUTOVAGEN AUTOMOTRIZ HORNA

AUTOMOTRIZ HORNA es un taller de mecnica especializado en modelos
Volkswagen (Escarabajo, Combi, Gol, Golf, Jetta, etc.).
Su principal objetivo es satisfacer las necesidades y las exigencias de su distinguida
clientela.

AUTOMOTRIZ HORNA se encuentra ubicada en Av. Centenario N 351-Santa
Mara, Provincia de Huaura, Regin Lima.



AUTOVAGEN
HORNA
INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 22


RESEA HISTRICA

AUTOVAGEN HORNA fue creada en el ao 1979 por Ramiro Horna, ya que en ese
tiempo no haban mecnicos especializados en Volkswagen (la mayora de los
mecnicos en Huacho y alrededores estaban dedicados a Toyota, Ford, Chevrolet,
Volvo, Scania y Nissan).

Con la creacin del taller de mecnica y en ese tiempo estuvo de moda los modelos
Escarabajo tuvo una buena acogida de la clientela.

AUTOVAGEN HORNA se encuentra ubicada en la ciudad de Santa Mara, localizada
en la provincia de Huaura, a unos 150 Km. al norte de la ciudad de Lima.

AUTOVAGEN HORNA inicia sus actividades en ese mismo ao, con una masa
obrera de 3 mecnicos. Actualmente el hijo de Ramiro Horna, Ruber Horna est a
cargo del taller que tiene un mecnico a su disposicin. Adems de estos tambin
hay una persona encargada del servicio de pintado, otra encargada del planchado y
otro del servicio elctrico del automvil.

AUTOVAGEN HORNA actualmente se encuentra operando al 70% de su capacidad,
sin embargo su finalidad no es otra que alcanzar el perfeccionamiento en cuanta
reparacin y mantenimiento.

AUTOVAGEN HORNA se encuentra ubicado en la calle Centenario en un terreno de
aprox. de 400 m2 (solo el taller), con el planchador y el pintor serian 650 m2.
Continuando con la estrategia de AUTOVAGEN HORNA, en el ao 2007 don Ramiro
Horna crea una sucursal en Huaraz (Av. Tarapac 1541).
Como es una empresa chica no tiene organigrama.






INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 23


ORGANIGRAMA





DUEO: se encarga de la administracin del taller. Realizar los pagos correspondientes
de los servicios de terceros utilizados.
PINTOR: se encarga de realizar la base, macillado y pintado del automvil.
SOLDADOR: se encarga de realizar planchado y de soldar las piezas del automvil.
ELECTRICISTA: se encarga de revisar e instalar el sistema elctrico del automvil.
MECNICO: se encarga de reparacin, mantenimiento y funcionamiento del
automvil.

VISIN

Ser una empresa lder en la reparacin y mantenimiento de autos Volkswagen,
brindando a nuestros clientes satisfaccin en el servicio y seguridad en su
automvil.

MISIN
Somos una empresa dedicada a brindar los servicios que su auto requiere, con gran
experiencia que nos caracteriza en el mercado huachano, lo que asegura a nuestros clientes un
servicio confiable, eficiente y eficaz, todo ello con el objetivo de lograr la seguridad de
nuestros clientes.

DUEO



Mecnico Electricista Pintor Soldador
INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 24


OBJETIVO

El objetivo prioritario de AUTOVAGEN AUTOMOTRIZ HORNA se basa en el
compromiso diario de ofrecer una respuesta satisfactoria a todos sus clientes, a
travs de la calidad de los diagnsticos, de la seguridad que les proporciona el estar
en manos de personal calificado, y de los buenos resultados que se consiguen bajo
estas premisas.

VALORES

1. SERVICIO: Buscar la satisfaccin del cliente, confianza en el servicio y optimo
diagnostico y tratamiento de su auto.

2. CALIDAD: Brindar un servicio confiable y optimo.

3. INTEGRIDAD: Ser personas leales, honradas, y verdicas a la hora de realizar el
diagnostico de su auto.

4. CULTURA DE APRENDIZAJE: Aprender continuamente de nuestras vivencias y
experiencia en el centro de trabajo, con el fin de brindar cada vez un mejor
servicio.

5. RECONOCIMIENTO: Valorar, agradecer y distinguir los logros de cada uno de
nuestros integrantes.

6. TRABAJO EN EQUIPO: Trabajar siempre de manera conjunta. Los trabajadores
de AUTOVAGEN AUTOMOTRIZ HORNA basan su comportamiento y resultados en
la tica, cultura y logros de la compaa. As, se comparte un lenguaje comn y
criterios propios, que se traducen en una visin de equipo plenamente
integradora y positiva.




INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 25


SERVICIOS

1. Mantenimiento y reparacin de automviles Volkswagen
2. Servicio de Planchado
3. Servicio de Pintado
4. Servicio elctrico





















INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 26


PRODUCTOS

- Repuestos de automvil de segunda mano
Monoblock (Motor)
Pistn
Disco y plato de embriague.
Reten de cigeal
Zapatas
Volante
Bujas
Caja de cambios
Tanque de gasolina

5. Repuestos nuevos
Condensadores
Rotor distribuidor
Accesorios de automvil (Faro de luz, micas, adornos)

6. Compra de automviles

7. Venta de automviles















INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 27




CAPITULO III:
APLICACIN
DE LAS
CADENAS DE MARKOV















INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 28


CASO APLICATIVO 01:

La Sra. Jenny Quispe Cahuas compro un Volkswagen a mediados del 2006, desde
entonces cada vez que su auto ha necesitado un servicio ha recurrido a la empresa
AUTOVAGEN AUTOMOTRIZ HORNA.
Durante el ao 2009 y 2010 el cliente de la empresa AUTOVAGEN AUTOMOTRIZ
HORNA requiri los servicios de la empresa, ya sea por motivos de reparacin,
servicio elctrico, un pintado o tal vez un planchado.
A Continuacin tenemos el siguiente cuadro de visitas del cliente:










Se realiza un anlisis para determinar la probabilidad que en su prxima visita durante el
presente ao 2010, utilice el servicio de Reparacin, Ser. Elctrico, Pintado o Planchado, para
lo cual debemos determinar primero la probabilidad de cada uno de los estados.
Calculando la probabilidad de los estados:






Jun-09 Reparacin
Jun-09 Ser. Elctrico
Jun-09 Pintado
Jun-09 Planchado
Ago-09 Reparacin
Ago-09 Ser. Elctrico
Ene-10 Reparacin
Mar-10 Reparacin
Abr-10 Reparacin
May-10 Reparacin
De Reparado a Reparado 0.67
De Reparado a Electricista 0.33
De Reparado a Pintado 0
De Reparado a Planchado 0
INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 29















Segn los datos obtenidos, tenemos la siguiente matriz.








Donde:
R: REPARACION
E: SERVICIO ELECTRICO
Pi: PINTADO
Pl : Planchado

De Electricista a Reparado 0.5
De Electricista a Electricista 0
De Electricista a Pintado 0.5
De Electricista a Planchado 0
De Pintado a Reparado 0
De Pintado a Electricista 0
De Pintado a Pintado 0
De Pintado a Planchado 1
De Planchado a Reparado 1
De Planchado a Electricista 0
De Planchado a Pintado 0
De Planchado a Planchado 0

R E Pi Pl
R 0.67 0.33 0 0
E 0.5 0 0.5 0
Pi 0 0 0 1
Pl 1 0 0 0
INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 30


1. Determinamos la probabilidad de que en su prxima visita el cliente realice una
reparacin:
a) DETERMINAMOS EL ESTADO INICIAL: REPARACIN



Y la matriz de transicin

(0.67 0.33 0.0 0.0)

(0.6139 0 .2211 0 .165 0)

(0.521863 0.202587 0.11055 0.165)

(0.61594171 0.17221479 0.1012935 0.11055)



b) HALLAMOS LA MATRIZ DE EQUILIBRIO:
S=S*T
[S1 S2 S3 S4] = [S1 S2 S3 S4] * T

Hallamos los valores de S1, S2, S3, S4:
S1= 0.6024
S2= 0.1988
S3= 0.0994
S4= 0.0994

Entonces tenemos que:
La probabilidad de que el cliente en su prxima visita realice una reparacin es
de 60.24%:

INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 31


CASO APLICATIVO 02
En el Mes de Junio de 2010 la mecnica Horna contaba en su almacn con repuestos nuevos y
de segunda.
Cuenta inicialmente con 18 repuestos nuevos y 42 de segunda, las mismas que se detallan a
continuacin.
La mecnica necesita saber qu cantidad de estos repuestos nuevos o de segunda pueden ser
Vendidos o pueden Malograrse para el mes de Agosto del 2010. Para lo cual se cuenta con la
siguiente informacin.

PERIODO
REPUESTOS NUEVOS
(PASARON A SER)

N DE
REPUESTOS
VENDIDOS MALOGRADOS REPUESTO DE
SEGUNDA
REPUESTO
NUEVO
ENERO 19 16 1 0 2
FEBRERO 17 14 0 0 3
MARZO 23 20 1 1 1
ABRIL 19 15 2 0 2
MAYO 19 17 0 0 2
JUNIO 19 16 0 1 2
TOTAL 116 98 4 2 12
PROBABILIDAD
1 0.845 0.035 0.017 0.103


PERIODO
REPUESTOS DE SEGUNDA
(PASARON A SER)

N DE
REPUESTOS
VENDIDOS MALOGRADOS REPUESTO DE
SEGUNDA
REPUESTO
NUEVO
ENERO 34 9 12 13 0
FEBRERO 45 10 10 25 0
MARZO 47 8 16 23 0
ABRIL 47 7 14 26 0
MAYO 33 7 11 15 0
JUNIO 49 11 15 23 0
TOTAL 255 52 78 125 0
PROBABILIDAD
1 0.204 0.306 0.49 0

INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 32


SOLUCIN:
ESTADO INICIAL:
So =
18 Repuestos nuevos y 42 repuestos de segunda mano.
En base a los datos del planteamiento se obtiene la siguiente matriz de probabilidades.








Donde:
Estado V : Repuesto Vendido.
Estado M : Repuesto Malogrado.
Estado N : Repuesto Nuevo.
Estado S : Repuesto de Segunda.

Resolviendo:
F=I-Q
1 0
-
0.103 0.017
=
0.897 -0.017
0 1 0 0.49 0 0.51

F*

=I
0.897 -0.017
*
a b
=
1 0
0 0.51 c d 0 1


V M N S
V
1 0 0 0
M
0 1 0 0
N
0.845 0.035 0.103 0.017
S
0.204 0.306 0 0.490
18 42

Q R
I
INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 33


0.897-a -b-0.017
=
1 0
-c 0.51-d 0 1

=N
1.1148 0.0371
0 1.9067

*R
1.1148 0.0371
*
0.845 0.035
=
0.95 0.05
0 1.9067 0.204 0.306 0.4 0.6

So*N
18 42
*
0.95 0.05
=
34 26
0.4 0.6

TABLA RESUMEN:




De los 58 Repuestos entre Nuevos y Segunda, 34 pueden ser vendidos y 26 pueden ser
malogrados en el mes de agosto del 2010.
De los 34 Vendidos 17 van a ser repuestos nuevos y 17 van a ser repuestos de segunda.
De los 26 Malogrados 1 van a ser repuestos nuevos y 25 van a ser repuestos de segunda.














VENDIDOS MALOGRADOS
Nuevos Segunda Nuevos Segunda
17 17 1 25
INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 34








CONCLUSIONES



Markov para estados infinitos se aplica para factores no controlados por la
mecnica, en este caso la cantidad de repuestos.

Los estados absorbentes son aquellos de los que no se puede pasar a otro
estado, ejemplo los repuestos malogrados no pueden pasar a repuestos
nuevos.

Los Estados de transicin son aquellos estados por lo que se pasa, pero no se
regresa.

Los estados recurrentes son aquellos que pueden repetirse ilimitadamente.
























INVESTIGACIN OPERATIVA II
APLICACIN DE LAS CADENAS DE MARKOV


Ingeniera de Sistemas
Pgina 35


BIBLIOGRAFIA

LIBROS:

- INTRODUCCIN A LOS MTODOS CUANTITATIVOS PARA ADMINISTRACION. DAVID R.
ANDERSON, DENNIS J. SWEENEY, THOMAS A. WILLIAMS.
- INVESTIGACIN DE OPERACIONES HAMDY A. TAHA, 7MA EDICION


INTERNET:

- http://es.wikipedia.org/wiki/Cadena_de_Mrkov
- www.edicionsupc.es/ftppublic/pdfmostra/OE03502M.pdf
- www.infoamerica.org/documentos_pdf/markov.pdf

You might also like