You are on page 1of 110

NOTAS DE CLASE DE PROCESOS

ESTOCASTICOS
DIANA ISABELLA DURAN BERMUDEZ
MARIO GUERRA GUALY
23 DE NOVIEMBRE DE 2015

Indice
1. Probabilidad
1.1. Sucesos Compatibles . . . . . . . . . . . . .
1.2. Sucesos Independientes . . . . . . . . . . . .
1.3. Sucesos Dependientes . . . . . . . . . . . .
1.4. Variables Aleatorias . . . . . . . . . . . . .
1.5. Variables Aleatorias . . . . . . . . . . . . .
1.6. Estimador Insesgado . . . . . . . . . . . . .
1.7. Caracteristica de la Funcion de Distribucion
1.8. Espacio Muestral . . . . . . . . . . . . . . .
1.9. Variables Aleatorias y Variables Discretas .
1.10. Valor Esperado o Esperanza Matematica . .
1.11. Caminatas Aleatorias . . . . . . . . . . . .
1.12. Varianza . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

5
5
6
6
6
7
7
8
8
9
10
10
11

2. Procesos Estocasticos
2.1. Que es un espacio estocastico . . . . . . .
2.2. Clasificaci
on de los procesos estocasticos
2.3. Problema del sombrero . . . . . . . . . .
2.4. Soluci
on . . . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

12
12
12
13
13

.
.
.
.

3. Caminatas Aleatorias
16
3.1. Probabilidad de regreso a la posicion de origen . . . . . . . . . . 16
3.2. Definici
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3. Probabilidad de Transicion . . . . . . . . . . . . . . . . . . . . . 20
4. Ruina del Jugador
4.1. Planteamiento . . . . .
4.2. Pregunta a resolver . .
4.3. Soluci
on al problema .
4.4. Analisis de la Solucion

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

5. Distribuci
on de Poisson
6. Procesos de Poisson
6.1. Definici
on 1: . . . . . . .
6.2. Definici
on 2: . . . . . . .
6.3. Definici
on 3: . . . . . . .
6.4. Perdida de la memoria:
6.5. Definici
on 4: . . . . . . .
6.6. Definici
on alternativa: .

24
24
25
25
31
32

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

33
34
34
35
35
36
36

7. Cadenas de Markov(Tiempo Discreto)


7.1. Definici
on . . . . . . . . . . . . . . . . . . . . . .
7.2. Probabilidades de Transicion en 2 etapas . . . . .
7.3. Probabilidades de Transicion en 3 etapas . . . . .
7.4. Probabilidades de Transicion en n etapas . . . .
7.5. Ecuaci
on de Chapman Kolmogrov . . . . . . . .
7.6. Distribuci
on de probabilidad inicial . . . . . . . .
7.7. Clasificaci
on de estados en una cadena de markov
7.8. Probabilidad de estado estable . . . . . . . . . .
7.9. Tiempos promedio de primer paso . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

41
42
44
44
45
47
49
50
51
53

8. Teoria de colas
8.1. Notaci
on para las caracteristicas de los
8.2. Notaci
on Kendall . . . . . . . . . . . .
8.3. Sistema de colas |M ||M |1|DG||| .
8.4. Sistema de colas |M ||M |1|DG|c|| . .
8.5. Sistema de colas |M ||M |s|DG||| .
8.6. Ejemplos de Sistemas de colas . . . . .

sitemas de cola
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

54
54
55
56
60
64
67

9. Movimiento Browniano
9.1. Historia . . . . . . . . .
9.2. Definici
on . . . . . . . .
9.3. Funci
on de Probabilidad
9.4. Funci
on de Probabilidad
9.5. Ejercicios . . . . . . . .

. . . . . .
. . . . . .
. . . . . .
Conjunta
. . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

73
73
74
77
78
80

. . . .
. . . .
. . . .
. . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

81
81
82
82
84
84
86
86
87
87
87
87
88
88
88
89
89
89
92

. . . . . . . .
. . . . . . . .
de Transicion
de Transicion
. . . . . . . .

10.Programaci
on Lineal
10.1. Historia . . . . . . . . . . . . . . . . .
10.2. Que es? . . . . . . . . . . . . . . . . .
10.3. Modelos Matematicos . . . . . . . . .
10.4. Introducci
on a la Programacion Lineal
10.5. Terminos importantes para la PL . . .
10.6. Definici
on de programacion lineal . .
10.7. Suposiciones de proporcionalidad . . .
10.8. Suposiciones de aditividad . . . . . .
10.9. Regi
on factible . . . . . . . . . . . . .
10.10.Soluci
on optima . . . . . . . . . . . . .
10.11.Conjunto convexos . . . . . . . . . . .
10.12.Punto extremo . . . . . . . . . . . . .
10.13.Casos de soluciones optimas . . . . . .
10.14.Restricciones activas . . . . . . . . . .
10.15.Restricciones inactivas . . . . . . . . .
10.16.Metodo grafico . . . . . . . . . . . . .
10.17.Metodo Simplex . . . . . . . . . . . .
10.18.Ejemplo . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

11.Modelos de Inventarios
11.1. Tipos de Inventarios . . . . . . . . . . . . . . . . . . .
11.2. Tipos de Modelos de Inventarios . . . . . . . . . . . .
11.3. Modelos de inventario determinstico . . . . . . . . . .
11.4. Modelos de inventario probabilstico . . . . . . . . . .
11.5. Modelos de Inventarios Determinsticos . . . . . . . .
11.6. Modelo B
asico de Lote Economico (EOQ) . . . . . . .
11.7. Derivaci
on del modelo Basico de EOQ . . . . . . . . .
11.8. Modelo EOQ en el que se permiten pedidos atrasados

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

99
100
100
100
101
101
101
102
107

1.

Probabilidad

Sobre un conjunto de posibilidades de un suceso se pueden encontrar todos


los existentes
S : Espacio M uestral
n
[
Ei : Eventos subconjunto del espacio muestral Ei < S
Ei = S
i=1

Se asocia una cantidad P(E) que esta definida y ademas cumple con los siguientes
axiomas:
1)0 P (E) 1
2)P (S) = 1
3)Para una sucesion de eventos E1 , E2 , ..., En que son mutuamente excluyentes,
esto es, Ei Ej = siempre que i 6= j (Disyuntos dos a dos) se tiene que:
k
K
[
X
P( Ei ) =
P (Ei )
i=1

i=1

P (E1 E2 E3 ... Ek ) = P (E1 ) + P (E2 ) + ... + P (Ek )


Ejemplo
Una Baraja Espa
nola tiene 48 cartas
E1 = Obtener un 5 de bastos P (E1 ) =

1
48

E2 = Obtener un rey de copas P (E2 ) =


P (E1 E2 ) = P (E1 ) + P (E2 ) =

1.1.

1
48

1
48

1
48

2
48

1
24

(eventos equiprobables)

Sucesos Compatibles

P (E1 ) E2 = P (E1 ) + P (E2 ) P (E1 E2 )


Ejemplo
Existiendo una baraja de 48 cartas, se extrae una carta y se desea saber la
probabilidad de obtener un As y un copas.
5

E1 = Obtener un As P (E1 ) =

4
48

E2 = Obtener copas P (E2 ) =

12
48

P (E1 E2 ) =

1.2.

4
48

12
48

1
48

15
48

5
16

Sucesos Independientes

P (E1 E2 ) = P (E1 )P (E2 )


Ejemplo
Cual es la probabilidad de obtener en el lanzamiento de dos dados, 3 en el primer
dado y un 5 en el segundo?
E1 = Obtener 3 en el primer dado P (E1 ) =

1
6

E2 = Obtener 5 en el segundo dado P (E2 ) =


P (E1 E2 ) = P (E1 )P (E2 ) =

1.3.

1
6

1
6

1
6

1
36

Sucesos Dependientes

2
P (E1 E2 ) = P (E1 )P ( E
E1 )

Ejemplo
Se obtiene una caja con 10 monedas de 100 pesos y 2 de ellas son falsas. Se
extraen 2 monedas, una detras de la otra sin reposicion. Cual es la probabilidad
de seleccionar una moneda falsa seguida por otra falsa.
P (E1 E2 ) = P (E1 ) P (
P (E1 E2 ) =

1.4.

E2
)
E1

2
1
2 1
=
=
10 9
90
45

Variables Aleatorias

Considere un experimento aleatorio en un espacio muestral S. Una variable


aleatoria X es una funcion que asigna un valor real a cada resultado de S.
Para algun numero real de A, la probabilidad de que el valor que tome X esta
contenido en el conjunto A, es igual a la probabilidad de que el resultado del
experimento este contenido en X 1 . Esto es:
P {x A} = P {x1 (A)}
Donde X 1 (A) es el evento conformado por los puntos s de S tal que :
X(s) A
6

Definimos la funcion de distribucion de la siguiente manera:


F (x) = P {X x} = P (x (, x]) continua

1.5.

Variables Aleatorias

Si A es un evento de un espacio muestral S y P (A) es la probabilidad de


ocurrencia, entonces
P (Ac ) = 1 P (A)
1 F (x) = F (x) F (x) = P {X > x}

1.6.

Estimador Insesgado

Sea gorrito un estimador puntual de un parametro . Entonces gorrito,


es un estimador insesgado de , si E( gorrito)= de lo contrario se duce
que es sesgado. Es aquel cuya media o valor esperado de la distribucion de las
estimaciones es igual al parametro estimado.
Nota: El sesgo de un estimador es un numero, que depende del valor del
parametro . Por tanto es una funcion del parametro. Un estimador insesgado
tiene por esperanza el valor del parametro sea quien sea este. Por ellos, a los
estimadores insesgados se les denomina tambien centrados. Si utilizamos un
estimador insesgado acertamos en media, esto es, el valor esperado del
estimador es la cantidad que queremos estimar.

1.7.

Caracteristica de la Funcion de Distribucion

La funcion de distribucion describe el comportamiento probabilistico de una


variable aleatoria X asociada a un experimento aleatorio y se representa como
F (x) o F x.
Caso Discreto: Sea x una variable aleatoria discreta asociada a un espacio
probabilistico, se define la funcion distribucion.
X
F (x) : R [0, 1] que verif ica F (x) = P [X x] =
xi < xPi
Propiedades:
a)F () = 0; F (+)
b)P [(a, b)] = F (b) F (a)
c)Es

una

f uncion

no

decreciente

Ejemplo
3
8 );(2

cara,
caras,
(3 caras, 81 ).
(0 caras,
Calcula la probabilidad de obtener menos de dos caras?
1
8 );(1

F (1) = P rob[x 1] =

3
8 );

Pi 1 = P rob[x = 0] + P rob[x = 1] =

xi <x

4
1 3
+ =
8 8
8

Caso Continuo: Sea X una variable aleatoria continua con una funcion de
densidad f(x), se define la funcion de distribucion, F(x), como:
Z
F (x) = P [x X] =
f (x)dx

Propiedades:
a)F (x) 0
Z
b)

f (x)dx = 1

c)P [a x b] =

f (x)dx = F (b) F (a)

d)f (x) = F (x)

1.8.

la

f uncion

densidad

es

la

derivada

de

la

f uncion

Espacio Muestral

Se entiende el grupo de todos los resultados especificos que se pueden obtener


tras una experimentacion de caracter aleatorio. A cada uno de sus componentes
se los define como puntos muestrales o, simplemente muestras. Los espacios
muestrales pueden ser discretos (finitos) o numerables o continuos (infinitos).
X
Di = 0

de

distribucion

1.9.

Variables Aleatorias y Variables Discretas

Variables Aleatorias: X
F(x)=P(X x) = P(x (-, x])
Variables Discretas
X
F(x)=
P (x = y); y=xi (condiciones del evento) ; i=1,...,n
yx

Nota: Desviaciones la diferencia entre el dato y la media.


Datos continuos Integral
Datos aleatorios Sumatoria
Ejemplo: P {x 5} = 1 P x < 5
Una variable aleatoria es continua si existe f(x) tal que:
Z
1.P {x B} =
f (x)dx
B

f(x) se denomina funcion de densidad


Z x
F(x)=
f (x)dx

se deduce que f(x)=

d
dx F (x)

Ejemplo caso continuo: Sea x una variable aleatoria cuya funcion de densidad
viene dada por :
 x
0x2
2
0
encontrar la funcion de distribucion
Z 0
Z
F (x) =
0dx +

x2
4

x
x2
dx =
2
4

x<0
0<x<2
x>2

Ejemplo de caso discreto: Sea la distribucion de probabilidad siguiente:


(0, 18 ); (1, 38 ); (2, 83 ); (3, 18 )
P(x 2) = 78
P (x > 2) = 1

1
7
=
8
8

1.10.

Valor Esperado o Esperanza Matematica


Z

E[x] =

dx

F (x) =

xf (x)dx si x es continua

xP {X = x} si x es discreta

La esperanza esta ligada a la media


1
3
3
1
12
3
+1 +2 +3 =
=
8
8
8
8
8
2
X
Calcular la esperanza de la variable aleatoria x :
la suma de los puntos que
resultan al lanzar 2 dados
E[x] = 0

E[x] = 2

2
2
1
+3
+4
+5
36
36
36

x1 + x2 + ... + xn
n
x1 n1 + x2 n2 + ... + xm nm
x
=
m
x1 n1
xm nm
x
=
+ ... +
m
m
X
x
=
xi P (xi )
x
=

1.11.

Caminatas Aleatorias

Esperanza Matematica E[x] =


Z

xf (x)dx si x es continua

xP {X = x} si x es discreta

Z
E[h(x)] =

xdf h(x)

E[h(x)] =

h(x)df (x)

Nota:
Z

E[x] =

Z
xdf (x);

F (x) =

f (x)dx;

10

f (x) =

d
F (x)
dx

1.12.

Varianza

Demostracion:
V ar[X] = E[(X E[X])2 ]
V ar[X] = E[X 2 2XE[X] + (E[X])2 ]
V ar[X] = E[X 2 ] 2E[X]E[X] + (E[X]2 )
V ar[X] = E[X 2 ] + (E[X]2
Ejemplos:
1. Un casino le permite a un jugador que lance un dado legal y que reciba
tantos pesos como puntos aparezcan en la parte superior del dado. El jugador
debe pagar una cantidad K de pesos cada vez que juegue. Calcule cuanto debe
valer K para que el jugador ni gane ni pierda?
(1, 16 );(2, 16 );(3, 61 ); (4, 16 );(5, 16 ); (6, 16 )
1
1
1
1
1
1
+2 +3 +4 +5 +6
6
6
6
6
6
6
1 2 3 4 5 6
E[x] = + + + + + = 3,5
6 6 6 6 6 6

E[x] = 1

K= 3.5
2. Considere una loteria con 1000 numeros. Cada numero cuesta 25 centavos y
el premio es de 100 dolares. Calcule cuanto se espera ganar o perder cada vez
que se participa en esta loteria?
x
f(x)

99.75

-0.25

1
1000

999
1000

1
999
+ (0,25)
1000
1000
249,75
= 0,15
99,75
1000
3. Suponga que el numero de automoviles que pasan por un autolavado entre
las 4 y las 5 en un viernes cualquiera tienen la siguiente distribucion de
probabilidad.
99,75

x 4 5 6 7 8 9
1
1
1
P(x=x) 12
12 4

1
4

1
6

1
6

Sea g(x)= 2x-1 la cantidad de dinero en dolares que el administrador le paga al


empleado. Encuentre la ganancia que se espera en ese periodo en especifico
7

1
1
1
1
1
1
+9
+ 11 + 13 + 15 + 17
12
12
4
4
6
6
16 24 32
+
+
= 12,6
12
4
6
11

2.
2.1.

Procesos Estocasticos
Que es un espacio estocastico

Un proceso estocastico es una coleccion o familia de


variables aleatorias {xt , con t T } , ordenadas seg
un
el subndice t que en general se suele identificar con el
tiempo. Por tanto, para cada instante t tendremos una
variable aleatoria distinta representada por xt , con lo que
un proceso estocastico puede interpretarse como una sucesion de variables aleatorias cuyas caractersticas pueden variar a lo largo del tiempo.
estados son los posibles valores que puede tomar la variable aleatoria , por lo que se puede tener un espacio de
estados discreto y un espacio de estados continuo.
2.2.

Clasificaci
on de los procesos estocasticos

1. Si el conjunto T es continuo, por ejemplo R+ , diremos que xt es un proceso estocastico de parametro


continuo.
2. Si por el contrario T es discreto, por ejemplo N ,
diremos que nos encontramos frente a un proceso
estocastico de parametro discreto.
3. Si para cada instante t la variable aleatoria xt es de
tipo continuo, diremos que el proceso estocastico es
de estado continuo.
4. Si para cada instante t la variable aleatoria xt es de
tipo discreto, diremos que el proceso estocastico es
de estado discreto.

12

2.3.

Problema del sombrero

En una fiesta de n asistentes se quita el sombrero. se


ponen los n sombreros en un contenedor y cada persona
selecciona uno al azar.
decimos que ocurre una coincidencia si una persona selescciona su propio sombrero.
1. Cual es la probabilidad de que no ocurra ninguna
coincidencia?
2. cual es la probabilidad de que ocurran k coincidencias?
2.4.

Soluci
on

sea E el evento que no ocurra ninguna coincidencia,


sea pn = P (E). definamos:
M = la primera persona selecciona su propio sombrero.
E
E
pn = P (E) = P ( )P (M ) + P ( c )P (M c )
M
M

13

E
) = 0 ( al menos ocurre una coincinotemos que, P ( M
dencia)
E n1
pn = P ( c )
(1)
M
n
ahora bien, notese que P (E/M c ) es la probabilidad de
que no ocurre ninguna coincidencia cuando n1 personas
seleccionan n 1 sombreros, y ademas hay una persona
cuyo sombrero no esta dentro de los n 1. lo anterior
puede pasar de dos formas mutuamente excluyente

1. no ocurre ninguna coincidencia y la persona extra no


selecciona el sombrero extra.
2. no ocurre ninguna coincidencia y la persona extra
selecciona el sombrero extra.
la probabilidad de 1 es exactamente pn1 la probabilidad
1
Pn2 entonces.
de 2 esta dada por n1
P(

1
E
)
=
P
+
Pn2
n1
Mc
n1

reemplazando la anterior en (1) tenemos


n1
1
Pn1 + Pn2
n
n
restando a ambos lados pn1
Pn =

1
Pn Pn1 = Pn1 Pn2
n
es decir,
1
1

2! 3!
reemplazando en la ecuacion (2) obtenemos
p3 =

14

(2)

p4 p3 =

p3 p2
1
=
4
4!

es decir
1
1
1
+
2! 3! 4!
procediendo de esta manera obtenemos que
p4 =

1
1
1
(1)n
pn = + ... +
2! 3! 4!
n!
para un grupo fjo de k personas la probabilidad d que
ellos y solamente ellos selecciones sus propios sombreros
esta dado por
1 1
1
(n k)!
...
pnk =
pnk
n n 1 n (k 1)
n!
donde pnk es la probabilidad que las n k personas
restantes que seleccionan dentro de sus propios sombreros no haya ninguna coincidencia. ahora bien, dado que
n
hay exactamente ( ) formas diferentes de seleccionar un
k
grupo de k personas, la probabilidad de que haya exactamente k coincidencias esta dada por
n (n k)!
pnk
( )
pnk =
k
n!
k!
=

1
2!

1
3!

1
4!

... +

(1)nk
(nk)!

k!
por lo tanto, para n suficientemente grande, se tiene la
probabilidad de que haya exactamente k coincidencias es
1
aproximadamente ek!
15

Ejemplo:

Diez personas llegan a una fiesta y dejan sus sombreros


en el guardaropa. el chico del guardaropa olvida ponerle
etiqueta a los sombreros y cuando van las diez personas
a recoger los sombreros los reparte de forma aleatoria.
cual es la probabilidad de que al menos dos persona
reciba su sombrero?
solucion: reemplazamos en la formula general
(

10 (10 2)!
)
p102
2
10!
1
p102 =
5
1
(0, 5) = 0, 10
5
e1
= 0, 18
2!

3.
3.1.

Caminatas Aleatorias
Probabilidad de regreso a la posici
on de origen

Para calcular la probabilidad de que una caminata regrese a una eventual posicion de origen hay que demostrar
que se presenran dos casos: el caso asimetrico y simetrico. En este trabajo vamos a demostrar el caso simetrico,
que es en el cual se cumple con probabilidad que la caminata regresa a la posicion de origen, es decir, cuando
p = 1/2.

16

3.2.

Definici
on

Para una caminata aleatoria sobre Z, la probabilidad de


un eventual regreso al punto de partida es:
(


1
si p = q,
1 p q =
< 1 si p 6= q.
Es decir, solo en el caso simetrico, p = q, se tiene la
certeza de un eventual retorno, sin embargo el tiempo
promedio de regreso en tal caso es infinito.
Demostraci
on
Consideremos un camino aleatorio (Sn )n0 , que tiene parametro p (llamamos q = 1 p) y que arranca en S0 = 0.
Queremos calcular la probabilidad de que, en algun momento, el camino aleatorio tome de nuevo el valor 0, es
decir, regrese al origen:
p(Sn = 0 para alg
un n 1.)
Llamamos fn = p(Sn = 0). si n es impar, fn = 0, mientras que:
 n n
f2n = 2n
n p q
Conviene definir , ademas, f0 = 1. observemos
que p(Sn =
P
0 para alg
un n 1.)no coincide con n=1 fn
(pues
se dice que hay interseccion, y no es una particion).
Ahora vamos a llamar, para cada n 1,gn a la probabilidad de que en tiempo n se produzca la primera visita
al eje:
gn = p(S1 6= 0, S2 6= 0, ..., Sn1 6= 0, Sn 6= 0)
17

Para verlo mas sencillo, digamos que g0 = 0, donde obtenemos:


p(Sn = 0) =

gn

n=1

Nuestro objetivo es relacionar la sucesion (gn ) con la conocida sucesion (fn ). Para ello introducimos las respectivas funciones generatrices:

F (s) =

fn s

yG(s) =

gn s n

n=

n=0

Para nuestros propositos, la que nos interesa es la segunda funcion generatriz,G(s), pues, por ejemplo: lms1 es
la probabilidad de volver en alg
un momento al eje.
Pero es la otra funcion generatriz la que podemos calcular
explcitamente:

F (s) =

X
n=0

fn s =

f2n s

n=0

2n



X
2n
(pqs2 )n .
=
n
n=1

Ahora aplicamos el teorema del binomio generalizado de


Newton, podemos usar esta serie para obtener:
1
F (s) = p
1 4pqs2
Pero la funcion G(s) es la que nos interesa, pues contiene
la respuesta a nuestro problema. El siguiente argumento
18

nos va a permitir relacionar las dos funciones generatrices. Vamos a clasificar las trayectorias del paseo aleatorio
que tocan el eje en tiempo n seg
un el momento en que
lo tocan por primera vez (un argumento de probabilidad
condicionada): para cada n 1.
F (n) =

n
X

P(Sn = 0)

k=1

primer retorno ocurre en tiempo k.


tenemos directamente a gk , por la homogeneidad del paseo aleatorio, coincide con la de que un paseo aleatorio
con S0 = 0 toque el eje en el tiempo n k (simplemente hacemos retroceder el paseo aleatorio k unidades de
tiempo ); esto es, coincide con fnk . As que:
F (s) =

n
X

f(nk) gk

k=

para cada n 1.
Hemos utilizado que g0 = 0 Sin mas que recordar como
se multiplican dos funciones generatrices, deducimos la
relacion que prometamos:

F (s) =

X
n
X
fn s = 1+
(
fnk gk )sn = 1+F (s)G(s).
n

n=0

n=1 k=0

As que:
G(s) = 1

p
1
= G(s) = 1 1 4pqs2 .
F (s)

Observemos que como:


19

p + q = 1, 1 = (p + q)2 = p2 + q 2 + 2pq
As que:
0 (p q)2 = p2 2pq + q 2 = 1 4pq
De manera que la probabilidad de que el borracho vuelva
en alg
un momento a su casa es:
G(1) =

gn = 1

p


1 4pq = 1 p q .

n=0

si p = q = 1/2, la probabilidad de retorno al origen es 1,


mientras que 1 cuando p 6= q.
3.3.

Probabilidad de Transici
on

Las caminatas aleatorias inician en cero, es intuitivamente claro que despues de efectuar un n
umero par de
pasos el proceso solo puede terminar en una posicion par,
y lo mismo si es un n
umero impar. Ademas,la caminata
solo puede llegar a una distancia maxima de n unidades,
a la izquierda o a la derecha. Teniendo esto en mente,
en el siguiente resultado se presenta la distribucion de
probabilidad de la variable Xn .
Proposici
on 1

Para cualesquiera n
umeros enteros x y n tales que
n x n, y para el caso cuando x y n son ambos
pares o ambos impares,


1
1
n
P (Xn = x|X0 = 0) = 1
p 2 (n+x) q 2 (nx)
2 (n + x)
20

Para valores de x y n que no cumplen las condiciones


indicadas la probabilidad en cuestion es cero
Demostraci
on. Sabemos que el punto de inicio va a
ser cero, se observa la posicion de la caminata despues
de efectuar n pasos. Sean Rn los pasos realizados a la derecha y Ln los pasos realizados a la izquierda. Entonces
Xn = Rn Ln (Es decir, la posicion final despues de n
pasos), y ademas n = Rn + Ln (Es decir el numero total
de pasos dados a la derecha e izquierda)
Sumamos las dos ecuaciones.
Xn = Rn Ln
n = Rn + Ln
Xn + n = 2Rn
Despejamos Rn
1
Rn = (n + Xn )
2
Sustituimos la expresion
Xn =

n
X

i=1

Entonces
n

X
1
Rn = (n +
i )
2
i=1
Sacando la sumatoria dentro del parentesis

21

Rn =

n
X
1

i=1

(1 + i )

Al observar la formula se puede destacar que arroja un


valor entero para Rn Cuando n y Xn son ambos pares
o impares. Esto lleva a la conclusion de que la variable
Rn tiene distribucion binomial (n, p). Por lo tanto, para
cualquier valor de x que cumpla las condiciones enunciadas se tiene que
1
P (Xn = x|X0 = 0) = P (Rn = (n + x))
2
Recordando la funcion de probabilidad es
 
n k
P (X = k) =
p (1 p)nk
k
n = N
umero de pruebas
k = N
umero de exitos
p = Probabilidad de exitos
q = Probabilidad de fracaso
Donde q = (1 p) Al reemplazar la formula de funcion
de probabilidad en la ecuacion que estamos manejando:

P (Xn = x|X0 = 0) =


1
1
n
p 2 (n+x) q 2 (nx)
1
2 (n + x)

De esta manera queda demostrada la formula

22

Proposici
on 2

Si los n
umeros n y x y son ambos pares o ambos
impares, entonces para -n 6 x y 6 n


1
1
n
P (Xn = x|X0 = y) = 1
p 2 (n+xy) q 2 (nxy)
2 (n + x y)
Para valores de la diferencia x y y el entero n no cumplen las comdiciones indicadas la probabilidad en cuesti
on vale cero.
Demostraci
on: Como la caminata aleatoria parte desde cero(X0 = 0) esta proposicion demuestra la probabilidad en cualquier punto y (X0 = y), partimos de que
X0 = y y por la proposicion 1 tenemos que Xn = x,
ahora considerando un nuevo proceso:
X0 = y
X0 y = 0
a esto le daremos el nombre de un nuevo proceso Z0 y
asi la caminata tendra como punto de inicio el 0, o sea :
Z0 = X0 y = 0
Z0 = 0
De forma general a lo anterior seria
Zn = X n y
como Xn = x por la proposicion anterior, entonces
Zn = X n y = x y

23

por transitividad de la igualdad tenemos


Zn = x y
Luego nuestra caminata ya queda definida como la prosicion 1, lo que nos permite tener la siguiente identidad:
P (Xn = x|X0 = y = P (Zn = x y|Zn = 0).


1
1
n
P (Zn = xy|Zn = 0) = 1
p 2 (n+xy) q 2 (nxy)
2 (n + x y)
Por la identidad anteriormente dada se concluye que


1
1
n
P (Xn = x|X0 = y) = 1
p 2 (n+xy) q 2 (nxy)
2 (n + x y)
4.

Ruina del Jugador

Se considera un ejemplo particular de una caminata


aleatoria en el contexto de un juego de apuesta.
4.1.

Planteamiento

Dos jugadores apuestan sucesivamente:


tiene

El jugador A K unidades.
tiene
El jugador B N-K unidades, donde el capital total
de los dos jugadores es igual a N .
En cada apuesta el jugador A tiene probabilidad de ganar
p, y probabilidad de perder q = 1 p, suponga ademas
que no hay empates.Sea Xn la fortuna del jugador A al
tiempo n. Entonces {Xn : n = 0, 1, ...} es una caminata
aleatoria que inicia en el estado K y eventualmente puede
24

terminar en el estado 0 cuando el jugador A ha perdido


todo su capital, o bien, puede terminar en el estado N
que corresponde a la situacion en donde el jugador A ha
ganado todo el capital.

4.2.

Pregunta a resolver

1. Cual es la probabilidad de que el jugador A se arruine? Es decir, cual es la probabilidad de que la caminata se absorba en el estado 0 y no en el estado
N, u oscile entre estos dos estados?
4.3.

Soluci
on al problema

Usando la probabilidad condicional es posible transformar este problema en una ecuacion en diferencias.
Sea el primer momento en el que la caminata visita alguno de los dos estados absorbentes, es decir =
mn{n 0 : Xn = 0 Xn = N }.Puede demostrarse que
es una variable aleatoria y que es finita casi seguramente.La pregunta planteada se traduce en encontrar la
probabilidad:
uk = P (X = 0 | X0 = K)
Por el teorema de probabilidad total se obtiene la ecuacion en diferencias:
25

uk = puk+1 + quk1
Donde,
uk = la probabilidad del que el jugador A se arruine
iniciando con K unidades.
puk+1 = la probabilidad del que el jugador A gane la
primera partida y se arruina con k + 1 unidades.
quk1 = la probabilidad A pierde la primera partida y
se arruina con k 1 unidades.
Ya que es una ecuacion en diferencias encontramos la
solucion multiplicando el lado izquierdo por (p + q):
(p + q)uk = puk+1 + quk1
puk + quk = puk+1 + quk1
quk quk1 = puk+1 puk
q(uk uk1 ) = p(uk+1 uk )
q
(uk uk1 ) = uk+1 uk
p
Las condiciones de fronteras:
u0 = 1, uN = 0
Resolviendo iterativamente,obtenemos:
Para k = 1
q
uk+1 uk = (uk uk1 )
p
q
u2 u1 = (u1 u0 )
p

26

reemplazamos las condiciones de frontera:


q
u2 u1 = (u1 1)
p
Para k = 2
q
u3 u2 = (u2 u1 )
p
q q
u3 u2 = ( (u1 1))
p p
q
u3 u2 = ( )2 (u1 1)
p
:
Para k = k 1
q
uk uk1 = (uk1 uk2 )
p
siguiendo el mismo ciclo
q
uk uk1 = (u1 1)
p
Sumamos las k 1 ecuaciones anteriores:
q
q
q
uk u1 = (u1 1)[ + ( )2 + + ( )k1 ]
p
p
p
Ahora debemos analizar dos casos:
Cuando p = q =

1
2

juego equilibrado

q
q
q
uk u1 = (u1 1)[ + ( )2 + + ( )k1 ]
p
p
p
reemplazamos
27

uk u1 = (u1 1)[

1/2 2
1/2 k1
1/2
+(
) + + (
) ]
1/2
1/2
1/2

uk u1 = (u1 1)[1 + 1 + ... + 1k1 ]


uk u1 = (u1 1)(k 1)
k=N
uN u1 = (u1 1)(N 1)
reemplazo condicion inicial uN = 0
0 u1 = (u1 1)(N 1)
u1 = u1 N u1 N + 1
N 1 = u1 N u1 + u1
N 1 = u1 N
N 1
u1 =
N
Luego
uk u1 = (u1 1)(k 1)
N 1
N 1
uk
=(
1)(k 1)
N
N
1
N 1
uk
= ( )(k 1)
N
N
(k 1)
N 1
uk = (
)+
N
N
N k
uk =
N
Cuando p 6= q

28

q
q
q
uk u1 = (u1 1)[ + ( )2 + + ( )k1 ]
p
p
p
= ( pq + ( pq )2 + + ( pq )k1 )
= pq ( pq + ( pq )2 + + ( pq )k1 )
= (1 + pq + ... + ( pq )k )
q
q
uk u1 = (u1 1) (1 + + ... + ( )k )
p
p
|
{z
}
seriegeometrica

Sk = ( pq )(1 + pq + ... + ( pq )k )
q k+1
q 1 (p)
Sk = ( )(
)
p
1 ( pq )
1( pq )k+1
1( pq ) )
1( pq )N +1
(u1 1)( pq )( 1(
)
q
p)

uk u1 = (u1 1)( pq )(
N = k uN u1 =
uN = 0

q N +1
q 1 (p)
0 u1 = (u1 1) ( )(
)
p
1 ( pq )
{z
}
|
m

u1 = (u1 1)(m)
u1 = u1 m m
m = u1 m + u1
m = u1 (m + 1)
u1 =

m
m+1

( pq )( pq )N +2
1( pq )

= ( ( q )( q )N +2
p

1( pq )

+1

29

( pq )( pq )N +2
1( pq )

) = ( ( q )( q )N +2 +1( q ) ) =
p

1( pq )

( pq )( pq )N +2
1( pq )

1( pq )N +2
1( pq )
(( pq )

(( pq )N +2 )(1 ( pq ))

(( pq ) (( pq )N +2 )

=
(1 ( pq ))(1 ( pq )N +2 )
(1 ( pq )N +2 )
Reemplazo en la formula principal
(( pq ) (( pq )k+2 )
uk u1 = (u1 1)
(1 ( pq ))
(( pq ) (( pq )N +2 )
(( pq ) (( pq )k+2 )
(( pq ) (( pq )N +2 )
)=(
1)(
)
uk (
(1 ( pq )N +2 )
(1 ( pq )N +2 )
(1 ( pq ))
(( pq ) (( pq )N +2 )
( pq ) ( pq )N +2 1 + ( pq )N +2 (( pq ) (( pq )k+2 )
)(
uk (
)=(
)
(1 ( pq )N +2 )
1 ( pq )N +2
(1 ( pq ))
(1 ( pq ))(( pq ) ( pq )k+2 )
(( pq ) (( pq )N +2 )
)=
uk (
(1 ( pq )N +2 )
(1 ( pq )N +2 )(1 pq )
(( pq ) ( pq )k+2 )
(( pq ) ( pq )N +2 )
uk =
+(
)
(1 ( pq )N +2 )
(1 ( pq )N +2 )
( pq ) + ( pq )k+2 + ( pq ) ( pq )N +2
uk =
1 ( pq )N +2
( pq )k+2 ( pq )N +2
uk =
1 ( pq )N +2
=

30

La grafica anterior expone la probabilidad cuando uk esta


en funcion de la variable de parametro k dandole varios
valores a p y con N = 50, siendo N el total del capital. La
linea recta que une la probabilidad 1 con la probabilidad
0, muestra el comportamiento en caso de ser simetrica la
partida. Se observa tambien que la probabilidad de ruina
decrece cuando el capital k aumenta.
4.4.

Analisis de la Solucion

Gracias a la formula, en donde N = 50, podemos analizar el comportamiento de las probabilidades, por ejemplo
en el caso simetrico P = 1/2, cuando la partida es justa,
la probabilidad de ruina se acerca mucho a 1, especialmente si k es mucho menor que N , lo que nos indica que
el jugadorA no deberia apostar en contra de adversarios
muy ricos, aun siendo la partida justa. Ademas podemos
apreciar que la variable uk es muy sensible a los avlores
de p cercanso a 1/2, lo que no se esperaba. Ahora cuando
p es distante de 1/2 la probabilidad de uk es constante,
pero cuando p se acerca a 1/2 la probabilidad cambia
31

rapidamente de un extremo a otro.


5.

Distribuci
on de Poisson

Es una distribucion de probabilidad discreta. Expresa


la probabilidad de un n
umero de eventos ocurriendo en
un tiempo fijo si estos eventos ocurren con una tasa media conocida, y son independientes del tiempo desde el
u
ltimo evento. Su distribucion de probabilidad esta dada
por:
x e
P (x) =
x!
Donde:
e es el base del logaritmo natural (e = 2,71828...)
x es el n
umero de sucesos favorables
es un n
umero real positivo, equivalente al n
umero
esperado de ocurrencias durante un intervalo dado
Ejemplo

Si el 1 % de las bombillas fabricadas por una compa


nia
son defectuosas, hayar la probabilidad de que en una
muestra de 100 bombillas, 3 sean defectuosas
= n p = 100 0, 01 = 1
x e
P (x) =
x!
13 e1
P (x = 3) =
= 0, 0613 6, 13 %
3!

32

El n
umero de clienes que llega a una corporacion de ahorro y vivienda los sabados es un promedio de 40 por hora. Cual es la probabilidad de que lleguen por lo menos
2 clientes
a. En un periodo de 14 minutos
=

40
60 14

= 9, 33
x e
P (x) =
x!
P (x > 2) = 1 [P (x = 0) + P (x = 1)]

9, 330 e9,33 9, 331 e9,33


+
] = 0, 99
0!
1!
b. En un periodo de 5 minutos
1[

40
60 5

= 3, 33
x e
P (x) =
x!
P (x > 2) = 1 [P (x = 0) + P (x = 1)]
3, 330 e3,33 3, 331 e3,33
1[
+
] = 0, 84
0!
1!

6.

Procesos de Poisson

Suponga que un mismo evento ocurre repetidas veces


de manera aleatoria a lo largo del tiempo,tal evento puede ser por ejemplo la llegada de una reclamacion a una
compa
na aseguradora, o la recepcion de una llamada a
un conmutador, o la llegada de un cliente a una ventanilla para solicitar alg
un servicio, o los momentos en que
una cierta maquinaria requiere reparacion, etcetera. Suponga que las variables aleatorias T1 , T2 ... representan los
33

tiempos que transcurren entre una ocurrencia del evento


y la siguiente ocurrencia. Suponga que estos tiempos son
independientes uno del otro, y que cada uno de ellos tiene distribucion exp(). Se define el proceso de Poisson al
tiempo t como el n
umero de ocurrencias del evento que
se han observado hasta ese instante t.
6.1.

Definici
on 1:

Un proceso {N (t), t > 0} es llamdo proceso contable


si N (t) representa el total de eventos que ocurren hasta
un tiempo t, N (t) satisface:
(i) N (t) > 0
(ii) N (t) es un n
umero entero
(iii) Si s < t, entonces N (s) < N (t)
(iv) Para s < t, N (s) N (t) es la cantidad de ocurrencias de evento en (s, t]
6.2.

Definici
on 2:

Sea T1 , T2 , ... una sucesion de variables independientes


entre si, una con distribucion exponenciallanda exp().El
proceso de poisson de parametro (rata) es el proceso a
tiempo contnuo {N (t), t > 0} definido por
N (t) = max{n > 1; T1 +T2 +...+Tn 6 t}(cantidad de ocurrencias)
Si el parametro no cambia a traves del tiempo, entonces
es un proceso de poisson homogenio
Wn = T1 + T2 + ... + Tn (sucesiones de eventos)
34

(N (t) > n) = (Wn 6 t)


6.3.

Definici
on 3:

La variable N (t) tiene una distribucion de poisson


(t), es decir que para cualquier t > 0 y n = 0, 1, 2....
P (N (t)) = n) = e

n
t (t)

n!

Si se tiene que N (t) sigue una distribucion de poisson


entonces
E[N (t)] = t
6.4.

V ar[N (t)] = t

Perdida de la memoria:

Para tiempo s, t > 0, se cumple que:


P (T > t + s|T > s) = P (T > t)
En otras palabras, condicionada al evento (T > s),la
variable T s sigue teniendo distribucion exp(). Esto
significa que el proceso de Poisson puede estudiarse a
partir de cualquier tiempo s > 0, teniendo las mismas

35

propiedades a partir de ese momento hacia adelante. Esto es, si uno toma cualquier tiempo s > 0 y empieza
a contar desde cero las ocurrencias de eventos a partir
de ese momento, lo que uno obtiene es nuevamente un
proceso de Poisson.
6.5.

Definici
on 4:

Sean s, t > 0 y N (t), N (s) procesos contables, entonces


N (t) es un proceso de poisson si:
(i) N (0) = 0
(ii) Tiene eventos independientes (incrementos)
(iii) el nuemro de eventos en un intervalo de longitud t
tiene una distribucion de Poisson con media t. Esta
es para todo t, s > 0
P {N (t + s) N (t) = n} = et

(t)n
;
n!

n = 0, 1, 2, ....

E[N (t)] = t
6.6.

Definici
on alternativa:

Un proceso contable{N (t), N (s)}, es llamado proceso


de poisson, con rata , > 0 si:
(i) N (0) = 0
(ii) El proceso tiene incrementos estacionarios e independientes
(iii) P {N (h) = 1} = h + oh
(iv) P {N (h) > 2} = o(h)
36

Def: Una funcion f es llamada o(h) si:


f (h)
=0
h0 h
lm

P0 (t) = P {N (t) = 0}
P0 (t + h) = P {N (t + h) = 0}
P0 (t + h) = P {N (t) = 0, N (t + h) N (t)}
P0 (t + h) = P {N (t) = 0}P {N (t + h) N (t) = 0}
P0 (t + h) = P {N (t) = 0} [1 h + oh]
P0 (t + h) = P0 (t) [1 h + oh]
P0 (t + h) = P0 (t) hP0 (t) + oh
P0 (t + h) P0 (t) hP0 (t) + oh
=
h
h
P0 (t + h) P0 (t)
oh
= P0 (t) +
h
h
0
P0 (t) = P0 (t)
P00 (t)
=
P0 (t)
Ln(P0 (t)) = t + c
P0 (t) = et+c
P0 (t) = ket ;

Po (0) = 1

P0 (0) = ke0 = 1
si k = 1
P0 (t) = P {N (t) = 0} = et
Pn (t) = P {N (t) = n}
Pn (t + h) = P {N (t + h)}
37

Pn (t+h) = P {N (t) = n, N (t+h)N (t) = 0}+P {N (t) = n1, N (t+h)N (t) =


+P {N (t + h) = n, N (t + h) N (t) > 2}
Pn (t+h) = Pn (t)P {N (t+h)N (t) = 0}+Pn1 (t)P {N (t+h)N (t) = 1}
+Pn (t + h)P {N (t + h) N (t) > 2}
Pn (t+h) = Pn (t)(1h+oh)+Pn1 (t)(h+oh)+Pn (t+h)o(h)
Pn (t+h) = Pn (t)Pn (t)+o(h)+hPn1 (t)+o(h)+Pn (t+h)o(h)
Pn (t + h) Pn (t) Pn (t) + o(h) + hPn1 (t) + o(h) + Pn (t + h)o(h)
=
h
h
h 0
Pn0 (t) = Pn (t) + Pn1 (t)
Pn0 (t) + Pn (t) = Pn1 (t) E.D.O
(t) = e

dt

lineal

= et

et Pn0 (t) + et Pn (t) = et Pn1 (t)


d t
[e Pn (t)] = et Pn1 (t)
dt
n=1

d t
[e P1 (t)] = et P0 (t)
dt
d t
[e P1 (t)] =
dt
Z
Z
d t
[e P1 (t)] = dt
dt
et P1 (t) = t + c
P1 (t) = et (t + c)
P1 (t) = tet

c=0

Para k = n
P0 (t) = et

P1 (t) = tet
38

Suponga que la ecuacion se cumple para k = n 1, esto


es:
t
Pn1 (t) = et
hipotesis inductiva
(n 1)!
Debemos llegar a:
et (t)n
Pn (t) =
n!
Partiendo de:
d t
[e Pn (t)] = et Pn1 (t)
dt
Z t
t
0
e Pn (t) e Pn (0) =
es Pn1 (s)ds
0

Reemplazando la hipotesis inducctiva


Z t
n1
t
s s (s)
e Pn (t) =
e e
ds
(n 1)!
0
t

n
n t

(s)
1
(s)

et Pn (t) =
=
n(n 1)! 0
n! 0
(t)n (0)n

n!
n!
t
n
e (t)
Pn (t) =
n!

et Pn (t) =

Proposici
on:

Para cualquier tiempo s, 0 6 s < t, n = 0, 1, 2, ....:


e(ts) ((t s))n
P {N (t)N (s) = n} = P {N (ts) = n} =
n!
39

Demostraci
on:
P {N (t)N (s) = n} =

P {N (t)N (s) = n|N (s) = k}P {N (s) = k}

k=0

Por proiedad de perdida de la memoria N (t) N (s)


N (t s)
=

P {N (t s) = n}P {N (s) = k}

k=0

= P {N (t s) = n}

P {N (s) = k}

k=0

P {N (t) N (s) = P {N (t s) = n}
Ejemplo

Un cable submarino tiene defectos de acuerdo a un


proceso de poisson de parametro = 0, 1 por cada Km
1. Cual es la probabilidad de que no hayan defectos en
los primeros 2 kilometro de cable
P {N (t) = n} = e

n
t (t)

n!
(0, 1(2))0
P {N (2) = 0} = e0,1(2)
0!
= 0, 8187 81, 87 %
2. Cual es la probabilidad de que no hayan defectos en el
kilometro 3 si no las hay en los primero 2 kilometros
P {N (s + t) N (t) = n} = e

n
t (t)

n!
P {N (3) N (2) = 0|N (2) = 0} = P {N (3) N (2) = 0}
40

0
0,1(1) (0, 1(1))

P {N (1) = 0} = e

0!
= 0, 9048 90, 48 %

El n
umero de automoviles que llegan a un parquedero lo
hacen de acuerdo a un proceso de poisson con tasa de 6
vehiculos por hora.
1. Cual es la probabilidad de que pasen 15 minutos sin
llegadas
6/60 = 0, 1
P {N (t) = n} = e

n
t (t)

n!
(0, 1(15))0
P {N (15) = 0} = e0,1(15)
0!
= 0, 22 22 %
2. Cuales la probabilidad de que llegue exactamente 6
vehiculos en una hora
6/60 = 0, 1
P {N (t) = n} = e

n
t (t)

n!
6
0,1(60) (0, 1(60))
P {N (60) = 6} = e
6!
= 0, 16 16 %
7.

Cadenas de Markov(Tiempo Discreto)

Un proceso o sucesion de eventos que se desarrolla en


el tiempo en el cual el resultado en cualquier etapa contiene alg
un elemento que depende del azar se denomina
proceso aleatorio o proceso estocastico.
41

El caso mas simple de un proceso estocastico en que


los resultados dependen de otros, ocurre cuando el resultado en cada etapa solo depende del resultado de la etapa anterior y no de cualquiera de los resultados previos.
Tal proceso se denomina proceso de Markov o cadena de
Markov (una cadena de eventos, cada evento ligado al
precedente).
7.1.

Definici
on

Una cadena de Markov es una sucesion de ensayos similares u observaciones en la cual cada ensayo tiene el
mismo n
umero finito de resultados posibles y en donde
la probabilidad de cada resultado para un ensayo dado
depende solo del resultado del ensayo inmediatamente
precedente y no de cualquier resultado previo.
Un proceso estocastico {xt , t 0} es una cadena de
Markov, si cumple con la propiedad de Markov, si se
tienen ik estados; k=0,1,2,...,t,t+1,...,s entonces:
P {xt+1 = it+1 |xt = it , ..., x1 = i1 , xo = io } = P {xt+1 = it+1 |xt = it }
P = {xt+1 = J/xt = i} = Pij (1) = P ij
Pij es la probabilidad de pasar del estado i al j en una
transicion. Las Pij se conocen como probabilidades de
transicion y se pueden escribir en una matriz sxs, si se
tienen s estados.
(ij ), Pij 0

42

P11 P12 .... P1s


P21 P22 .... P2s


 .
.
.
.

Pij (1) = Pij = P =

.
.
.
.

.
.
.
.
Ps1 Ps2 .... Pss
Ejemplo: (Ruina del Jugador) Dos jugadores apuestan sucesivamente:
tiene

El jugador A K unidades.
tiene
El jugador B N-K unidades, donde el capital total
de los dos jugadores es igual a N .
En cada apuesta el jugador A tiene probabilidad de ganar
p, y probabilidad de perder q = 1 p, suponga ademas
que no hay empates.

Diagrama de Estados

1
0
0

0
P
  1P

P = 0
1P
0
0
0
1P
0
0
0

43

0
0
P
0
0

0
0
0
P
1

(3)

7.2.

Probabilidades de Transicion en 2 etapas

Pij =

Pij2

s
X

=P =

Pik Pkj

k=1

Supongamos que se tienen s estados entre i y j

Para 2 estados

Pij (2) = Pij2 = Pi1 P1j + Pi2 P2j + Pi3 P3j + ... + Pis Psj
Pij (2) =

Pij (2) = [Pi1

7.3.

s
X

Pik Pkj

k=1
P1j
P
2j
Pi2 ...Pis ] ..
.
Psj

= Pij Pij = P 2

Probabilidades de Transicion en 3 etapas

44

(4)

Para 3 estados

Pij (3) =

s
X

Pik (2)Pkj =

k=1

s
X

Pik Pkj (2) = P 3

k=1

Pik Pkj (2) = Pi1 (P11 Pij +P12 P2j +...+P1s Psj )+Pi2 (P21 Pij +P22 P2j +...+P1s Psj )+P
7.4.

Probabilidades de Transicion en n etapas

Pij (n) =
tiempo 0

Pij (n) =

Pijn

s
X

(n1)
Pik Pkj

s
X

(n1)

Pik Pkj

k=1

k=1

tiempo(n-1)

tiempo n

(n1)
(n1)
Pij P1j +Pi2(n1) P2j +...+Pis Psj

= Pn

s
X
k=1

45

(n1)

Pik

Pkj

(n1)
[Pij

(n1)
(n1)
Pi2 ...Pis ]

P1j
P2j
..
.
Psj

(n1)
= Pij Pij = P (n)

(5)

El clima de un pueblo es muy cambiante. Si hoy


es seco, la probabilidad de que ma
nana sea seco es del
0.8, pero si hoy llueve la probabilidad de que este seco
ma
nana es del 0.6.

si t es seco 0
x(t) =
(6)
si t es lluvioso 1


0,8 0,2
(7)
0,6 0,4
Ejemplo

P01 = 0,2
1 modelo de camara que se puede solicitar
cada semana
Dt : t = 1, ....
D2 : 10
=1
X0 =numero de cmaras que se tiene al iniciar el proceso
Ejemplo 2.

Si Xt = 0 ordenaron 3 camaras
Xt 0 no ordenaron ninguna camara

si x(t)=0,max(3 Dt+1 , 0)
x(t) =
si x(t) 1,max(x(t) Dt+1 , 0)
46

(8)

0,08
0,632

0,264
0,08

0,184 0,368 0,368


0,368
0
0

0,368 0,368
0
0,184 0,368 0,368

n e
1e1
P (Dt+1 = n) =
=
n!
n!
e1
P (Dt+1 = 0) =
= 0,368
0!
e1
P (Dt+1 = 1) =
= 0,368
1!
e1
P (Dt+1 = 2) =
= 0,184
2!
P (Dt+1 3) = 1 P (Dt+1 < 3) = 0,08

7.5.

Ecuaci
on de Chapman Kolmogrov

Pij (n + m) =

s
X

(n)

(m)

(m)

(n)

Pik .Pkj = Pik .Pkj = P n+m .

k=1

47

Supongamos una cadena de s estados:


si p{xn+m = j/Xn = i} = p{Xn = j/X0 = 1}
Ejemplo
necesitamos saber cual es el estado del clima dentro de
dos dias si hoy estuvo seco


 

0,8
0,2
0,8
0,2
0,76
0,24
P 2 = P.P =
=
0,6 0,4 0,6 0,4
0,72 0,28
La probabilidad de que dos dias llueva es de 0, 24
La probabilidad de que dos dias este seco es de 0, 76
Ejemplo
Se producen 2 tipos de Kola.Si dado un cliente que compro kola 1, hay un 90 % de probabilidad de que a la proxima compre kola 1; y si el cliente compro kola 2, hay un
80 % de probabilidad de que a la proxima compre kola 2.
Se obttiene el siguiente diagrama de estados:

Se obtiene la siguiente matriz de probabilidad:




0,9 0,1
P =
0,2 0,8
1. Si una persona compra kola 2. Cual es la probabili-

48

dad de que compre kola 1 2 veces a partir de ahora?



 


0,9
0,1
0,9
0,1
0,83
0,17
=
P2 =
0,2 0,8 0,2 0,8
0,34 0,66
P {X2 = 1|X0 = 2} = P21 (2) = 0,34 = 34 %
2. Si una persona compra kola 1. Cual es la probabilidad de que compre kola 1 3 veces a partir de ahora?
P3 = P2 P


 

0,83 0,17 0,9 0,1
0,781 0,219
3
P =
=
0,34 0,66 0,2 0,8
0,438 0,562
P {X3 = 1|X0 = 1} = P11 (3) = 0,781 = 78,10 %
7.6.

Distribuci
on de probabilidad inicial

Suponga que en el tiempo 0 el sistema se encuentra en


el estado i entonces:
P {x0 = i} = qi

q~i = [q1 , q2 , q3 , ..., qs ]

Queremos saber la probabilidad que el sistema se encuentra en el estado j en n transiciones depues


P {xn = j | x0 = i},

P {x0 = i} = q~i

P {xn = j | x0 = i} = q1 P1j (n) + q2 P2j (n) + qs Psj (n)

P1j (n)



P2j (n)
= q1 , q2 , . . . , qs ..
.
Psj (n)
P {xn = j | x0 = i} = ~q(j esima columna de p(n) )
49

Suponga que el 60 % de las personas en la actualidad beben Kola 1 y el 40 % Kola 2, entonces 3 compras apartir de ahora que porcentaje de los compradores
estaran bebiendo Kola 1
Teniendo:




0,
781
0,
219
p3 =
y ~q = 0, 6 0, 4
0, 438 0, 562



 0, 781
P = {x3 = 1 | x0 = i} = 0, 6 0, 4
= 0, 6438
0, 438
Ejemplo:

7.7.

Clasificaci
on de estados en una cadena de markov

Un estado j es alcanzable de i a j si hay una trayectoria que conduzca de i a j


Se dice que dos estados i y j se comunican si j es
alcanzable desde i, e i es alcanzable desde j.
UN conjunto de s estados en una cadena de markov
es un conjunto cerrado si ningun estado fuera de s
es alcanzable desde ningun estado s
Un estado i es absorbente si Pii = 1.
Un estado i es transitorio si existe un estado j que
es alcanzable desde i, pero i no es alcanzable desde
j.
Si un estado no es transitorio se llama recurrente
Un estado i es periodico, con periodo k > 1, si k es
el nuemro mas peque
no tal que las trayectorias que
conducen del estado i, de regreso al estado i tienen

50

una longitud que es multiplo de k.Si un estado no es


periodico, es aperiodico.
Si los estados en una cadena son recurrentes, aperiodicos y se comunican entre si, se dice que la cadena
es ergodica.
7.8.

Probabilidad de estado estable

Considere una cadena


 de Markovcon s estados ergodica y un vector j = 1 2 . . . s tal que:

1 2 . . . s
. . .
s
1 2
lm P (n) = ..
.
.
..
..
n
.

1 2 . . . s
El vector j se llama distribucion de estado estable y
cada j ;j = 1, 2, 3, ..., s se denomina probabilidad de estado estable
s
X
1 + 2 + ... + s =
j = 1
j=1

lm Pjj (n) = lm Pjj (n + 1) = j

n
s
X

Pjj (n+1) =

n
s
X

Pikn Pjk =

k=1

Pik Pikn = pn+1 , i, j

k=1

lm Pjj (n + 1) = lm

j =

s
X
k=1

s
X

Pikn Pjk

k=1

lm Pikn Pjk

51

estados

j =

s
X

j P : kj

k=1


j = 1

P11

 P
2 . . . s .21
..
Ps1

P1s
. . . ...

. . . ...

Pss

Hayar la matriz de probabilidad de estado


estable el ejemplo de Kola.




0, 9 0, 1
p=
y = 1 2
0, 2 0, 8



 
 0, 9 0, 1
1 2 = 1 2
0, 2 0, 8
Ejemplo:

1 = 0, 91 + 0, 22 0, 11 0, 22 = 0 (1)
2 = 0, 11 + 0, 82 0, 11 + 0, 22 = 0 (2)
1 + 2 = 1 (3)
Ahora multiplicando (1) 10 y sumadole (3) 2 queda:
1

22 = 0

+
21 + 22 = 2
31
= 2
1 =

1
2
2 =
3
3

52

7.9.

Tiempos promedio de primer paso

Vamos a definir mij como el n


umero esperado de transiciones para llegar de i a j una sola vez, entonces:
mij = 1 +

s
X

Pik mkj

mii =

k6=j

1
i

Ejemplo de Kola

m11 =

1
3
=
2/3 2

1
=3
1/3
s
X
=1+
P1k mk2

m22 =
m12

k6=2

m12 = 1 + P11 m12


0, 1m12 = 1

m12 = 10 una persona que tome Kola 1 tomara 10 veces Kola 1 antes de que
s
X
m21 = 1 +
P2k mk1
k6=1

m21 = 1 + P22 m21


0, 2m12 = 1

m21 = 5 una persona que tome Kola 2 tomara 5 veces Kola 2 antes de que ca

53

8.
8.1.

Teoria de colas
Notaci
on para las caracteristicas de los sitemas de
cola

j = Probabilidad de estado estable de que haya j clientes en el sistema.


L = N
umero esperado de clientes en el sitema
Lq = N
umero esperado de clientes en la cola
Ls = N
umero esperado de clientes en servicio
W = Tiempo esperado que pasa un cliente en el sistema
Wq = Tiempo esperado que pasa un cliente esperando
en la cola
Ws = Tiempo esperado que pasa un cliente en el servicio
= N
umero promedio de llegadas de clientes por unidad
de tiempo
= N
umero promedio de terminaciones de servivio por
unidad de tiempo (rapidez del servicio)
= Intensidad de trafico

54

8.2.

Notaci
on Kendall

David Kendallen 1953 introdujo una notacion que permite describir las colas y mostrar las caracteristicas de
las mismas, mas que nada clasificar los diferentes tipos
de colas. De forma general se tiene que se determina de
la siguiente manera:
1|2|3|4|5|6
donde los n
umeros se replazan con:
1. La naturaleza del proceso de llegada, o sea la distribucion de probabilidad del tiempo de llegadas, esta
puede ser exponencial(M ),Deterministica(D),Erlang(Ek )
o general(GI)
2. La naturaleza de los tiempos de servicio, esta puede
ser exponencial(M ),Deterministica(D),Erlang(Ek ) o
general(GI)
3. La naturaleza de n
umeros de servidores en paralelo.
4. La disciplina de la cola:
PLPS= Primero en llegar,primero en ser atendido.
ULPS= Ultimo en llegar, primero en ser atendido.
SEOA= Servicio en orden aleatorio.
DG= Disciplina general de la cola.
5. El n
umero permisible de clientes en el sistema, incluyendo los que esperan y los que estan en el servicio.
6. Es el tama
no dela poblacion de la cual se toman los
clientes.
55

8.3.

Sistema de colas |M ||M |1|DG|||

Este sistema tiene tiempos exponenciales entre llegadas


, que suponemos que la rapidez de llegada por unidad de
tiempo es y que hay un solo servidor con tiempos de
servicio exponencilaes. Asimismo se supone que el tiempo
de servicio para cada cliente es exponencial con rapidez
.

n =

n = 0, 1, 2, 3, ...
0 = 0

n =

n = 1, 2, 3, ...

Deducci
on de las probabilidades de estado estable

n (n + n ) = n+1 n+1 + n1 n1 )
0 . . . n1
0
1 . . . n

definimos =

n =
n
n = n 0

56

<1

n = 1;

n = n 0

X
X
0 +
n = 1; 0 + 0
n = 1

n=0

n=1

n=1

0 + 0
0 (1 +

n=1

n = 1

n = 1

n=1

)=1
0 (1 +
1

como

n =

n=1

0 (

1
)=1
1

0
= 1 = 0 = 1
1
n = n (1 )
Estimici
on de Parametro

n
0
1
..
.
k
..
.

L
0
1
..
.
k
..
.

Lq
0
0
..
.
k1
..
.

Ls
0
1
..
.
1
..
.

Para Lq :
Lq = 00 + 01 + 2 + ... + (k 1)k

X
Lq =
(n 1)n
n=1
57

Lq =

nn

n=1

Lq =

n=1

nn (1 ) (1 0 )

n=1

Lq =

nn 0 (1 0 )

n=1

Lq = 0

nn (1 0 )

n=1

) (1 0 )
(1 )2

) (1 (1 ))
Lq = (1 )(
(1 )2
Lq = 0 (

2
Lq =
=
(1 )
1
Lq =

2
2

2
Lq =
( )
Para Ls :
Ls = 00 + 1 + 2 + ... + k
Ls =

n=1

Ls = 1 0
Ls = 1 (1 ) =
58

Ls =

Para L:
L = Lq + Ls
2
L=
+
1

=
L=
1

Ahora para W :
L

W =

W =

1
W =

Para Wq :
Wq =
Wq =

Lq

2
( )

Wq =
)
(
Para Ws :
Ws =
Ws =

Ls

1
Ws =

59

8.4.

Sistema de colas |M ||M |1|DG|c||

Este sistema es identico al anterior con excepcion de que


cuando hay presentes c clientes, todas las llegadas seregresan y el sistema las pierde para siempre:Suponemos
que los tiempos enre llegadas son exponenciales con rapidez y que los tiempos de servicio son exponeciales con
rapidez .

n =
c = 0;

n = 0, 1, 2, 3, ..., c
n = c + 1, c + 2, c + 3, ...
0 = 0

n =
c = 0;

n = 1, 2, 3, ...

n = c + 1, c + 2, c + 3, ...

Deducci
on de las probabilidades de estado estable

=
60

c
X

n = 1;

n = n 0
c
c
X
X
0 +
n = 1; 0 + 0
n = 1

n=0

n=1

n=1

0 + 0
0 (1 +

c
X

n=1
c
X

n = 1

n = 1

n=1
c
X
c+1
c+1
n
)=1
como
=
0 (1 +
1
1
n=1

c+1 
0 1 +
=1
1
 1 c+1 
1
= 1 = 0 =
0
1
1 c+1
 1 
n
n =
1 c+1
Estimici
on de Parametro

n
0
1
2
..
.
c

L
0
1
2
..
.
c

Lq
0
0
1
..
.
c1

Ls
0
1
1
..
.
1

Para hayar L se tiene:


L = 00 + 1 + 22 + ... + (c)c

61

L=

L=

c
X

nn

n=1
c
X

nn o

n=1

L = o

c
X

nn

n=1

Ahora para hayar el valor de esta sumatoria se debe ver


:
c
X
1 c+1
n =
1
n=0
derivando esta sumatoria obtenemos:
(c + 1)(1 )c + (1 c+1 )
(1 )2
multipicando por para que la sumatoria quede desde
n = 1 se obtiene

[(c + 1)(1 )c + (1 c+1 )]


(1 )2

en conclusion:
c
X
[(c + 1)(1 )c + (1 c+1 )]
n
=
(1 )2
n=1
Remplazando en L = o

c
X

nn obtenemos:

n=1

L = o

[(c + 1)(1 )c + (1 c+1 )]


(1 )2
62

1 [(c + 1)c + (c + 1)c+1 + 1 c+1 ]

L=
1 c+1
(1 )2
1 [1 (c + 1)c + cc+1 ]
L=

1 c+1
(1 )2
[1 (c + 1)c + cc+1 ]
L=
(1 c+1 )(1 )
Para hayar Ls :
Ls = 00 + 1 + 2 + ... + c

X
Ls =
n
n=1

Ls = 1 0
Para hayar Lq :
Lq = L Ls
Ahora para W se hace a partir de las siguientes ecuaciones:
L = W
Lq = Wq
Ls = Ws
Pero en este modelo de capacidad
nita tiene un promedio , pero c de esas llegada encuentran el sistema a toda capacidad y se van.En
realidad entrara al sistema un promedio de c =
(1 c ) llegadas por unidad de tiempo,entonces:
W =
Wq =

L
L
= W =

(1 c )
Lq
Lq
= Wq =

(1 c )
63

Ws =
8.5.

Ls
Ls
= Ws =

(1 c )

Sistema de colas |M ||M |s|DG|||

Suponemos que los tiempos entre llegadas son exponenciales, con rapidez igual a ,que los tiempos de servicio son exponciales, con rapidez , y que solo una cola de
clientes esperando su servicioen una de las s vemtanillas
o servidores.Si hay n s clientes, entonces losn clientes
estan en el servivcio; si hay n > s clientes, entonces las s
ventanillas estan ocupadas, y hay n s clientes esperando en la cola.Toda llegada que encuentre un aventanilla
vacia entra al servicio de inmediato, pero una llegada
que no encuentre ventanilla vacia se forma en la cola de
clientes que esperan su atencion.

64

n =
n = n
= s

n = 0, 1, 2, ....
n = 0, 1, 2, ..., s
n = s + 1, s + 2, ....

Deducci
on de las probabilidades de estado estable

=
0 =

s
1

s1
X
(s)n
n=0
n

(s)s
+
n!
s!(1 )

(s) 0
n = 1, 2, 3, ...
n!
Si 1 no existe estado estable. En otras palabras si
la frecuencia o rapidez de llegadas es al menos igual a la
rapidez maxima posible de servicio ( s) explota el
sistema.La probabilidad de estado estable de que todas
las ventanillas esten ocupadas es:
n =

s)n 0
P (n s) =
s!(1 )
En la siguiente tabla se muestra P (n s) para diversas
situaciones:
65

s=2 s=3 s=4 s=5 s=6 s=7


0,10 0,02 0,00 0,00 0,00 0,00 0,00
0,20 0,07 0,02 0,00 0,00 0,00 0,00
0,30 0,14 0,07 0,04 0,02 0,01 0,00
0,40 0,23 0,14 0,09 0,06 0,04 0,03
0,50 0,33 0,24 0,17 0,13 0,10 0,08
0,55 0,39 0,29 0,23 0,18 0,14 0,11
0,60 0,45 0,35 0,29 0,24 0,20 0,17
0,65 0,51 0,42 0,35 0,30 0,26 0,21
0,70 0,57 0,51 0,43 0,38 0,34 0,30
0,75 0,64 0,57 0,51 0,46 0,42 0,39
0,80 0,71 0,65 0,60 0,55 0,52 0,49
0,85 0,78 0,73 0,69 0,65 0,74 0,72
0,90 0,85 0,83 0,79 0,76 0,74 0,72
0,95 0,92 0,91 0,89 0,88 0,87 0,85
Para deternimar Lq se debe basar en la tabla anterior y tener en cuenta la siguiente
ecuacion:
P (n s)
Lq =
1
Para determinar Wq se debe:
Estimici
on de Parametro

Wq =

Lq
P (n s)
=

Para calcular L y despues W , usamos el hecho de que


L = Lq + Ls .Como Ws = 1 y Ls = , entonces:
L = Lq + Ls
L = Lq +
66

L=

P (n s)
+
1

Para W :
W =

Lq 1
+

1
W = Wq +

Lq
P (n s) 1
W =
=
+

W =

8.6.

Ejemplos de Sistemas de colas

Supogamos que todos lo propietarios


de auntomoviles llenan sus tanques de gasolina cuando
estan exactamente a la mitadd.En la actualidad, llegan
un promedio de 7, 5 clientes por hora a una gasolinera
que tiene una sola bomba. SE necesita en promedio de
4 minutos para atender un automovil.Los tiempos entre
legadas como los de servicio son exponenciales. Ahora
Suponga que se presenta escasez de gasolina y que hay
compras de panico. Para modelar este fenomeno, suponga que todos los propietarios de automovil compran gasolina cuando a sus tanques les falta exactamente 3/4
partes. Como cada conductor pone menos gasolina al
tanque durante cada visita a la gasolinera, suponga que
el tiempo promedio de servicio se ha reducido a 3 31 minutos.Como afecto la compra de panico a L y W ? Realice
un analisis.
1.|M ||M |1|DG|||

67

Soluci
on:
60
= 3,33

= 2(7, 5) = 15 vehiculos por hora


= 18 vehiculos por hora

15 5
=
=
18 3
0, 833

=
= 5 automoviles
L=
1 1 0, 833
1
1
1 1
W =
=
= = (60) = 20 minutos
18 15 3 3
Debido a la presente escasez de gasolina los compradores
va mas seguido a la gasolineria a llenar sus tanques, esto
a su vez duplica las compras en la gasolinera. Este suceso
a ocaionado que un sistema que se encontraba en equilibrio y optimizado, ahora se encuentre con la presencia
de largas colas ya que por la escasez de gasolina abrian
5 automoviles en la gasolinera y tardaria 20 minutos en
sair de ella.
=

Una maquina que se utiliza para empacar bebidas en lata recibe un promedio de 20 latas por
hora y tarda 2 minutos en empacar una lata. Si los tiempos de operacion de la maquina y de llegadas de las latas
son exponenciales
2.|M ||M |1|DG|||

a. Determine L, Wq y W
b. Suponga ahora que las latas solo se llena hasta la mitad y el jefe de produccion de la empresa ordena que
se triplique el envo de latas a la maquina. Calcule
L y Wq . Cual es la razon entres L y W seg
un estos
datos?
68

Soluci
on:

a.
= 20 latas por hora
= 60
2 = 30 latas por hora
20 2
=
=
30 3

2/3
L=
=
= 2 latas
1 1 2/3
se esperan 2 latas en el sistema
=

2
202
400 4
Lq =
=
=
=
( ) 30(30 20) 300 3
Ahora:
Lq
4/3
4
1
=
=
= (60) = 4 minutos

20
60 15
las latas deben esperar 4 minutos antes de entrar a la
maquina
Wq =

W =

1
1
1
1
=
=
= (60) = 6 minutos
30 20 10 10

las latas tardan en total 6 minutos


b.
= 3(20) = 60 latas por hora
= 60
1 = 60 latas por hora
Si se llena hasta la mitad la lata esto significa que tardara la mitad de tiempo que duraba cuando llenaba la lata
completa, o sea si gastaba 2 minutos en llenarla completa, ahora gasta solo 1 minuto.
69

Si y son iguales, esto nos quiere decir que el sistema


se encuentra optimizado, por lo tanto no se generarian
colas.
Una instalacion de servicio consta de
una persona que puede atender un promedio de 2 clientes/hora. Los tiempos de servicio son exponenciales. Llega un promedio de 3 clientes por hora y se supone que los
tiempos entre llegadas son exponenciales. La capacidad
del sistema es de 3 clientes.
a. En promedio, Cuantos clientes potenciales entran
al sistema cada hora?
b. Cual es la probabilidad de que quien atiende este ocupado?
c. Cual es la probabilidad que hayan 4 personas en
el servicio?
d. Cuanto pasara una persona en la instalacion?
3. |M |M |1|DG|c||

a.
= 3 personas por hora (60 min)
Tiempo de servicio = 30 minutos
= 60
30 = 2 personas saldran del sistema por hora
3
= 2
j = j 0
21
1 32
1
16
8
0 = 1
= 130
= 65
81 =
4 =
1
65
Solucion:

16

16

8
3 = ( 32 )3 65
= 216
520 = 0.415384
Para hallar el promedio de personas que entraran a la
instalacion por hora usamos la formula

(1 3 )
70

Reemplazando los valores en la formula obtenemos:


3(1 0,415384) = 1,753848 1,75
Por lo tanto entraran un promedio de casi 2 personas
(1.75) a la instalacion por hora.
b.) Para encontrar la probabilidad de que el que este en
el unico servidor este ocupado hallamos el complemento
de el estado inicial 0 ya que este es el unico estado en
el que el servidor estara desocupado.
8
(1-0 ) = 1- 65
= 0.87692
Por lo tanto la probabilidad de que se encuentre
ocupada la persona en el servidor es del 87.69 por
ciento.
c.) 0, esta posibildad no existe ya que la capacidad maxima del sistema por hora es de 3 personas
d.) El tiempo promedio que una persona pasara dentro
de la instalacion se calcula por W, el cual representa el
tiempo esperado que pase un cliente durante todo el
proceso.
W =

L
(1 c )

[1 (c + 1)c + cc+1 ]
L=
(1 c+1 )(1 )
3

L= 2

[1(4)( 32 )3 +3( 23 )4 ]
(1( 32 )4 (1 32 )
129

129
32
65
32

129
65 =

1.9846

1,98
65
W = 3(10,415384)
= 1,7541
= 1.1315 horas

Por lo tanto una persona pasara aproximadamente 1 hora


y 8 minutos dentro de la instalacion.
71

Se tiene un sistema en el cual hay un


promedio de 10 llegadas por hora. Suponga que el tiempo de tramite de cada cliente sigue una distribucion de
Erlang con parametro de rapidez 1 cliente por minuto y
con parametro de forma 4.
a. Calcule el n
umero esperado de clientes que se esperan en la cola.
b. Que fraccion de tiempo el servidor estara ocioso?
c. Responda las mismas preguntas anteriores suponiendo que tanto el parametro de rapidez como el parametro de forma se duplican.
4. |M |G|1|DG|||

Solucion:

a.) K=4
R=1
=10
= 16
= 60
Lq = (L )

L=

10
1
L= 6010
= 10
50 = 5 clientes
1
clientes
Lq = 51 - 16 = 30

b.)La fraccion del tiempo que el servidor esta ocioso (0 )


se calcula:
0 = (1 )
0 = 1 16 = 56 = (60/6)* 5= 50
Lo que indica que como el tramite de cada persona usa
una distribucion de Erlang de parametro de rapidez 1
72

cliente por minuto entonces esto nos comprueba que durante 50 minutos el servidor esta ocioso.
c.)
=10
= 13
= 30
10
1
L= 3010
= 10
20 = 2 clientes
Lq = 21 - 13 = 16 clientes
0 = 1 31 = 23 = 32 (60) = 40 minutos
Lo que indica que como el tramite de cada persona usa
una distribucion de Erlang de parametro de rapidez 1
cliente por minuto entonces esto nos comprueba que
durante 40 minutos el servidor esta ocioso.
9.
9.1.

Movimiento Browniano
Historia

En 1828 un famoso botanico llamado ROBERT BROWN


observo a traves del microscopio que cuando suspenda unos granos de polen en el agua, estos presentaban un movimiento irregular.El penso que este
hecho se debia a las propiedades organicas del polen
pero esto fue refutado por el propio Brown ya que
descubrio que partculas muy finas de varios minerales seguan el mismo movimiento.
Brown observo que estas partculas se movan constantemente siguiendo una linea quebrada,es decir, en
zig zag y la traslacion de las partculas es debido a
la agitacion termica.

73

La primera investigacion matamatica fue realizada


en 1900 por LOUIS BACHELIER que propuso el movimiento browniano como modelo asociado a los precios especulativos. Pero decayo ya que planteo que
los precios podran ser negativos.
Pero el movimiento browniano no fue resuelto hasta que Einstein en 1905 p
ublico los aspectos principales del movimiento browniano:El prueba que el
movimiento de la partcula en el instante t se puede
modelar por medio de la distribcion normal y concluye ademas que el movimiento se debe a los continuos
choques de la particula con las moleculas del lquido
en el cual se halla suspendido.
Este y muchos cientificos mas aportaron en el estudio del movimiento Browniano pero la estructura
matematica del movimiento browniano tal como se
le conoce hoy en da es debido al matematico norteamericano NORBERT WIENER en 1923 por eso
este movimiento tambien es llamaso Proceso de Wiener.
9.2.

Definici
on

Suponga que un lquido esta contenido en un envase


de forma c
ubica, ubicado en un sistema coordenado, y
que en el tiempo t = 0, una partcula esta en el origen
(0, 0, 0). Sea X(t), Y (t), Z(t) la posicion de la partcula
despues de t unidades de tiempo.
Estamos interesados en la ditribucion de probabilidad
de las variables de posicion.
74

Veamos la variable X(t) en un tiempo de periodo infinitesimal(en un tiempo infinitamente peque


no) (0, t),
donde X(t) vendra siendo la suma de los movimientos
peque
nos de la particula en direccion del eje x.
Ahora dividimos el intervalo de tiempo longitud por
subintervalos n = ht , donde h sera la longitud de los
subintervalos.
Luego decimos que tenemos > 0 infinitesimal, en
cada uno de los subintervalos:
Si la partcula se mueve a la derecha unidades con
probabilidad de 13
Si se mueve a la izquierda unidades con probabilidad de 31
Si no se mueve 0 unidades con probabilidad de

1
3

Para i 1, sea

Entonces Xi es un camino aleatorio con:


1
1
1
E(Xi ) = . + (. ) + 0. = 0
3
3
3
1
1 2 2
2 1
V ar(Xi ) =
=
= . +( . )+0. =
3
3
3
3
Pn
Para n grande X(t) y
i=1 Xi tiene aproximadamente la misma distribucion.Ademas X1 , X2 , ..., Xn son
E(Xi2 )(E(Xi ))2

75

E(Xi2 )0

independientes.Luego,
por el teorema del limite podemos
Pn
decir i=1 Xi tiene distribucion normal con media = 0
2
y V ar(Xi ) = 23 . ht
Para construir la distribucion del componente X(t)
del movimiento browniano se necesita h 0 Y 0
2
2
para que de esta forma 2
3h tienda a una constante
Por lo tanto,X(t), N (0, 2 .t) entonces en particular las
variables Y (t), Z(t) tienen = 0, V ar = 2 .t
Tambien se puede demostrar que X(t), Y (t), Z(t) son
variables independientes, es decir, t0 < t1 < ... < tn
tenemos que X(t1 ) X(t0 ), X(t2 ) X(t1 ), ..., X(tn )
X(tn1 ) los cambios de tiempos que no coinciden son
independientes.
Ademas, tiene la propiedad de incrementos estacionarios, es decir, la distribucion fijada t para s < t y h
(, ), las variables X(t)X(s) y X(t+h)X(s+h)
estam igualmente distribuida.
1.
DEFINICION
El proceso estocastico {B(t), t 0} es un Movimiento Browniano con varianza 2 si cumple las siguientes
condiciones:
1. B(0) = 0
2. Tiene incrementos independientes y estacionarios.
3. Para todo s < t, B(t) B(s) N (0, 2 (t s))
2. Un movimiento browniano con parameDEFINICION
tro de varianza = 1, decimos que el movimiento browniano es estandar.
Si tenemos un movimiento browniano no estandar con

76

varianza 2

X(t)

W (t) = X(t)
se convierte en estandar.
W (t) =

Luego {W (t)}t>0
9.3.

Funci
on de Probabilidad de Transici
on

Vamos a calcular la funcion de densidad de la probabilidad condicional de X(t) dado que X(0) = 0 la denotaremos ft/t0 (x/x0 ), esta funcion son conocidas como
funci
on de densidad de probabilidad de transici
on
y, a partir de ella se puede calcular la siguiente probabilidad condicional:
Z
u

P X(t) u | X(0) = x0 } =

ft/t0 (x/x0 )dx

Como ft/t0 (x/x0 ) es una funcion de densidad de probabilidad cumple:


ft/t0 (x/x0 ) 0
R
ft/t0 (x/x0 )dx = 1
Para x 6= x0 lmt0 ft/t0 (x/x0 ) = 0
Einstein mostro que ft/t0 (x/x0 ) satisface la ecuacion parcial, conocida como la ecuacion de difusion o ecuacion de
calor:
f
1 2 2f
=
t
2 t2
Asi, la u
nica solucion de la ecuacion bajo las condiciones de que sea una funcion de densidad de probabilidad,es:
(xx )2
1
( 220t )

ft/t0 (x/x0 ) =
e
2t
77

Si comparamos el movimiento browniano con el proceso


de poisson sus definiciones coinciden en cuanto a que son
procesos con incrementos independientes y estacionarios,
la diferencia es la clase de distribucion de los incremetos.
9.4.

Funci
on de Probabilidad de Transici
on Conjunta

Para t1 < t2 , la funcion de densidad de probabilidad


conjunta de X(t1 ) y X(t2 ) es: f (x1 , x2 ), como las variables no son independientes, para encontrar su distribucion conjunta se usa un metodo de transformacion de
variables.
Consideremos la construccion de dos variables nuevas que son funciones de las variables originales U =
X(t1 ) y V = X(t2 ) X(t1 ), por propiedad de incremento independiente estas dos variables son independientes.
Entonces la funcion de densidad de probabilidad conjunta sera denotada como:gU,V (u, v) es el producto de sus
funciones marginales:
gU,V (u, v) = t1 (u).t2 t1 (v)
2
(u)2
1
1
( 2
( 22(v)
)
2t )
(t
t1 )
1
2
gU,V (u, v) =
e
. p
e
2t1
2(t2 t1 )
1
u2
v2
1
p
e 22 ( t1 + t2 t1 )
2 2t1 (t2 t1 )
u2
v2
1
1
2 ( t1 + t2 t1 )
2
gU,V (u, v) =
e
2 2 t1 (t2 t1 )
Decimos que:u = x1 , v = x2 x1 entonces fX1 ,X2 (x1 , x2 ) =
gU,V (x1 , x2 x1 ). | J |

gU,V (u, v) =

78

Para determinar el jacobiano despejamos x1 y x2 en


terminos de u y v
x1 = u, x2 = v + u
entonces
Luego fX1 ,X2 (x1 , x2 ) =

x2

( 1+
1
2 2 t1

e
2 2 t1 (t2 t1 )

(x2 x1 )2
t2 t1 )

, don-

de < x1 , x2 <
Generalizamos para encontrar la funcion de densidad
conjunta de X(t1 ), X(t2 ), ..., X(tn ) que se denota por f (x1 , ..., xn )
usando las variables de transformacion:
U1 = X(t1 )
U2 = X(t2 ) X(t1 )
.
.
.
Un = X(tn ) X(tn1 )
Por la propiedad de incrementos independientes, las
variables U1 , U2 , ..., Un son independientes y por la propiedad de incrementos estacionarios sus distribuciones
son normales:
U1 N (0, 2 t1 )
Ui = N (0, 2 (t2 t1 )), i =, 2, ..., n
Por lo tanto
f (x1 , ..., xn ) =

p
e
2 2 t1 (t2 t1 )...(tn tn1 )

79

(x x
)2
x2
1
( 1 + ti ti1 )
2 2 t1
i i1

, donde < x1 ,

9.5.

Ejercicios

C
odigo de trayectoria de partculas en movimiento browniano
En el siguiente ejemplo simularemos la trayectoria de
partculas brownianas por medio de un metodo aleatorio. El valor del metodo consiste en utilizar los n
umeros
aleatorios para generar un arreglo de angulos aleatorios
para el movimiento de la partcula en el espacio.
La forma en la que la partcula se va a mover es simple:
se propone un paso unitario en una direccion aleatoria
y en esa nueva ubicacion se hara otro desplazamiento
aleatorio sin que tenga relacion con la anterior.

80

10.
10.1.

Programaci
on Lineal
Historia

El problema de la resolucion de un sistema lineal de


inecuaciones se remonta, al menos, a Joseph Fourier, despues de quien nace el metodo de eliminacion de FourierMotzkin. La programacion lineal se plantea como un modelo matematico desarrollado durante la Segunda Guerra
Mundial para planificar los gastos y los retornos, a fin de
reducir los costos al ejercito y aumentar las perdidas del
enemigo. Se mantuvo en secreto hasta 1947. En la posguerra, muchas industrias lo usaron en su planificacion
diaria.
Los fundadores de la tecnica son George Dantzig, quien
publico el algoritmo simplex, en 1947, John von Neumann, que desarrollo la teora de la dualidad en el mismo a
no, y Leonid Kantorovich, un matematico de origen
ruso, que utiliza tecnicas similares en la economa antes
de Dantzig y gano el premio Nobel en economa en 1975.

81

10.2.

Que es?

Es un enfoque de solucion de problemas elaborado para ayudar a tomar decisiones. Es un modelo matematico con una funcion objetivo lineal, un conjunto de restricciones lineales variables no negativas. En el ambiente
de negocios actual, pueden encontrarse gran cantidad de
aplicaciones. El desarrollo de la programacion lineal ha
sido clasificado como uno de los avances cientficos mas
importantes de mediados del siglo XX.
La programacion lineal utiliza un modelo matematico para describir el problema. El adjetivo lineal significa
que todas las funciones matematicas del modelo deben
ser funciones lineales. En este caso, la palabra programacion no se refiere aqu a terminos computacionales;
en esencia es sinonimo de planeacion. Por lo tanto, la
programacion lineal involucra la planeacion de actividades para obtener un resultado optimo. Se dispone de un
procedimiento de solucion muy eficiente llamado metodo
smplex para resolver estos problemas lineales, incluso los

de gran tama
no. Estas
son algunas razones del tremendo
efecto de la programacion lineal en las decadas recientes.
10.3.

Modelos Matematicos

Los modelos matematicos tienen muchas ventajas sobre una descripcion verbal del problema. La mas obvia es
que describe un problema en forma mucho mas concisa.
Esta caracterstica tiende a hacer mas comprensible toda
la estructura del problema y ayuda a revelar las relaciones importantes causa-efecto. En segundo lugar, indica
con mayor claridad que datos adicionales son importan82

tes para el analisis. Tambien facilita el manejo total del


problema y, al mismo tiempo, el estudio de sus interrelaciones.
Por u
ltimo, un modelo matematico forma un puente
para el empleo de tecnicas matematicas y computadoras
de alto poder para analizar el problema.
Una vez que el tomador de decisiones define el problema, la siguiente etapa consiste en reformularlo de manera
conveniente para su analisis. La forma convencional en
que se logra este objetivo es mediante la construccion de
un modelo matematico que represente la esencia del problema. Los modelos, o representaciones idealizadas, son
una parte integral de la vida diaria. Esos modelos son
invaluables, pues extraen la esencia del material de estudio, muestran sus interrelaciones y facilitan el analisis.
Los modelos matematicos tambien son representaciones idealizadas, pero estan expresados en terminos de
smbolos y expresiones matematicas. En forma parecida,
el modelo matematico de un problema industrial esta conformado por el sistema de ecuaciones y expresiones matematicas relacionadas que describen la esencia del problema. De esta forma, si deben tomarse n decisiones
cuantificables relacionadas entre s, se representan como
variables de decisi
on
(x1 , x2 , ..., xn )

(9)

para las que se deben determinar los valores respectivos. En consecuencia, la medida de desempe
no adecuada
(por ejemplo, la ganancia) se expresa como una funcion
83

matematica de estas variables de decision, por ejemplo


(P = 3x1 + 2x2 + ... + 5xn )

(10)

Esta funcion se llama funci


on objetivo. Tambien se expresan en terminos matematicos todas las limitaciones
que se puedan imponer sobre los valores de las variables de decision, casi siempre en forma de ecuaciones o
desigualdades como
(x1 + 3x1 x2 + 2x2 10)

(11)

Con frecuencia, tales expresiones matematicas de las limitaciones reciben el nombre de restricciones. Las constantes (los coeficientes o el lado derecho de las expresiones) de las restricciones y de la funcion objetivo se llaman
par
ametros del modelo.
10.4.

Introducci
on a la Programacion Lineal

La Programaci
on Lineal corresponde a un algoritmo a traves del cual se resuelven situaciones reales en las
que se pretende identificar y resolver dificultades para
aumentar la productividad respecto a los recursos (principalmente los limitados y costosos), aumentando as los
beneficios. El objetivo primordial de la Programacion Lineal es optimizar, es decir, maximizar o minimizar funciones lineales en varias variables reales con restricciones
lineales (sistemas de inecuaciones lineales), optimizando
una funcion objetivo tambien lineal.
10.5.

T
erminos importantes para la PL

Variables de decisi
on: En cualquier modelo de programacion lineal las variables de decision deben describir
84

por completo las decisiones que se tienen que tomar, por


ejemplo cantidad de un articulo determinado que se fabrica a la semana.
xi

i = 1, 2, 3, ..., n

(12)

Funci
on objetivo: Con la programacion lineal, el que
toma las decisiones desea maximizar o minimizar alguna
funciones de las variables de decision, esto se le hace a
una funcion, en este caso lineal.
f (x) = c1 x1 + c2 x2 ...

(13)

Restricciones: Llamadas tambien como limitaciones que


tienen las variables de decision, para que una restriccion
sea razonable, todos los terminos de las restriccion debe
tener las mismas unidades.
h1 (x)a11 x1 + a12 x2 + ... + a1n xn b1

(14)

h2 (x)a21 x1 + a22 x2 + ... + a2n xn b2

(15)

hm (x)am1 x1 + am2 x2 + ... + amn xn bm

(16)

Las variables de decision solo pueden asumir valores no


negativos, entonces se le a
nade la restriccion del signo
xi 0, pero hay casos donde no tiene restriccion de
signo, donde xi puede tomar tanto valores positivos como
negativos. Por ejemplo xj representa un saldo en efectivo de una empresa, entonces xj podra ser considerada
negativa si la empresa debe mas dinero del que tiene a
mano.

85

Una funcion f (x1 , x2 , ...xn ) de x1 , x2 , ..., xn es


una funcion lineal si y solo si para alg
un conjunto de
constantes c1 , c2 , ..., cn f (x1 , x2 , ..., xn ) = c1 x1 +c2 x2 +...+
cn xn

Definici
on

Una funcion f (x1 , x2 , ..., xn ) y cualquier numero b, las desigualdades f (x1 , x2 , ..., xn ) b y f (x1 , x2 , ..., xn )
b son desigualdades.

Definici
on:

10.6.

Definici
on de programaci
on lineal

Un problema de programacion lineal , es un problema


de optimizacion para el cual se efect
ua lo siguiente:
1. Se intenta maximizar(minimizar) una funcion lineal
de las variables de decision, dicha funcion se llama
funcion objetivo
2. Los valores de las variables de decision deben satisfacer un conjunto de restricciones. Cada restriccion
debe ser una ecuacion lineal o una desigualdad lineal.
3. Se relacion a una restriccion de signo con cada variable, esta no debe ser negativa
10.7.

Suposiciones de proporcionalidad

1. La contribucion de la funcion objetivo para cada variable de decision es proporcional al valor de esta.
2. La contribucion de cada variable al primer miembro
de cada restriccion, es proporcional al valor de la
variable.

86

10.8.

Suposiciones de aditividad

1. Las contribucion de la funcion objetivo para cualquier variable, es independiente de los valores de las
otras variables de decision. es decir que el de la funcion objetivo es la suma de las contribuciones de cada
una de las variables.
2. La contribucion de una variable al primer miembro
de cada restriccion, es independiente de los valores
de la variable. Es decir que el primer miembro de
cada restriccion es la suma de las contribuciones de
cada variable.
10.9.

Regi
on factible

La region factible para la programacion lineal, es el


conjunto de todos los puntos que satisfacen las limitaciones y las restricciones del signo.
10.10.

Soluci
on optima

Para un problema de maximizacion, una solucion optima para programacion lineal es un punto con el valor
de la funcion objetivo mas grande en la region factible.
Para un problema de minimizacion, una solucion optima para programacion lineal es un punto con el valor
de la funcion objetivo mas peque
no de la region factible.
10.11.

Conjunto convexos

Un conjunto de puntos S es un conjunto convexo si


el segmento que une cualquier par de puntos en S esta
totalmente contenido en S.
87

10.12.

Punto extremo

Para cualquier conjunto convexo S , un punto P en S


es un punto extremo si para cada segmento de recta que
esta completamente en S y contiene al punto P , este es
un punto terminal del segmento de recta.
10.13.

Casos de soluciones optimas

Caso 1: el PL tiene solucion u


nica
Caso 2: el PL tiene soluciones optimas alternativas
o sea dos o mas puntos extremos son optimos y la PL
tendra un numero infinito de soluciones optimas.
Caso 3: el PL es no factible, la region factible no
contiene puntos
Caso 4:El PL no es acotada, hay puntos en la region
factible con valores z arbitrariamente grandes(maximizacion
) o arbitrariamente peque
nos (minimizacion )
10.14.

Restricciones activas

Una restriccion es activa u obligatoria si tanto el primero como el segundo miembro de las restricciones son
iguales cuando los valores optimos de las variables de
decision en la restriccion.

88

10.15.

Restricciones inactivas

Una restriccion es inactiva si no son iguales el primero


y el segundo miembro de la restriccion cuando los valores
optimos de las variables de decision se sustituyen en la
restriccion.
10.16.

M
etodo grafico

Para resolver un problema de programacion lineal por


el metodo grafico con dos variables de decision se debe:
1. Graficar las restricciones
2. Identificar la region factible
3. Identificar los puntos extremos (vertices) de la region
factible
4. Ver cual de los puntos extremos es la solucion optima
para el problema
10.17.

M
etodo Simplex

Desafortunadamente, en la vida cotidiana la mayor


parte de los PL tienen varias variables, por lo que es
necesario un modelo para resolver PL con mas de dos
variables. El algoritmo simplex se utiliza para resolver
PL que tienen miles de restricciones y variables.
Antes de poder usar el algoritmo simplex para resolver
un PL, este se debe convertir en un problema equivalente
en el cual todas las restricciones son ecuaciones y las
variables son no negativas. Se dice que un PL en esta
forma esta en la forma est
andar.

89

Para convertir un PL en la forma estandar, cada restriccion de desigualdad se debe reemplazar por una restriccion de igualdad.
Leather Limited fabrica dos tipos de cinturones:
el modelo de lujo y el modelo regular.
Para cada tipo se requiere una yarda cuadrada de piel.
Se necesita una hora de mano de obra calificada para un
cinturon regular, y para un cinturon de lujo se requieren
de 2 horas. Se dispone cada semana de 40 yardas cuadradas de piel y 60 horas de mano de obra calificada.
Cada cinturon regular aporta 3 dolares a la utlidad, y
cada cinturon de lujo , 4 dolares. Se definen
Ejemplo

x1 = cantidad de cinturones de lujo f abricados cada semana


x2 = cantidad de cinturones regulares producidos a la semana.
El PL adecuado es:
M ax z = 4x1 + 3x2
S.a x1 + x2 40 (Restricciones de piel)

(17)
(18)

2x1 + x2 60 (Restricciones de la mano de obra)


(19)
en donde
x1 , x2 0
(20)
Ahora se define para cada restriccion una variable de
holgura si
x1 + x2 + s1 = 40
(21)
2x1 + x2 + s2 = 60

90

(22)

Ahora dandole valores a un punto (x1 , x2 ) satisface la


restriccion i- esima si y solo si
si 0

(23)

(15,20) Para las ecuaciones (13) y (14) satisface


las desigualdades
caso a:

(20,20) Para las ecuaciones (13) y (14) no satisface las desigualdades.


caso b:

Ahora asi se convierte el PL en un forma estandar


M ax z = 4x1 + 3x2
S.a x1 + x2 + s1 40 (Restricciones de piel)

(24)
(25)

2x1 + x2 + s2 60 (Restricciones de la mano de obra)


(26)
en donde
x1 , x2 , s1 , s2 0
Suponga que se ha convertido un PL con m restricciones en la forma estandar. Si se supone que la forma
estandar contiene n variables, la forma para tal PL es :
Max (o Min) z = c1 x1 + c2 x2 + ... + cn xn

a11 a12 a1n


a

21 a22 a2n
..
.. . . . ..
.
.
.
am1 am2 amn
91

(27)

x1
x2
..
.
xn

b1
b2
..
.
bn

(28)

(29)

Lo que se puede expresar como Ax = b.


Un cierto subconjunto de las soluciones basicas para
las restricciones Ax = b de un PL tiene una funcion
importante en la teora de la programacion lineal. Cualquier solucion basica en la cual todas las variables son
no negativas es una solucion factible basica.
10.18.

Ejemplo

Para formular un problema de Programacion Lineal


debemos definir
1. Variables de decision
2. Funcion Objetivo
3. Restricciones
Un negocio se dedica a la fabricacion de sillas y mesas;
para fabricar cada una se consume una determinada cantidad de recursos en los departamentos de corte y ensamble.

92

Los recursos estan en horas hombres y son 120 horas


para corte y 90 horas para ensamble
Cada unidad fabricada ofrece la siguiente ganancia a
la empresa :
50 USD para mesas y 80 USD para sillas

El objetivo de este problema es decir cuantas mesas y


cuantas sillas producir de forma tal que el objetivo es
obtener la maxima ganancia con los recursos disponibles.
Solucion:

Variables de Decision

x1 = mesas
x2 = sillas
Funcion Objetivo

z = Ganancias totales
z = 50x1 + 80x2
93

Restricciones

Que me va a impedir que las ganancias sean

infinitas?
Consumo Recursos Disponibles
x1 + 2x2 120 (corte)
x1 + x2 90 (ensamble)
Para poder graficar tomamos las ecuaciones de restriccion
Metodo Grafico

x1 + 2x2 = 120 (corte)


igualamos una de las dos variables a cero y encontramos
el valor para la otra, para poder hallar el punto de corte.
En este caso nuestro primer punto de corte fue
(0, 60)
y nuestro segundo punto de corte fue
(120, 60)
Hacemos lo mismo para la segunda ecuacion de restriccion
x1 + x2 = 90 (ensamble)
y obtuvimos
(0, 90) y (90, 0)
como los puntos de corte.

94

95

Observamos que la casilla 3 tiene el mayor resultado, por


lo que tomamos los valores de las variables en esta casilla
como las mas optimas. Por lo tanto se deben producir 60
mesas y 30 sillas para obtener las maximas ganancias.
Metodo Simplex

z = x1 + x2 = 90 M ax
x1 + x2 120
x1 + x2 90
x1 + x2 0
Igualamos la funcion de maximizacion a 0
z 50x1 80x2 = 0
Le agregamos las variables de holgura a las ecuaciones
de restriccion.
x1 + 2x2 + s1 = 120
x1 + x2 + +s2 = 90
Una vez establecidas las variables de holgura, procedemos a crear una tabla simplex en donde colocaremos los
valores de cada variable en el caso de cada ecauacion
mencionada anteriormente.
96

La columna se
nalada es la columna pivote y fue escogida
por tener el valor mas negativo en una de sus variables.
La fila se
nalada, es la fila pivote, y fue escogida por que
se tomaron los valores de la columna pivote en cada fila
respectiva y se divide el valor en la columna R por cada
variable correspondiente, en este caso
120/2 = 60
y
90/1 = 90
El valor menor obtenido fue 60 que corresponde a la fila
R2 por lo que esta fue seleccionada como la fila pivote.
Se procede a identificar el elemento pivote, en este caso
fue el numero 2, ya que coincide tanto la columna como
la fila en este elemento, y y se trata de volver ese 2 en
un 1 por medio de eliminacion Gaussiana.
Multiplicamos R2 *

1
2

Ahora se trata de volver 0 los elementos arriba y debajo


del elemento pivote.
97

Multiplicamos y Sumamos (80 * R2 )+ R1


80[0

1
1
1
0 60]
2
2

+[1 50 80 0 0 0]
= 1 10 0 40 0 4800
Multiplicamos y Sumamos (1 * R2 )+ R3
1[0

1
1
1
0 60]
2
2

+[0 1 1 0 1 90]
1
1
0 30
=0 0
2
2
Nueva Matriz

Nuevamente hallamos la columna y la fila pivote como


anteriormente y debemos tratar de volver 1 el elemento
pivote y 0 los elementos por encima y por debajo de el.
Multiplicamos 2 R3

98

Ahora multiplicamos (10 R3 ) + R1 y ( 12 R3 ) + R2 y


Obtenemos la siguiente Matriz

Interpretando la tabla tomamos cada columna y bajamos


hasta encontrar el numero 1, una vez se encuentre el
numero 1 en cada columna se la asigna a la variable de
esa columna el valor encontrado en este caso obtuvimos
z = 5400
X1 = 60
X2 = 30
por lo tanto las variables x1 = mesas y x2 = sillas obtuvieron los valores 60 y 30 respectivamente y el valor de
maximizacion de la funcion objetivo fue de 5400 igual
que lo obtenido con el metodo de solucion grafica.
11.

Modelos de Inventarios

La Gestion de Inventarios es la tecnica que permite


mantener una existencia de productos a un nivel adecuado, seg
un sean las necesidades de las Unidades Productivas que estan relacionadas, y en consecuencia de
las Estrategias de Produccion. Si miramos al Inventario
del punto de vista de Analisis del Valor, este no adiciona valor al Sistema de Produccion, por lo tanto, lo ideal
es que el tama
no del inventario que manejemos sea lo
99

mas peque
no posible. Su tama
no, en este caso, es dependiente de consideraciones de variabilidad que se manejan
dentro del Sistema Productivo y de los Niveles de Riesgo que sean aceptables para un determinado Sistema de
Produccion.
La finalidad de un sistema de inventario es dar respuestas a interrogantes como: cuanto pedir? y cuando
pedirlo? con el fin de minimizar los costos.
11.1.

Tipos de Inventarios

Hay tres tipos de inventarios que consisten en:


materia prima: son los productos que estan esperando ser usados por la lnea de produccion, estos deben ser
modificados y transformados para convertirse en producto final.
producto en proceso: son practicamente convertidos en producto final pero estan en produccion proceso.
producto terminado: es el producto final en espera
de ser vendido o distribuido.
11.2.

Tipos de Modelos de Inventarios

Existen dos tipos de modelos de inventarios, el determinstico y el probabilstico.


11.3.

Modelos de inventario determinstico

asume que la demanda y el tiempo de entrega son


conocidos y fijos, la produccion tambien es conocida y
fija despues de que se hizo el pedido.
100

11.4.

Modelos de inventario probabilstico

Este modelo de inventario asume que la demanda y el


tiempo de entrega no son conocidos ni fijos, sin embargo, se sabe que si sus variables tienen comportamientos
similares a alguna distribucion de probabilidad.
11.5.

Modelos de Inventarios Determinsticos

11.6.

Modelo B
asico de Lote Econ
omico (EOQ)

La naturaleza del problema del inventario consiste en


hacer y recibir pedidos de determinados vol
umenes, repetidas veces y a intervalos determinados. Esto determina
el lote economico (EOQ) al minimizar el siguiente modelo de costo:

Todos estos costos se deben expresar en terminos del lote


economico deseado y del tiempo del volumen pedido.
Costo de compra: se basa en el precio por unidad del
artculo.
Costo de almacenamiento: representan el costo de
mantener suficientes existencias en el inventario.
Costo de preparaci
on: representa el cargo fijo en el
cual se incurre cuando se hace un pedido.
Costo del faltante: es la penalidad en el cual se incurre
cuando nos quedamos sin existencias.
Para poder aplicarun modelo (EOQ) deben existir las
siguientes premisas:

101

1. La demanda es determinstica y ocurre a una tasa


costante.
2. Si se hace un pedido de cualquier tama
no, (por ejeplo
q unidades) se incurre en un costo k de pedido y
organizacion.
3. El tiempo de espera en cada pedido es cero.
4. No se permite escazes.
5. El costo por unidad - a
no de intervalo de reserva es
h.
La formula de la cantidad economica a pedir (EOQ) es
la siguiente:
r
2DC0
(30)
Q =
Ch
donde Q es la cantidad a pedir a un mnimo costo donde
se equilibran los costos de posesion y pedir.
D= la demanda anual para el producto.
C0 = costo de colocar un pedido.
Ch = costo anual de posesion por unidad en inventario.
11.7.

Derivaci
on del modelo B
asico de EOQ

Para hacer la derivacion de este modelo es necesario


entender la terminologa utilizada en los modelos de inventarios:
I = unidad que se mantiene durante el a
no.
q = cantidad de pedido.
h = costo por mantener la unidad que se retiene en el
inventario.
q = reduce el costo al a
no.
102

T C(q) = costo anual que se incurre si se piden q unidades cada vez que I = 0.
K = costo del pedido
D= demanda (pedidos al a
no)
P = costo por unidad
TC(q)= (costo anual de hacer pedido) + (costo compra
anual)+ (costo de retencion anual)
Como cada pedido consta q unidades se tendra que
hacer Dq pedidos por a
no.

K
D
q
para los valores de q, el costo de compra p, ya que
siempre se compra D unidades al a
no
=

= pD
Un concepto importante en el estudio del modelo EOQ
es la idea del ciclo.

103

Observando la grafica, vemos que consiste simplemente


en ciclos repetidos de duracion Dq por lo tanto cada a
no
contendra:

El inventario promedio es de 2q la (la mitad del nivel del


inventario). Este resultado funciona para modelos con
demanda de tasa costante. Ahora vamos a calcular el
costo retencion anual.

104

Combinando los costos de pedido, compra y retencion,


se obtiene:

Para mnimizar T C(q) se establece T C 0 (q) = 0.

Despejando laa ecuacion se satisface para q = (2KD/h) 2 .


1
Como q = (2KD/h) 2 no tiene sentido, esperamos
que el lote economico EOQ.
r
2KD
q =
(31)
h
Algunas observaciones que debemos tener en cuenta en
este modelo:
105

1. La EOQ no depende de p a que no importa la cantidad del pedido y por lo tanto su precio va a ser
costante.
2

2. Ya que el pedido de q , se deben pedir al a


no

D
q.

3. Para ver que EOQ es razonable, se le cambian algunos parametros.

4.
Braneast Airlies utiliza 500 luces traseras por
a
no. Cada vez que se hace un pedido de luces traseras,
se incurre en un costo de 5dls. Cada luz cuesta 40c y
el costo de retencion es de 8c/luz/a
no. Suponga que la
demanda ocurre a una tasa constante y no se permite
que haya escasez. Cual es la EOQ? Cuantos pedidos
se haran este a
no? Cuanto tiempo transcurrira entre la
colocacion de los pedidos?
Soluci
on
Se tiene que K =$5,
h =$0,08 /luz/a
no,
D = 500luces/ano.
La EOQ es:
s
2(5)(500)
q =
= 2,50
0,08
Ejemplo

Por consiguiente, la aerolnea debe hacer un pedido de


250 luces traseras cada vez que el inventario llega a cero
pedidos D
500
2pedidos
= =
=
a
no
q
2,50
a
no
106

El tiempo entre la colocacion de pedidos o (llegada) es


simplemente la duracion de un ciclo. Puesto que la du
racion de cada ciclo es qD , el tiempo entre pedidos sera:
q
250 1
=
= anual
D
500 2
11.8.

Modelo EOQ en el que se permiten pedidos atrasados

En muchas situaciones de la vida real, la demanda


no se satisface a tiempo y ocurre una escasez, cuando
ocurre una escasez, esto incurre en costos. En este modelo
se modificara una de las suposiciones del modelo EOQ.
Sea s el costo por faltar una unidad durante un a
no. Las
variables K, D y h tienen sus significados usuales.
Para determinar la poltica de pedidos que minimiza los
costos anuales, se define:
q= cantidad del pedido.
q-M= escasez maxima que ocurre en una poltica de
formulacion de pedidos de forma equivalente (suponiendo
un plazo de entrega cero), la empresa tendra un deficit
de q-M uni-mdades cada vez que se hace un pedido.
Suponiendo que el tiempo de pedido es 0. puesto que
los costos de compra no dependen q y M, se pueden
minimizar los costos anuales al determinar q y M

Observemos que inicia t = 0 a t = B, es identico cuando


t = B a t = D. por tal razon decimos que 0B y BD es
de ciclos. Los ciclos se consideran intervalos de tiempos
107

en colocacion de pedidos. Para determinar el costo de


retencion anual y el costo de deficit anual. Necesitamos
determinar costo de retencion por ciclos y el costo de
deficit por ciclos. Tambien podemos determinar la longitud del segmento 0A y AB. Puesto que un nivel de
inventario es 0 cuanto se hace un pedido M unidades. Se
concluye 0A = M/D y cuando el ciclo concluye cuando
se han pedido ?q? unidades. Se concluye 0B=q/D.
Al hallar los costos tenemos:
Para hallar los costos de retencion anual:

para hallar los costo de retencion por ciclos:

Y finalmente:

Para hallar el costo de escasez anual:

Hallando el costo de escasez por ciclo:

Y finalmente:
108

Sea T C(q, M ) el total del costo anual excluyendo el costo


de compra, en poltica si se utilizan los parametros q y
M , entonces se debe eligir q y M para minimizar

Derivando y despejando por cada parametro:

Cada a
no, la clnica de optometra smalltown
vende 10.000 armazones para anteojos. La clnica pide
los armazones a un proveedor regional, que cobra 15 dls
por armazon. En cada pedido se incurre en un costo de
50 dls. La clnica considera que la demanda de armazones se puede retrasar y que el costo de tener un deficit
de una armazon durante 1 a
no son 15 dls (debido a la
perdida de negocios futuros). El costo de retencion anual
para el inventario es de 30c por valor en dls de inventario.
Cual es la cantidad optima de pedido? Cual es el deficit maximo que ocurrira? Cual es el nivel de inventario
maximo que ocurrira?
Ejemplo:

109

Soluci
on
Se tiene que:
K = $50
D = 10.000 armazones por a
no
h = 0.3(15)=$4,50/armazon/a
no
s = $15/armazon/a
no
De la formula para q y M , se obtiene:
q = (

2(50)(10000)(19,50) 1
) 2 = 537,48
(4,50)(15)

2(50)(10000)(15) 1
) 2 = 413,45
(4,50)(19,50)
Entonces el deficit maximo que ocurre sera q M =
124,03 armazones, y cada pedido debe ser por 537 o 538
armazones. Ocurrira un nivel de inventario maximo de
M = 413,45 armazones.
M = (

110

You might also like