Professional Documents
Culture Documents
EMPRESARIAL
UNA INTRODUCCIÓN
1
DEDICATORIA.
Al lector.
2
PROLOGO
3
presentan como característica relevante el que pequeños cambios en las
circunstancias iniciales han dado origen a consecuencias tremendamente
diferentes.
4
“cascada” según un algoritmo iterativo de fracciones a la
manera de los “procedimientos de Cantor”.
4º Lo descrito señala que los comportamientos previsibles no son
“desordenados” aunque parezcan azarosos, al ser sensible a
las condiciones iniciales. En el caso de la economía ello
obliga a considerar, cuando menos, cuatro variables
interrrelacionables con ecuaciones diferenciales en el tiempo,
a saber: actor, precio, cantidad y espacio. Por supuesto el
recurrir a la hipótesis de “ceteris paribus” para realizar
simplificaciones tiene como costo alejarse de la realidad.
5º La consecuencia de todo lo anterior para la política económica
es que ella debe procurar establecer (ex -ante) condiciones
que hagan menos probables los resultados (ex-post) menos
deseables.
El libro que el lector tiene en sus manos explora, paso a paso, los
elementos a que hemos hecho referencia, de lo cual inferimos que una
lectura cuidadosa puede permitirle escoger el método más adecuado al
fenómeno que estudia o que intenta explicar.
5
PREFACIO.
6
lo dicho, debe quedar claro que no es un texto donde solo se presentan las herramientas
clásicas de toma de decisiones, sino que se busca introducir al lector en otros temas de
desarrollo más reciente y que no son exclusivos de estadísticos y matemáticos.
En el primer capítulo se introduce al lector al proceso de toma de decisiones, se dan por
primera vez el uso del cálculo de probabilidades con ejemplos en toma de decisión
financiera y, se presenta un método heurístico para la toma de decisiones en situaciones
de cierta complejidad conocido como proceso de jerarquía analítica; se dan los
conceptos básicos de la teoría de la utilidad, escala de medición y los pasos generales
para construir un modelo.
En el segundo capítulo se da una introducción a la programación lineal y cuadrática
indicando los conceptos básicos y propiedades sin demostrar estas últimas, relación
entre el problema primal y dual, se discute la interpretación económica del primal y dual
de un modelo de programación lineal; de seguida se presenta el análisis de sensibilidad
cuando se hacen cambios en la función objetivo, las restricciones etc. Igualmente, se
hace una introducción al análisis paramétrico, el uso del Solver para tratar problema de
programación lineal y cuadrática como una herramienta fácil de emplear. Se estudian
los modelos de racionamiento de capital, selección de inversiones, selección de cartera
de Markowitz, modelo de Ferrar. Se dan varios ejemplos resueltos con Excel.
En el tercer capítulo se expone una introducción a la teoría de juegos, conceptos
básicos, juegos no cooperativos de dos jugadores de suma cero y de suma no constante:
el dilema del prisionero y el problema del duopolio, el equilibrio de Nasch, uso de la
programación lineal en la solución de juegos no cooperativos; sobre los juegos
cooperativos, se dan las definiciones de función característica, imputación, solución de
valor e índice de poder. El cuarto capítulo trata de la decisión bayesiana, conceptos
básicos, árboles de decisión, probabilidad condicional, teorema de Bayes, decisión con
experimentación, determinación del riesgo, valor de la información, análisis de
sensibilidad.
El quinto trata de un breve repaso de la decisión estadística bajo el enfoque clásico y
bayesiano. Se introduce en los conceptos de inferencia estadística: estimación y
contraste de hipótesis bajo estos dos enfoques. Test de bondad de ajuste. Comparación
entre los enfoques, aplicaciones a finanzas.
Los siguientes tres capítulo: seis, siete y ocho, tratan del análisis estadístico de los datos
como soporte a la toma de decisiones gerenciales. El capítulo seis contempla: datos en
forma de vectores y matrices, matriz de correlación, introducción al modelo de
regresión lineal estándar, supuestos básicos, métodos de estimación: mínimos
cuadrados, mínimos cuadrados generalizados, norma Lp, riscal; contraste de hipótesis;
efectos, detección y corrección de la violación de los supuestos, ejemplo con el software
SAS, salida e interpretación, ejemplo financiero con SSPS, salida e interpretación.
Aplicación del modelo de regresión múltiple a finanzas en el caso de selección de
cartera. El capítulo siete es la introducción a las series de tiempo, componentes,
técnicas de pronósticos: suavizado simple y doble, modelo de Holt, modelo de
Winters, modelo ARIMA(p,d,q), ARIMA(p,d.q)(P,Ds,Q) y una exposición muy breve
de ARFIMA, ARARMA y MARIMA junto con la validación del modelo seleccionado,
ejemplo con SAS y SPSS.
El capítulo ocho trata de las técnicas de reducción de dimensionalidad, análisis de
conglomerados y discriminante. Las técnicas de reducción de dimensionalidad que se
abordan son: componentes principales y correspondencia binaria. Estas técnicas
permiten encontrar la verdadera dimensión de una masa de datos con un gran número
de variables o categorías p e igualmente un gran número de observaciones n (n>>p). Por
otra parte, se mencionan varios algoritmos de conglomerados que permiten clasificar
7
objetos o personas en grupos lo más homogéneos posibles resultando útil cuando se
quiere por ejemplo clasificar clientes tomando en cuenta varias características. Del
análisis discriminante solo se aborda dos métodos el lineal de Fisher y el basado en
regresión logística. Estas técnicas dan reglas para decidir a que grupo previamente
establecido pertenece una nueva observación. Todas estas técnicas se ilustran con
ejemplos elaborados con SAS y SPSS.
Finalmente, el último capítulo trata de la toma de decisiones en ambiente complejo en
donde se introduce el concepto de complejidad algorítmica, la herramienta de la
simulación de sistemas, se repasa brevemente las distribuciones de probabilidad más
usuales en simulación, test de bondad de ajuste, uso de la aplicación de Excel: Crystal
Ball y algunos elementos del problema de equilibrio de los sistemas dinámicos,
concretamente las teorías del caos y catástrofe.
Los cuatro primeros capítulos se pueden leer de forma independiente, el quinto es
indispensable para comprender el sexto, el séptimo y octavo, al menos que se tengan
fresco los principios de inferencia estadística.
AGRADECIMIENTO.
Quiero expresar mi agradecimiento a los profesores: Doctores Henry Thonon, Luis
Mata Mollejas y Julio Corredor Ruiz, al profesor Jesuardo Areyan por su paciencia de
leer el manuscrito original y hacerme las observaciones que ellos tuvieron a bien
hacerme. Estos comentarios, me ayudaron a mejorar notablemente el texto. Al profesor
Jesús Silva coordinador del Postgrado en Ciencias Administrativa de la Universidad
Central de Venezuela quien demostró su interes por este texto. Igualmente quiero
agradecer a los alumnos en las materias Toma de Decisiones y Pronóstico del
Postgrado de Ciencias Administrativa de la Universidad Central de Venezuela, que en
su momento me comunicaron sus comentarios.
Cualquier error que el lector encuentre, que muy probablemente puede encontrar, por
aquello que errar es de humano, es de mi entera responsabilidad. Si tal es el caso, le
agradecería sus comentarios por aquello que rectificar también es de humano.
andresreyesp@rvaconsultores.com.ve
¨El autor se reserva todos los derechos de reproducción total o parcial de su obra por
cualquier medio”
8
CAPITULO I
NOCIONES BÁSICAS DE TOMA DE DECISIONES.
Contenido.
• Introducción.
• Introducción al Cálculo de Probabilidades.
• Distribuciones continuas usadas en Finanzas.
• Variables aleatorias bidimensionales.
• Casos:1) Caso proceso de jerarquía analítica 2) Caso proyectos con flujos
de caja aleatorios 3) Caso proyectos con flujos de caja con comportamiento
desconocido.
• Teoría de la utilidad.
• Escalas de medición.
• Formulación de un modelo de toma de decisiones
• Problemas.
• Bibliografía
Autor: Andrés E Reyes P.
¨El autor se reserva todos los derechos de reproducción total o parcial de su obra por
cualquier medio”
INTRODUCCIÓN.
Las herramientas de toma de decisiones son muy variadas, el desarrollo de las mismas
depende del enfoque que se considere, los primeros enfoques se orientaron a
comprender la conducta del consumidor de forma individual como un elector racional,
en donde con el concepto de escala ordinal se desarrolló la teoría de las curvas de
indiferencias y se incorporó la idea de maximización de la utilidad asumiendo
información perfecta, es decir, conociendo todas las acciones y sus consecuencias.
Posteriormente, se incorporó el comportamiento no de un consumidor sino el conjunto
de consumidores, que no se podía tratar como una suma de conductas individuales,
surgiendo así la teoría del bienestar, donde tiene una vital importancia el óptimo de
Pareto sustentado en la utilidad cardinal, este óptimo establece que: un cambio es
óptimo si deja a todos tan bien como antes y, mejora la posición de al menos una
persona. En estos enfoques no se considera el riesgo en la elección. Otro, es considerar
la elección con información incompleta, en este caso se le asigna probabilidades a los
resultados de las elecciones tal como jugar una lotería, en este caso se incorpora el
concepto de probabilidad y la mejor elección es aquella que maximiza la utilidad
esperada. Los enfoques donde se estudia el comportamiento del consumidor y hay
información perfecta, puede extenderse a otros problemas de la economía como el de la
formación de los precios o él de producción conjunta, dando lugar al desarrollo de la
teoría de juegos no cooperativos y cooperativos además, de la programación matemática
como herramientas para el uso óptimo de recursos escasos y por tanto, para la toma de
decisiones. El enfoque de asignar probabilidades y algunas formas de soluciones puede
extenderse a la decisión bayesiana y a la inferencia estadística y, a la construcción de
modelos estocásticos muy aplicados al problema de la volatilidad en el mercado de
capitales. Como aplicación de los modelos estocásticos, está el estudio de series
temporales que busca descubrir patrones que sirvan para predecir el comportamiento
futuro de una o varias variables económicas, surgiendo de esta forma una herramienta
útil para la toma de decisiones gerenciales. Otro enfoque, que se aparta definitivamente
del clásico, pero no entra en contradicción con él sino que lo complementa, es donde no
solo se considera la decisión de una o un conjunto de personas tratando el problema
9
como un caso de juego o de decisión bajo riesgo o incertidumbre, sino aquel donde se
hace énfasis en el conocimiento del entorno y del propio elector bien como persona o
como empresa es lo que podemos llamar decisión estratégica compleja, ella requiere
de nuevos instrumentos que van desde modelos predictivos, análisis estadístico de datos
multivariantes y la simulación. Por el momento, en este capítulo veremos solo los
conceptos básicos necesarios para abordar las diferentes herramientas de la teoría de la
decisión clásica.
Una decisión, en el caso más sencillo, es resolver un dilema que se presenta cuando al
frente tenemos un problema que puede resolverse al considerar dos acciones o
estrategias, cuyos resultados son medidos mediante un índice, este índice lo
llamaremos pago. El que toma la decisión es un ser racional e intencional y su
capacidad de actuar depende del grado de información que posea. Decidir, en general,
no es otra cosa que hacer una elección entre varias opciones que se dan como solución a
un determinado problema, y un problema es la limitación que se presenta para cumplir
con una misión previamente deseada. El decisor tomará una decisión óptima cuando con
la acción o acciones seleccionadas arribará al mejor de todos los pagos El problema por
ejemplo, puede referirse al caso de un gerente de una empresa que presenta un bajo
volumen de ventas, que atenta contra la supervivencia de la empresa en el mercado. Él
puede hacer una lista de acciones que anulen las causas que producen este bajo volumen
de ventas. Una forma de proceder es construir un gráfico causa efecto que indique las
interrelaciones de las causas y el efecto y posteriormente un gráfico de Pareto que indica
la importancia de cada causa y, finalmente definirá el conjunto de acciones, tal como los
mostramos a continuación (Estos gráficos se han obtenido empleándole software SAS).
El primer gráfico es el causa efecto.
10
En este ejemplo, se han considerado cuatro grupos de causas del comportamiento de la
venta: costos, calidad de la materia prima, la gerencia y el mercadeo. Cada uno de ellos
se ha dividido en subgrupos. Por ejemplo, el mercadeo se ha considerado dos aspectos:
el desconocimiento de las expectativas de los clientes y la publicidad. La calidad de la
materia prima se asume que depende de los proveedores y la entrega a destiempo que
afecta la calidad de la materia prima. Los costos responden a los altos inventarios y la
tecnología obsoleta que emplea la empresa en el proceso de producción. Finalmente los
problemas de la gerencia se asocia al bajo nivel de los supervisores.
Ahora corresponde definir la importancia de cada uno de ellos, esto puede hacerse
midiendo el costo de oportunidad asociado a cada elemento o dándole un grado de
importancia de acuerdo a una escala.
En nuestro caso se ha empleado una escala del 1 al 20 que indica el grado de
importancia de cada causa.
A continuación presentamos las causas, el código que se le asigna y la puntuación.
11
El gráfico de Pareto muestra que la causa más importante es la tecnología obsoleta
representado en el gráfico con el código:2, la segunda es el desconocimiento del cliente
con el código: 5, la tercera es la publicidad con código 4. Estos tres representan el 70%
de todos los pesos.
El conjunto de acciones o estrategias que define el gerente como ente decisor es:
A1: Reestructurar toda la empresa.
A2: Atacar solo las tres causas más importante (Tecnología obsoleta, cliente y
publicidad)
que conjuntamente representa el 70% de las causas.
En general, el pago asociado a cada acción depende del ambiente en donde debe tomar
la decisión, este puede ser uno o varios decisores igualmente racionales, que pueden
compartir los mismos intereses o por el contrario ser oponentes. En el caso en que
comparten intereses y pueden comunicarse entre sí llegando a compromisos
vinculantes, estaremos frente a lo que se conoce como juego cooperativo y en el caso
que pueden entrar en conflicto de intereses en juego no cooperativos.
Un ejemplo de la situación de intereses encontrados es lo que se conoce como la guerra
de las colas. En los juegos cooperativos hay un caso muy conocido: el problema de la
tríada; supóngase que el mercado de un determinado producto está repartido en tres
empresas. La empresa A tiene el 42% del mercado, B el 30% y C el 28%. Entonces, se
pregunta por ejemplo si C decide aliarse con una de las dos empresas para mejorar su
situación en el mercado ¿Cuál elegiría?
Pero también, el ambiente puede ser un conjunto de factores externos (políticos,
económicos, sociales, naturales, etc.) a los cuales no se les puede suponer racionalidad e
intencionalidad expresa. En éste último caso se habla de la naturaleza.
Supongamos que una empresa quiere invertir en un país en un futuro próximo. La
empresa puede formular varios escenarios cada uno es tal, que describe la situación
política, económica, jurídica y social con diferentes atributos. Un escenario puede
describirse como: un país con alta inestabilidad política, bajo desenvolvimiento
económico, inseguridad jurídica y graves problemas sociales; esta descripción
corresponde a un escenario pesimista, puede definir un segundo o en general varios
escenarios con la condición que sean excluyentes. Cada escenario es un estado de la
naturaleza sobre el cual no se tiene ningún control. La empresa puede hacer una lista de
posibles acciones y asociar a cada par de acción-estado de la naturaleza un pago
estimado.
Existen dos formas de abordar el asunto de la toma de decisiones. La primera forma es
estudiar la manera como las personas suelen tomar decisiones y la otra de cómo
deberían tomarla. La primera, se basa en realizar ciertos tipos de experimentos con los
que se tratan de encontrar algún patrón de comportamiento y, en este caso estamos
frente a un enfoque descriptivo de la toma de decisiones. En el otro caso, consiste en
elaborar un conjunto de supuestos y con estos se dan pautas de como debe ser la
conducta de aquel que toma la decisión siempre considerando que es un ser racional e
intencional, aunque tenga limitaciones de información.
Nosotros solamente tomaremos el último caso para desarrollar las herramientas de la
toma de decisiones.
El que toma la decisión tiene un grado de información sobre el ambiente. Esta
información puede ser veraz y completa que de acuerdo a la acción seleccionada dará un
resultado conocido perfectamente predecible. La selección de la acción la puede hacer
aplicando un modelo que recoge esta información y al resolverlo le indique la existencia
de una solución óptima. Un modelo construido con información completa que permite
12
predecir lo que ocurre con exactitud se llama un modelo determinístico. Casos de estos
modelos son los de programación lineal, modelos de inventarios con demanda y costos
conocidos etc.
Puede ocurrir, que la información que se posee es veraz pero incompleta, hay un
conjunto de elementos que hace que el comportamiento del ambiente sea irregular. El
resultado de la selección de la acción está condicionado al azar. Los modelos que se
construyen en este caso son de naturaleza probabilística. Ejemplo de este caso es la
selección entre varias inversiones donde los flujos de caja de cada opción tienen un
comportamiento aleatorio.
Finalmente, puede ocurrir que no poseemos ninguna información. Esto puede darse
porque el fenómeno es completamente nuevo o el fenómeno es altamente complejo que
hace imposible predecir el comportamiento final. No es fácil definir lo que es complejo,
pero tentativamente consideremos que el número de elementos que son necesarios para
describirlo es sumamente grande y además es casi imposible conocer todas las
interrelaciones existentes entre ellos, bajo esta situación, solo tenemos un conjunto de
criterios a escoger. En cuanto a las acciones o estrategias, no existe un algoritmo que
nos permita definir una lista de las mismas. Solo podemos establecer algunas reglas que
nos ayudan, siempre suponiendo la racionalidad, sin que con ello se descarte la
intuición, que aunque muchos no la acepten es otra forma de conocer el ambiente. La
definición de una estrategia está relacionada con el nivel de información que se posee
del ambiente. En general una estrategia es un conjunto de pasos para lograr un fin
determinado dentro de un ambiente del cual se tiene algún grado de información.
El número de estrategia puede ser finito o infinito, este último es el caso de los juegos
de persecución (misil versus avión, ambos se mueven en un espacio continuo
tridimensional).
Ejemplo 1.
Retomemos el ejemplo inicial, del gerente de una empresa que tiene un bajo volumen de
ventas, llamemos a este gerente Juan. Como se recordará, él puede elegir entre
reestructurar toda la empresa o ocuparse de las causas más importantes. Ahora,
supongamos que está en un mercado duopólico donde la otra empresa está pasando por
una situación similar y, tiene dos estrategias cambiar de producto, es decir, abandonar el
mercado, o invertir en nueva tecnología sin cambiar de producto. Llamemos al gerente
de esta empresa Pedro.
La lista de estrategias de Juan es:
A1: Reestructurar toda la empresa.
A2: Atacar solo las tres causas más importante.
La lista de estrategias de Pedro es:
B1: Cambiar de producto.
B2: Invertir en nueva tecnología.
El pago o la recompensa está dado por la participación en el mercado, como es un
duopolio lo que gana uno lo pierde el otro, por tanto basta indicar el pago de uno de
ellos en porcentaje de participación en el mercado. Tomaremos el pago asociado a Juan
y construyamos una matriz que refleje este pago:
13
Lo primero que debemos tomar en cuenta es que lo que haga Juan afecta a Pedro y, lo
que haga Pedro afecta a Juan. Ambos tienen información completa y veraz de lo que
ocurre en el mercado y además, ambos conocen los resultados del conjunto de
elecciones, por tanto, tienen información perfecta. Este es un típico caso de juego con
intereses opuestos o no cooperativo. Como se puede ver, la mejor estrategia de Juan es
elegir la reestructuración de la empresa independientemente de la selección de Pedro,
porque corresponde en todos los casos a los porcentajes más altos de participación en el
mercado, lo mínimo que se garantiza con esta estrategia es el 70% del mercado.
Mientras la otra estrategia lo mínimo que le garantiza es el 50%. Por tanto, para su
conjunto de estrategias:
E=⎨A1,A2⎬ tiene asociado un conjunto de pagos mínimos P=⎨70%, 50%⎬ Como
70%>50% entonces: la estrategia de seleccionar A1 es preferida a A2.
Lo dicho en el ejemplo, podemos generalizarlo como sigue, consideremos los siguientes
conjuntos:
E=⎨e1 e2 e3…...en⎬
P=⎨p(e1 ) p( e2 ) p(e.)….p(.en⎬
Si
p(e1 ) ≥ p( e2 ) ≥ p(e3. ) ≥….≥p(en)
Si λ es cero o uno E* es una estrategia pura, si λ ∈ (0;1) es una estrategia mixta. Toda
estrategia mixta que no es dominada por otra se llama estrategia admisible.
La función de pago no siempre es fácil definirla. En ocasiones está dada en valor
monetario en otra en forma de utilidad. Sobre esto último se ha desarrollado toda una
teoría que se llama teoría de la utilidad que veremos brevemente en el punto IV.
Ahora, haremos un breve repaso del cálculo de probabilidades, cuyos conceptos son
necesarios para comprender los puntos que se desarrollan es este libro.
14
Como hemos indicado, hay situaciones en las cuales no se posee información completa
sobre el comportamiento de lo que hemos llamado ambiente. Este comportamiento varía
independientemente que pensemos que se han mantenido las mismas condiciones,
presentando irregularidades en sus resultados. Esto se explica, porque hay un gran
número de factores no observables y por tanto no medibles que actúan sobre el
comportamiento del ambiente que hacen que se presenten estas irregularidades,
entonces se dice que está interviniendo el azar. Los fenómenos o experimentos
afectados por el azar lo llamamos fenómenos o experimentos aleatorios. La pregunta es
¿Hay alguna ley que regule a estos fenómenos?. El célebre matemático Emil Borel
(1971) da una repuesta a esta pregunta: “ Parece evidente que la repuesta debería ser
negativa, ya que precisamente el azar se define como característica de los fenómenos
que no tienen ley, fenómenos cuyas causas son demasiados complejas como para que
podamos preverlas. Sin embargo, las matemáticas a partir de Pascal, Galileo y muchos
otros pensadores eminentes, han establecido una ciencia, el cálculo de probabilidades,
cuyo objeto ha sido generalmente definido como el estudio de las leyes del azar “.
Podemos por tanto decir que el cálculo de probabilidades es la matemática del azar.
Modernamente se ha ampliado el concepto al considerar la teoría de probabilidades,
como otra rama de la matemática tal como la geometría, con su cuerpo axiomático.
Hay varias formas de definir la probabilidad, unos la definen como un grado de
creencia, otros como cantidad de información, nosotros tomaremos la axiomática de
Kolmogorov como referencia sin entrar en refinamientos matemáticos.
Empecemos diciendo que a todo fenómeno aleatorio está asociado un conjunto formado
por todos los resultados posibles de este fenómeno que llamamos espacio muestral y
que designaremos por E. El conjunto de todos los conjuntos que se pueden formar con
los elementos del conjunto E. incluyéndolo a él, las uniónes y complementos que se
pueden formar con estos conjuntos y el conjunto vacío lo designaremos por Ω.
Consideremos ahora, un conjunto cualquiera A de Ω, al número P(A) lo llamaremos
probabilidad de A si cumple:
1.-P(A)≥0
2.-P(E)=1
3.-Si A y B son dos conjuntos de Ω y A ∩B=φ entonces: P(A∪B)=P(A)+P(B)
En general:
P(∪Ai)=P(A1)+ P(A2)+ P(A3)+…+P(Ak)+….Si los conjuntos son disjuntos entre ellos.
De estas tres variables nos referimos primeramente a las variables aleatorias discretas.
15
Formalmente, X una variable aleatoria discreta que toma los valores: x1,x2,x3….xk….
Entonces:
1.-P(x1, ; θ1θ2…θ k)=P(X= x1; θ1θ2…θ k)≥0
xm
2.-P(X≤xm; θ1θ2…θ k)= ∑
i =1
P( xi θ1θ2…θ)= F(xm; θ1θ2…θ k)
∞
3.- ∑ P(xi; θ1θ2…θ k)=1 ,
i =1
VAR(X)=E(X-E(X)) 2= (x1 –E(X)) 2P(x1)+ (x2 –E(X)) 2 P(x2)+ (x3 –E(X)) 2P(x3)…... +(xk
–E(X)) 2P(xk)+..
16
Ejemplo 2:
Supongamos que tenemos una variable aleatoria que toma los valores 1,2,3,4,5,6 con
probabilidad de 1/6 cada uno. Esta variable se dice que se distribuye como una variable
discreta uniforme. La probabilidad que toma cualquier valor x entre 1 y 6 es:
P(X=x)=1/6, la probabilidad de que tome a lo sumo cuatro valores es: P(X≤4)=
P(X=1)+ P(X=2)+ P(X=3)+ P(X=4)=2/3.
El valor esperado es:
E(X)=1x1/6+2x1/6+3x1/6+4x1/6+5x1/6+6x1/6=3,5
La varianza es:
x
2.-P(X≤x; θ1θ2...θ k)= F(x; θ1θ2...θ k)= ∫
−∞
f(x; θ1θ2...θ k)dx; función de distribución
∞
3.-P(∞- ≤X≤∞;θ1θ2...θ k)= ∫
−∞
f(x; θ1θ2...θ k)dx=1
∞
VAR(X)= ∫
−∞
(X-E(X))2 f(x; θ1θ2…θ k)dx
17
II a.-Distribuciones continuas empleadas en finanzas.
( )
f X ( x, μ , σ ) = 1 / 2π σ exp− (1 / 2)((x − μ ) / σ )
2
−∝
x
( )
P( X ≤ x ) = ∫ 1 / 2π σ exp− (1 / 2)(( x − μ ) / σ ) dx
2
−∝
( )
E ( X ) = ∫ 1 / 2π σ x exp− (1 / 2)(( x − μ ) / σ ) dx = μ
2
−∝
x
( )
VAR( X ) = ∫ 1 / 2π σ ( x − μ ) exp− (1 / 2)(( x − μ ) / σ ) dx =σ 2
2 2
(
f Z ( z,0,1) = 1 / 2π exp− (1 / 2)( z ) ) 2
−∝
(
P(Z ≤ z ) = ∫ 1 / 2π exp− (1 / 2)( z ) dx ) 2
∝
( )
E (Z ) = ∫ 1 / 2π z exp− (1 / 2)( z ) dx = 0
−∝
2
∝
( )
VAR(Z ) = ∫ 1 / 2π z 2 exp− (1 / 2)( z ) dx =1 = σ 2
−∝
2
18
La distribución beta es:
f X ( x; p, q ) = ( x − a ) (c − x )q −1 / B( p, q)(c − a ) p + q −1 para
p −1
a≤x≤c
B( p, q ) = Γ( p )Γ(q ) / Γ( p + q )
Γ(n ) = (n − 1)(n − 2)(n − 3)...1
Si
Y = ( X − a ) / (c − a )
f Y ( y ) = y p −1 (1 − y ) / B ( p, q )
q −1
E ( X ) ≅ (a + 4b + c ) / 6
VAR( X ) ≅ (c − a ) / 36
2
f x (x ) = 0
x ≤ a
f x ( x ) = 2 ( x − a ) / (b − a )(c − a )
a ≤ x ≤ b
f x ( x ) = 2 ( x − c ) / (b − c )(c − a )
b ≤ x ≤ c
E ( x ) = (a + b + c ) / 3
[
VAR( X ) = (c − a ) − (b − a )(c − b ) / 18
2
]
Ejemplo 3.
Supongamos que se tiene un proyecto con un horizonte económico de siete períodos. Se
ha considerado tres escenarios que afectan los flujos futuros de caja del proyecto. Estos
escenarios se han clasificado como: pesimista, medio o más probable y, optimista.
Los datos de los flujos de caja pueden presentarse por ejemplo mediante la siguiente
tabla, en donde, la primera columna se refiere a los períodos y, las siguientes a los
escenarios.
19
Período Pesimista Medio Optimista
1 12 16 20
2 10 12 15
3 23 24 34
4 12 18 20
5 14 16 20
6 18 20 22
7 17 22 30
En cada período se asume que el flujo correspondiente es una variable aleatoria con una
distribución beta o una distribución triangular. Se ha obtenido, con fines prácticos las
medias y las varianzas aproximadas de estas distribuciones. Se considera entonces, que
a corresponde al valor de la variable en un escenario pesimista, b o modo es el valor de
la variable en el escenario más probable y finalmente c al escenario optimista. En el
caso que nos ocupa, podemos ilustrar lo dicho asumiendo que los flujos de caja tienen
una distribución beta, entonces, el flujo de cajas esperado en el primer período es:
E(x)=(a+4b+c)/6=(12+4x16+20)/6=16 y la varianza es Var(x)=(c-a)2/36=(20-
12)2/36=1,77
De la misma forma puede obtenerse las medias y varianzas para los períodos siguientes.
20
Ejemplo 4:
Consideremos que se tiene un registro de dos variables aleatorias tal como se muestra a
continuación:
X Y 1 2 3 4 5 6
1 10 5 5 1 5 5
2 10 5 5 4 4 6
3 5 0 5 2 0 5
4 5 5 0 3 5 0
La variable X toma los valores 1,2,3,4 y las variables Y los valores 1,2,3,4,5,6.
Supongamos que se observan 100 realizaciones de (X,Y). Las celdas indican las veces
que repiten los valores de las variables, por ejemplo para X=1 y Y=1 hay 10
observaciones. El número total de observaciones es 100. Si se usa la frecuencia relativa
como una estimación de la probabilidad entonces P*(X=1,Y=1)=10/100=0,1. la
probabilidad condicional de X=1 dado que Y=1, esto es, P*(X=1/Y=1)=10/30, la
probabilidad de Y=1, P*(Y=1)=30/100. La función de probabilidad marginal de Y es
P*(Y=y), y para los valores de Y=1,2,3,4,5,6 se obtiene :
(30/100,15/100,15/100,10/100;14/100,16/100)=(0,3;0,15:0,15;0,1:0,14;0,16)
Con las variables aleatorias X e Y se pueden definir la suma, el producto y la división.
Tomaremos el caso de la suma:
Z=X+Y
La esperanza es:
E(Z)=E(X+Y)=E(X)+E(Y)
En general, tanto para variables continuas como discretas, si se tiene n variables
aleatorias X1,X2,…Xn, la suma es:
Z=X1+X2+…Xn
Por tanto la esperanza de la suma es:
n
E(Z)=E(X1+X2+...Xn)= ∑
i =1
E(Xi)
Si las variables que se están sumando son independientes, entonces la varianza es:
VAR(Z)=VAR(X+Y)=VAR(X)+VAR(Y)
n
VAR(Z)=VAR(X1+X2+..Xn)= ∑
i =1
VAR(Xi)
VAR(Z)=VAR(X+Y)=VAR(X)+VAR(Y)+2COV(X,Y)
21
n n
VAR(Z)=VAR(X1+X2+..Xn)= ∑
i =1
VAR(Xi)+ ∑
i≠ j
COVAR(Xi ,Xj)
n n n
= ∑
i =1
VAR(Xi)+2 ∑
i =1
∑
j =1
COVAR(Xi ,Xj)
Z=a1X1+a2X2+…anXn
Entonces:
22
sencillo cuando hay un solo árbitro y pocos atributos, pero cuando estos atributos se
ramifican en varios niveles y hay más de un decidor su aplicación presenta varios
problemas. El caso se divide en los siguientes puntos, en primer lugar se desarrolla el
método, posteriormente se presenta una propuesta donde se establece la relación que
hay entre la teoría de la información y el problema de consistencia del método, en
seguida se plantea unos comentarios generales productos de la experiencia.
1.- El método.
El proceso de jerarquía analítica (P.J.A) es un método que permite consolidar las
opiniones de uno o varios expertos cuando se está en la disyuntiva de escoger entre
varias opciones, que no son fáciles de evaluar por el gran número de categorías
implícitas. Para ello se definen diferentes niveles. En el primer nivel está la definición
del problema, en el segundo están los atributos en su expresión más alta. Cada uno de
estos atributos se subdivide en subatributos definiendo un nuevo nivel. Esta operación
de definir niveles se efectúa tantas veces como sea necesario. Partiendo de esta forma
jerárquica, si no hay información previa de los atributos a un nivel o solo se tiene de
algunos de ellos que permitan hacer comparaciones, se construyen sucesivas matrices,
que permiten realizar comparaciones pareadas y, mediante el uso de auto vectores y
auto valores pueden determinarse cuál es el orden de importancia de cada atributo en los
diferentes niveles.
El Proceso de Jerarquía Analítica también conocido como Método Analítico de
Jerarquía ¨ dará lugar a un árbol cuya forma general es:
Objeto general
del proceso de
decisión
Nivel l
Nivel 2. Atributo
1
Atributo
2
Atributo
3
Atribut Atributo n
23
El siguiente paso, consiste en la determinación de los pesos para clasificar las
alternativas de decisión. Si se tiene en forma general, n criterios en una jerarquía
cualquiera, entonces necesitamos una matriz de comparación nxn. Cada uno de estos
criterios pueden subdividirse en mi criterios, dando origen a matrices mi x mi, y así
sucesivamente. En cuanto al último nivel la información requerida de las opciones debe
corresponder a las que se poseen del nivel inmediatamente anterior.
Supongamos que en un nivel cualquiera se está comparando tres atributos
independientes entre si que llamaremos A, B y C la matriz de comparación pareada es:
ATRIBUTOS A B C
A 1
B 1
C 1
Una característica de esta matriz cuadrada es que la diagonal principal es una constante
igual a 1 porque la comparación entre un mismo atributo es indiferente.
Para continuar la comparación debemos tener presente los siguientes aspectos:
1.-Hay que estar seguro que por la naturaleza de los atributos son independientes, la
presencia de uno no condiciona para nada la de otro.
2.-Los valores que se asigna a las comparaciones deben cumplir con:
2.a Siempre es: A ≅ A. Por tanto el número que se le asigna es uno.
2.b Si A f B, esto es, A es preferido a B y se le asigna el valor k, al hacer la
comparación B con A se cumple B p A y por tanto el valor asignado es 1/k.
2. c. Si A f B f C, entonces A f C, por tanto si A f B se le asignó k y B f C se le
asignó g, a A f C se le asignará un número m≥máximo (k,g).
2 .d Si A es indiferente a B, esto es A es igualmente preferido a B: A ≅ B entonces,
B ≅ A y el valor que se asigna es uno.
2.e Si A f B y B ≅ C entonces A f C y el valor que se le asigna a C es el mismo que el
asignado a A f B.
Sea aij el elemento de la i-ésima fila y la j-ésima columna de la matriz cuadrada Anxn
(en donde su lectura por fila o por columna se asocia a los n atributos) el cual puede
tomar los valores enteros entre 1 y 9, en donde aij =1, indica que tanto el atributo i como
el atributo j son igualmente importantes, aij =3 refleja que el atributo i es algo
importante que el atributo j, aij =5 indica que el atributo i es más importante que el
atributo j, aij =7 indica que el atributo i es mucho más importante que el atributo j, aij
=9 es el caso extremo donde el atributo i es extremadamente mucho mas importante que
j. De esto se desprende que si aij =k, aji =1/k .
El problema es encontrar la solución a la siguiente ecuación:
Anxnxnx1-λxnx1=0 nx1
En donde Anxn es la matriz de comparaciones pareadas, xnx1 es un vector fila , 0 nx1 es
el vector nulo y λ es un valor real.
Esta ecuación tiene solución distinta a la trivial si y solo si el determinante de │ Anxnxnx1-
λxnx1│es cero. Al resolver el determinante se obtendrá un polinomio en λ. En efecto:
│ Anxnxnx1-λxnx1│=f(λ)
Como el determinante debe ser nulo, entonces: f(λ)=0. Las raíces de f(λ) se denominan
raíces características o auto valores y los vectores asociados a estas raíces se llaman
vectores característicos o auto vectores. Hay diferentes métodos de cálculo que permiten
obtener tanto las raíces como los vectores.
24
Pero, si la matriz de comparaciones se ha construido tomando en cuenta lo propuesto en
los puntos 1 y 2 entonces la matriz de comparación, es perfectamente consistente. Si
este es el caso, entonces se podrá construir una nueva matriz partiendo de ésta, tal que la
suma de los componentes de cada vector columna suma uno, esto es:
n
P=║pij║ , pij = aij / ∑ aij i=1,2,…n y j=1,2, n;
i =1
(║pij ║el símbolo se lee la matriz de elementos pij; i=1,2,…n y j=1,2, n; y cumple con
∑ pij =1 para todo j ( ∑ pij = ∑ aij / ∑ aij =1) . La matriz P se llama matriz de
i =1 i =1 i =1 i =1
ponderaciones iniciales.
Construiremos la matriz P* que resulta de dividir cada columna de la matriz P por el
elemento que está en la posición que corresponde al número de la columna, esto es, la
primera columna se divide entre el primer elemento, la segunda por el segundo
elemento de esta columna y así sucesivamente (P*=║pij / pjj ║ ). Es fácil probar que:
A=P*
Partiendo de lo anterior definimos el sistema de ecuaciones dado por:
APj=P*Pj= λPj donde Pj es un vector columna de la matriz P y λ=n como puede
comprobarse.
Por tanto, si la matriz A es consistente entonces el primer valor característico es igual al
número de atributos o criterios que se están evaluando.
Postmultiplicamos esta matriz P por el vector (1/n)1 donde 1t = (1,1,1, … ,1)
obtenemos el vector de las medias por fila. Que es el vector característico o auto vector,
cada elemento de este vector significa la importancia de cada atributo en el nivel
considerado, luego para cada nivel se construirán las matrices y vectores, incluyendo el
nivel de alternativas de decisión. Una vez determinados todos los pesos en los diferentes
niveles, se obtiene un índice por encadenamiento de los pesos para cada una de las
alternativas de decisión, es decir, para cada opción se obtiene uno y sólo un índice
mediante el cual se determina que opción es mejor dentro de cada subatributo del último
nivel.
Ejemplo 4.
Supongamos, que una empresa desea adquirir una nueva maquinaria tomando en cuenta
tres cualidades o categorías: a) tecnología , b) costo y c)vida útil y mediante la
aplicación de una matriz de comparaciones obtuvo que la tecnología y el costo tienen un
peso cada uno de 30% y la vida útil el 40%. Hay tres maquinarias candidatas a ser
seleccionadas de acuerdo a estos atributos. El problema se presenta en forma de un
árbol:
25
Nivel 1
Selección
Productos
El nivel uno se indica el problema, el siguiente las tres cualidades o categorías, con sus
respectivas ponderaciones. La primera cualidad 2-a tiene una ponderación de 0,3 y así
las demás. El tercer nivel lo conforman las alternativas de maquinarias y sus
ponderaciones se obtienen mediante datos técnicos proporcionados por los vendedores.
Si se observa los últimos cuadros correspondientes al último nivel puede notarse que
para la categoría tecnología a (Qa ) la maquinaria 1 tiene una ponderación de 0,3; la
maquinaria 2 tiene una ponderación de 0,5 y por último la maquinaria 3 una
ponderación de 0,2 que al sumar da uno. Igual ocurre con las otras dos categorías.
Para evaluar cada máquinaria, ponderamos el peso que tiene cada una de las categorías
por el peso correspondiente del nivel superior.
P1=0,3x0,3+0,3x0,2+0,4x0,5=0,35
P2=0,3x0,5+0,3x0,4+0,4x0,1=0,31
P3=0,3x0,2+0,3x0,4+0,4x0,4=0,34
26
orden menor a cuatro tendrá mayores problemas para obtener matrices consistentes, el
problema surge cuando hay varios niveles con matrices de orden superior a tres.
Cuando existen varios niveles es necesario estudiar la consistencia global, no solamente
la consistencia en cada nivel. Para estudiar la consistencia global partimos como sigue:
ICG=IC del segundo nivel + (autovector del segundo nivel)x( vector de IC del tercer
nivel)+(autovector del tercer nivel)x(vector de IC del cuarto nivel)+….+(autovector del
nivel k-1)x( vector de IC del nivel k)
Ahora bien, es frecuente que en una empresa participen varios evaluadores considerados
como expertos. Cuando existen varios evaluadores para un mismo problema que afecta
a una organización hay que estudiar la concordancia entre los evaluadores.
Para ver la concordancia entre todos los expertos o evaluadores, se emplea el coeficiente
de concordancia W de Kendall que viene dado por:
n
W=12 ∑ (Ri*-R*)2/n(n2-1)
i =1
Donde:
Por tanto 0≤W≤1, mientras más cercano se esté de uno, mejor es la concordancia,
puesto que de la forma que está definido este estadístico, a valor mayor de correlación
entre el conjunto de rangos, mayor es la concordancia. La hipótesis que se establece es
H0 W=0, contra la alternativa: H1 W>0. Si el número de factores o atributos es mayor
que siete (n>7) el estadístico que se emplea para contrastar la hipótesis nula es:
X2=k(n-1)W
donde k es el número de evaluadores. Este estadístico bajo la hipótesis nula tiene una
ley X2 con n-1 grados de libertad.
Si este valor es mayor que el valor del cuantil asociado a un nivel de significación
preestablecido de una X2 con n-1 grado de libertad, entonces rechazamos la hipótesis H0
W=0.
En el caso de que el número de evaluadores k esté comprendido entre tres y veinte y el
número de criterios a ordenar sea igual o menor a siete se tienen tablas para realizar el
contraste con la distribución exacta .
2.-Estudiar la consistencia de cada una de las matrices mediante la aplicación del índice
de consistencia y razón de consistencia.
27
3.-Estudiar la concordancia o acuerdo de las opiniones de los expertos mediante el
estadístico W de Kendall, cuando existen mas de dos expertos.
Puede observarse que la suma de estos valores da la unidad. Para obtener la segunda
columna de la nueva matriz, se toma los elementos de la segunda columna de la matriz
original y se suman lo que da veintiuno (21), ahora cada elemento de esta columna se
divide entre este número obteniendo la segunda columna de la nueva matriz ( 0,015625,
28
0,046875, 0,234375, 0,234375, 0,234375, 0,234375) T y así sucesivamente hasta obtener
la nueva matriz la cual se llama matriz normada.
MATRIZ NORMADA
0,07142857 0,015625 0,02941176 0,02 0,28688525 0,11627907
0,21428571 0,046875 0,02941176 0,02 0,05737705 0,06976744
0,21428571 0,234375 0,05882353 0,06 0,04098361 0,05813953
0,21428571 0,234375 0,05882353 0,06 0,04098361 0,05813953
0,07142857 0,234375 0,41176471 0,42 0,28688525 0,34883721
0,21428571 0,234375 0,41176471 0,42 0,28688525 0,34883721
1 1 1 1 1 1
2.-Para obtener el autovector procedemos como sigue: se suma la matriz por fila y el
resultado se divide entre el número de columnas que tiene la matriz, cada vez que se
realiza esta operación se obtiene un elemento del auto vector.
AUTOVECTOR
0,08993828
0,07295283
0,11110123
0,11110123
0,29554846
0,31935798
La interpretación de los elementos del autovector es que mide el peso o importancia que
tiene cada atributo, en el ejemplo, el atributo numero seis es el más importante:
0,31935798
Para obtener el auto valor, en primer lugar se multiplica la matriz original por el auto
vector obteniéndose un nuevo vector:
MATRIZ
ORIGINAL
POR
AUTOVECTOR
0,60884136
0,5583333
0,95222897
0,95222897
2,62502608
2,80490263
29
Cada elemento de este vector se divide entre cada elemento del auto valor y luego se
suman y se divide entre el número de sumandos. El resultado es el primer auto valor de
la matriz A
λ=(0,60884136/0,0899382+0,5583333/0,07295283+0,95222897/0,11110123+0,95222897/0,11
110123+2,62502608/0,29554846+2,80490263/0,31935798)/6=8,20489366
3.-Una vez obtenido el auto valor, que denotamos por λ se obtiene el índice de
consistencia dado por:
(λ –n)/(n-1)= 0,44097873
Luego, obtenemos el índice de consistencia aleatorio dado por: 1,98(n-2)/n=1,30666667,
finalmente calculamos la razón de consistencia que está dada por: n(λ –n)/1,98(n-1)(n-
2)= 0,33748372 como esta razón no es menor que 0,1, el nivel de inconsistencia no es
aceptable.
Si se tiene varios evaluadores se promedian los autovalores de aquellos cuya
inconsistencia es aceptable, es decir, la razón de consistencia es menor a 0,1.
30
Rango1 Rango2 Rango 3 Ri*
1 1 1 1
5 2 4 3,66
6 3 2 3,66
4 4 6 4,66
2 5 3 3,33
3 6 5 4,66
Para contrastar la hipótesis si el número de objetos evaluados es mayor que siete (n>7)
entonces aplicamos:
X*2=k(n-1)W
Si este valor es mayor que el valor del cuantil asociado a un nivel de significación
preestablecido de una X2 con n-1 grado de libertad o calculamos P(X2> X*2) y si es
menor al nivel de significación α rechazamos la hipótesis nula H0 W=0.
Para valores n<7 hay tablas de la distribución exacta bajo la hipótesis nula disponibles
para realizar el contraste.
2.-Información y consistencia.
31
impropia de primer tipo. Se puede demostrar que esta matriz tiene máxima entropía y
altísima inconsistencia (cuando n tiende a aumentar la inconsistencia se acerca a: a-1),
su auto valor mayor es λ=na. Si a=1, es una matriz de comparación impropia de
segundo tipo, ella tendrá máxima entropía e inconsistencia nula puesto que su auto valor
mayor es λ=n.
Consideremos una matriz de comparación cualquiera A siempre tendrá mayor
información que las matrices de comparación impropias uno y dos. Por otra parte,
tendrá menor o igual inconsistencia que la matriz del tipo uno y mayor o igual a la
matriz del tipo dos. Si IC(.) e Inf(.) son índices de inconsistencia e información, lo
anterior se resume como:
Inf(A)≥Inf(1)
Inf(A)≥Inf(2)
IC(1)≥IC(A)≥IC(2).
Si este estadístico toma un valor muy grande es de presumir que pj - qj ≠0, para al
menos algún j. La hipótesis nula es Ho : pj – qj =0, para todo j y la alternativa H1 : pj – qj
≠0 para al menos algún j. Este estadístico sigue una ley Χ2 con n-1 g.l, bajo la hipótesis
nula. Si la hipótesis nula no se rechaza no se ha presentado una mejora en la
inconsistencia.
Asumiendo que la matriz de comparación es consistente, entonces el suceso de
cumplimiento expuesto en el punto 2 , tienen probabilidad igual a 1.
3.-Comentarios generales.
32
Hay situaciones que resultan algo más complejas: los niveles son evaluados por árbitros
distintos y además el orden de las matrices es mayor de cuatro. Esto ocurre cuando el
problema es lo suficientemente complejo que requiere la participación de un grupo de
expertos distinto para algún nivel o para todos.
Finalmente, se presenta el caso que no exista uno o varios árbitros que tengan una
visión confiable de conjunto y por tanto no se pueda terminar el árbol. A pesar de lo
indicado anteriormente, el método como herramienta para la toma de decisiones resulta
satisfactorio cuando el transcurrir del tiempo muestra que se ha tomado una buena
decisión o porque hay estudios similares que así lo avalan o, cuando se ha usado el
método acompañado con otra técnica, y es posible contactar que los resultados no se
contradicen.
Para resumir lo anterior daremos el siguiente cuadro:
Ejemplo 6.
Supongamos un caso sencillo: Ud. debe seleccionar entre tres proyectos independientes
y excluyentes. El primer proyecto tiene una inversión inicial de 10.000 $ y los flujos de
caja se espera que tenga el siguiente comportamiento en M$:
Proyecto 1
Período 1 2 3 4 5 6 7
Escenario1 2 2 2 2 2.1 2.2 2.3
Escenario2 3.5 3.7 3.8 3.9 4 4.1 4.2
Escenario3 4 4.1 4.2 4.3 4.4 4.5 4.6
33
El segundo proyecto su inversión inicial es de 12.000$ y los flujos de caja se espera que
tenga el siguiente comportamiento en M$:
Proyecto 2
Período 1 2 3 4 5 6 7
Escenario1 2 2 2.9 3 3.9 4. 4.3
Escenario2 3 3 3.8 3.9 4.6 4.9 5.2
Escenario3 4 4 4.2 4.3 4.8 5 5.4
El último proyecto tiene una inversión inicial de 6.000 $ y los flujos de caja se espera
que tenga el siguiente comportamiento en M$:
Proyecto 3
Periodo 1 2 3 4 5 6 7
Escenario1 2 2 2.9 3 3.9 4. 4.3
Escenario2 3 3 3.8 3.9 4.6 4.9 5.2
Escenario3 4 4 4.2 4.3 4.8 5 5.4
La tasa mínima exigida es de 12% por período. Seleccione uno de los proyectos
tomando en cuenta el valor esperado del VAN y el riesgo, asumiendo que los escenarios
tienen como probabilidad de ocurrencia: 0,20; 0,30 y 0,50 respectivamente
Para resolver este problema, debemos tomar en cuenta que los flujos de cajas en cada
período se comportan como una variable aleatoria que toma tres valores
correspondientes a los tres escenarios. Por tanto, podemos obtener el valor esperado y la
varianza de cada flujo de caja i . En general, el valor esperado de cada flujo de caja en el
período j ésimo tiene la forma:
n
E(Fj)= F1j p1 + F2j p2 + F3j p3 +…. Fnj pn = ∑ Fij pi j=1,2,3...T
i =1
Donde F1j indica el flujo de caja del primer escenario en el período j, F2j el flujo de caja
del segundo escenario en el período j y, así sucesivamente, p1 indica la probabilidad del
primer escenario, p2 la probabilidad del segundo escenario etc. El horizonte económico
es T (duración del proyecto).
En nuestro ejemplo, el valor esperado del flujo del primer período en el proyecto tres es:
E(F1)=2x0,2+3,5x0,3+4x0,5=3,45
La varianza de cada flujo de caja en el período j ésimo tiene la forma:
n
VAR(Fj)= (F1j-E(Fj))2p1 +(F2j-E(Fj))2p2 +….+(Fnj-E(Fj))2pn = ∑ (Fij-E(Fj))2pi
i =1
j=1,2,3…T
En nuestro caso:
VAR(F1)= (2-3,45)2x0,2 +(3-3,45)2x0,3 +(4-3,45)20,50=0,5725
E(Fj)/(1+k) j
VAR(Fj)/(1+k)2j
34
Siguiendo con el mismo ejemplo del primer flujo de caja (j=1) del primer proyecto, el
valor esperado actualizado es:
E(F1)/(1+k)=3,45/1,12= 3,08035714
Y la varianza actualizada es:
VAR(F1)/(1+k)2.1=0,5725/1,122=0,45639349
En el caso que la inversión inicial Co del proyecto es conocido y los flujos de caja son
variables aleatorias independientes, el valor esperado y la varianza del Valor Actual
Neto (VAN) es para un horizonte T :
=-Co+∑ E(Fj)/(1+k) j
T
= ∑ VAR(Fj)/(1+k)2j
i =1
Se ha asumido que los flujos son incorrelacionados para el cálculo de la varianza del
VAN, por tanto no hay correlaciones.
Cuando los valores esperados de diferentes inversiones son iguales, la decisión depende
del riesgo medido por la varianza o la desviación estándar. Cuando los valores
esperados son diferentes se emplea el coeficiente de variación dado por:
CV(VAN)= (√ VAR(VAN))/E(VAN)x100
Empleando una hoja de cálculo Excel se llega a los siguientes resultados:
CUADRO Nº 1
Valores esperados, varianzas y coeficientes de variación
de los valores actuales netos de los proyectos.
Proyecto Valor Esperado: Varianza Coeficiente de
E(VAN) VAR(VAN) Variación
1 6,84 2,1315 21,33%
2 6,158 1,2142 17,89
3 12,107 1,2058 9,07%
35
triangular. Para ello se supone que los escenarios pueden clasificarse en pesimista,
optimista y más probable, también se supone que los escenarios numéricamente no son
equidistantes.
En el caso que se asuma que se tiene tres escenarios y los valores corresponden una
variable aleatoria X que tiene por ley de probabilidad beta, se puede obtener una buena
aproximación de su esperanza y varianza dada por:
E(X)=(minX+4modoX+maxX)/6
VAR(X)=(maxX-minX)2/12
En el caso de flujos de cajas aleatorios asociados a tres escenarios, entonces minX
corresponde al valor del escenario pesimista, modo de X, al más probable y, maxX al
optimista. Entonces, basta sustituir estos valores para obtener los valores esperados y la
varianzas de los flujos de caja en cada período del proyecto. El lector puede rehacer el
problema anterior asumiendo que los flujos de caja son variables aleatorias con ley de
probabilidad beta.
Ejemplo 7
Supongamos que en el ejemplo anterior, de los tres proyectos bajo los tres escenarios
tienen flujos de cuyos comportamientos no podemos decir nada puesto que la
información disponible es nula, ni siquiera podemos establecer una posible distribución,
esto es, estamos frente a un problema de incertidumbre. En este caso podemos usar
varios criterios para seleccionar el proyecto óptimo.
El primer paso es calcular el VAN de cada proyecto para cada uno de los escenarios.
CUADRO Nº 2
VALORES ACTUALES NETOS DE LOS
TRES PROYECTOS BAJO TRES
ESCENARIOS
ESCENARIO1 ESCENARIO2 ESCENARIO3
PROYECRO1 -0,5787 7,5049 9,4194
PROYECRO2 1,5354 5,6983 8,1818
PROYECRO3 7,5354 11,6983 14,1818
Un criterio que podemos aplicar es asumir que todos los escenarios son igualmente
probables, por tanto tomaremos las medias de los valores actuales netos de cada uno de
los proyectos y seleccionamos aquel con el mayor promedio. Estos promedios son:
5,4484, 0,6646, 11,1385 respectivamente. Por tanto seleccionamos el tercer proyecto.
Otro criterio es pensar que puede ocurrir lo peor, por tanto tomamos el menor valor del
VAN de cada proyecto, que corresponde al escenario pesimista y de estos
seleccionamos el mayor. Esta regla se conoce como maximin. En nuestro caso, de
acuerdo a este último criterio seleccionamos el tercer criterio.
Se pueden definir más criterios que comentaremos mas adelante, lo que podemos
adelantar que ninguno tiene ventajas sobre los otros y para todo efecto, en esta situación
de incertidumbre no hay manera de determinar el riesgo.
36
VI.-TEORÍA DE LA UTILIDAD.
En el segundo ejemplo que hemos vistos, la decisión se toma a la vista del rendimiento
monetario, pero no siempre la satisfacción obtenida con una elección se puede medir en
término del rendimiento monetario. Así ocurre cuando un consumidor prefiere una
combinación de bienes a otra y, selecciona la que le da mayor satisfacción si no está
restringido por su nivel de ingreso, esto es, pasa de una isocuanta a otra. En este caso, su
selección está medida por el nivel de satisfacción que alcanza. Cada consumidor
definirá un conjunto de isocuantas y se irá desplazando a los niveles más altos
dependiendo de su nivel de ingreso. En todo caso, lo que se establece es un orden de
preferencia tal como la situación A es preferida a la situación B A esta preferencia se le
asigna un número que corresponde al orden que tiene entre varias opciones Entonces,
dado el orden y su correspondiente valor numérico obtenemos una función que se llama
función de utilidad. En algunos casos es fácil establecer la preferencia, esto ocurre
cuando se tiene información perfecta de lo que va a ocurrir, pero no siempre es así, lo
usual es que esta información sea incompleta y tenemos que introducir un elemento
aleatorio que solo es posible cuantificar empleando el concepto de probabilidad.
Empezaremos por definir una lotería. Consideremos el conjuntos de eventos aleatorios
n
S={s1,s2,s3….sn} con probabilidad de ocurrencia pi≥0 y ∑
i =1
pi=1 entonces el conjunto
de pares ordenados: L={(s1, p1);(s2,p2), (s3,p3),… (sn,pn)} se llama una lotería de una
etapa o unietápica. Si ahora consideramos varias loterías unietápicas Lj j=1,2,3 …k con
n
probabilidades de ocurrencia qj≥0 y ∑
j =1
qj=1 el nuevo conjunto: L*={(L1 q1);(L2,q2),
(L3,q3),… (Lk,qn)} se llama una lotería bietápica o en dos etapas. Por un procedimiento
similar podemos encontrar loterías de orden superior o de más de dos etapas.
Ahora, sobre una lotería L definimos una relación de preferencia, y a la función u:L→R
tal que u(Li) es preferido o indiferente a u(Lj) para i distinto a j, se llama función de
utilidad si y solamente si Li ≥ Lj . Si se cumple la propiedad u(q Li;(1-q) Lj)=qu(Li)+(1-
q)u(Lj) donde qε[0,1] entonces la función de utilidad es una función lineal.
En general, todo decisor tiene una función de utilidad la cual puede cambiar en el
tiempo dado los cambios en sus preferencias. Por otra parte, es importante destacar que
esta función es una variable aleatoria que mide la actitud del decidor frente al riesgo. En
efecto, la lotería tiene el rol de un espacio muestral donde cada evento s tiene asociado
una probabilidad, el decidor frente a una situación en donde no posee información
perfecta asume una postura frente al riesgo asociado al conjunto de acciones que puede
seleccionar. Bajo el supuesto de racionalidad el decidor hará una elección tal que
maximice su utilidad. El problema intrínseco es el nivel de conocimiento que tenga
sobre el problema y por tanto, por ser la probabilidad una medida de información, estará
pendiente sobre los valores de p. La racionalidad también está en cuestión porque el uso
de la misma está limitada por el grado de conocimiento retrospectivo o actual y de la
capacidad algorítmica del decisor, esto conduce a pensar en una función de utilidad es
más que un operador lineal que asigna un orden a las preferencias.
Luce y Raiffa (1957) al inicio de su obra plantean seis supuestos que corresponden a la
idea de racionalidad, ( El símbolo ≥se lee como es preferido o indiferente a, y el
símbolo ≈ se lee como indiferente a y > es preferido a.) .
El primer supuesto se refiere a la existencia de preferencias y su propiedad de
transitividad, esto es, se da solo y solamente uno de estos caso: si ≥ sj o sj ≥ si o si ≈ sj ,
además si si ≥ sj y sj ≥ sk entonces si ≥ sk.
37
El siguiente supuesto se refiere que una lotería compleja es indiferente a una lotería de
una etapa si tienen la misma probabilidad de ocurrencia.
El tercer supuesto es: dado tres eventos que cumplen la transitividad sj ≥ sk ≥si
entonces existe un valor p y otro 1-p asociados a los dos extremos tal que sr = [sj p,(1-
p) si] si p está cercano a uno sj ≥ sk y si p está cercano a cero sk ≥ sj .
El cuarto supuesto consiste en un cambio de al menos un evento de una lotería tal que si
sk≈ sj entonces: L={(s1 ,p1);(s2,p2), …(sk,pk),… (sn,pn)} ≈L*={(s1 p1);(s2,p2), …(sj,pj),…
(sn,pn)}.
El quinto supuesto se refiere a que la preferencia y la indiferencia acerca de la loterías
cumple con la relación transitiva: L1≥L2 y L2≥L3 entonces L1≥L3.
El sexto y último supuesto es la lotería [sj p,(1-p) si] es indiferente o preferida a [sj
p*,(1-p*) si] si y solamente si p≥p*.
Ejemplo 8.
Veamos un ejemplo de cómo se construye una función de utilidad: Supongamos que a
una persona se le propone el siguiente planteamiento: a) obtener una ganancia de 10
unidades monetaria sin ningún costo b) jugar la lotería dada como: ganar 1200 unidades
monetarias con probabilidad p o perder 1000 unidades monetarias con probabilidad 1-
p. La primera opción es una lotería también donde la probabilidad de ganancia es p=1 y
de perder 1-p=0. Por tanto ambas loterías se pueden escribir como. L1=((10.1);(0,0)) y
L2=((1200.p);(-1000,1-p)). El valor de p de la primera lotería lo conoce, no así el valor
de p de la segunda. La elección está dependiendo de cual es el valor de p y de una
actitud personal como es la actitud frente al riesgo. Para determinar el valor de p
asumimos que ambas loterías son indiferentes a la persona que debe elegir entre las
ellas, por tanto, sus valores monetarios esperados son iguales, esto es:
1200p-1000(1-p)=10
2200p=1010 de donde p =1010/2200=0,45909091.
Podemos variar los valores de p, en la medida que los valores sean mayores al obtenido
al igualar los valores esperados, mayor es el valor esperado de la segunda lotería y
viceversa, a valores menores de p menor será este valor esperado. Por tanto, si la
persona elige la segunda lotería solo para valores mayores a p entonces es adverso al
riesgo y propenso, si selecciona la lotería para valores menores a p, es indiferente si
selecciona la lotería con el valor obtenido de p.
38
función de utilidad
1400
1200
1000
800
utilidad
600 probabidad
400 utilidad
200
0
1
8
15
22
29
36
43
50
57
64
-200
-400
valor de p
VII.-ESCALAS DE MEDICIÓN
Las herramientas de la toma de decisiones suponen una forma de representar los datos
esto es el problema de la medición de los datos, que no es otra cosa que las reglas que
deben emplearse para asignar signos a las características o propiedades de los objetos,
distinguiéndose dos grandes grupos: mediciones en escala métrica, que comprenden la
escala de intervalo y la de razón y mediciones no métricas que responden a la escala
nominal y la ordinal. Este aspecto es de vital importancia porque la técnica estadística
que se emplee para analizar los datos para la toma de decisiones, dependerá entre otros
aspectos de la escala empleada.
Empezaremos a considerar tres conjuntos. El primer conjunto representa cualesquiera
entes y lo llamaremos A, el segundo representa las cualidades que poseen estos entes y
lo llamaremos B y, finalmente un conjunto de símbolos que llamaremos C. Definiremos
medición a una aplicación tal que a cada elemento de B le asignamos uno y solo un
elemento de C y, las propiedades que se cumplan en B deben cumplirse en C y
viceversa. La regla de asignar estos símbolos y sus propiedades se llama escala de
medición.La escala de medición más sencilla está basada en establecer una relación de
equivalencia y, se denomina escala nominal. Para ello, se define una partición P en el
conjunto B, originando un conjunto de clases, en donde el elemento a de B está
relacionado con el elemento b de B, y se escribe aRb, si a y b pertenecen a una misma
clase y solo en este caso, y esta relación cumple con las siguientes propiedades:
1.-aRa (propiedad reflexiva)
2.-aRb implica bRa (propiedad simétrica)
3.-aRb y bRc entonces aRc (propiedad transitiva)
Cuando los elementos de B cumplen con estas propiedades, se dice que cumplen con la
relación de equivalencia. De este modo, se obtiene el conjunto de todas las clases de
39
equivalencias llamado conjunto cociente. Entonces, a los elementos a y b se le asigna el
mismo símbolo S, si pertenecen a la misma clase: S(a)=S(b). Si son de clase diferentes
entonces S(a)≠S(b).
Por tanto, esta escala permite solamente clasificar los elementos de A partiendo de sus
propiedades en B en donde se ha definido esta relación de equivalencia, y contar
cuantos elementos contiene cada clase.
Todo conjunto de objeto puede ser medido con esta escala, en donde los símbolos para
diferenciar las clase son arbitrarios, pueden ser alfanumérico o cualquier otro.
Supongamos por ejemplo que el conjunto A es los clientes de un banco, B es las
características socioeconómicas. Entonces definimos la relación binaria de equivalencia:
religión a la que pertenece; los católicos forman una clase, los evangélicos otra y así
sucesivamente. A los católicos se le puede asignar el símbolo C o 1, a los evangélicos E
o 2 originando los elementos del conjunto C etc.
La siguiente escala es la ordinal, esto es, los elementos de B pueden ordenarse si se
cumple para toda par (a,b):
1.-aR`a (propiedad reflexiva)
2.-aR`b y bR`c entonces aR`c (propiedad transitiva)
3.-aR´b y bR`c entonces a=b (propiedad antisimétrica)
Cuando el conjunto B se puede medir en estas escalas: nominal y ordinal, entonces
incorpora también las propiedades de la escala nominal, es decir, se puede clasificar y
contar los elementos de cada clase, pero además, dentro de cada clase se establece una
relación de orden que expresa el grado de presencia de la característica o cualidad, por
tanto, la asignación de los símbolos deben mantener este grado. Entonces. S`(a)=S´(b) si
están en la misma clase, S`(a) ≠S´(b) si están en clases diferentes y S`(a)>S´(b) si la
característica en a se presenta en un grado mayor que en b. Aquí, no se determina cuán
mayor es ese grado. Supongamos que la característica es el color de un conjunto de
objetos, supongamos que los objetos se clasifican en tres colores verde, azul y amarrillo,
pero cada color puede degradarse desde los mas intensos hasta lo mas tenues, luego,
podemos clasificar los objetos de acuerdo al color y dentro de cada color ordenarlo
desde lo más tenues a lo más fuerte y asignarle un número que llamamos rango que
refleja la intensidad de la presencia del color originando los elementos del conjunto C.
Cuando los datos están medidos en estas escalas: nominal u ordinal, la inferencia
estadística que se desarrolla se conoce como estadística no paramétrica. Los modelos y
métodos multivariantes que se pueden usar, los cuales exponen en esta obra en el
capítulo VIII son: los métodos de correspondencia simple y múltiple, si la medición es
ordinal, es posible emplear el análisis de componentes principales siempre que la
asignación de los rangos recoja un espectro amplio
Las siguientes escalas se conocen como métricas y, cuando las propiedades de los
objetos están medidas en estas escala son a los que se pueden aplicar los métodos de
regresión, serie de tiempo, componentes principales y clasificación automática o análisis
de conglomerados, aunque se han desarrollados algoritmos que permiten definir
conglomerados de categorías.
La primera escala métrica es la de intervalo, la cual contiene todas las propiedades de la
escala ordinal, pero es posible establecer numéricamente la diferencia entre el grado de
presencia de una cualidad de un objeto a otro. Parte de un origen arbitrario, donde el
cero no significa ausencia total de la característica. Un ejemplo clásico es la
40
temperatura, cero grado centígrado no significa ausencia total de calor. Una
característica especial de esta escala es que se puede pasar de una magnitud a otra
mediante una relación lineal, si la cualidad de a se le asigna un número S(a) en una
magnitud (grados centígrados) y otro número S*(a) en otra magnitud (grados Fº) se
puede establecer la relación lineal:
S(a)=kS*(a)+c
Dado dos elementos a y b se puede establecer la diferencia:
S(a)-S(b)=k(S*(a)-S*(b))
Finalmente, está la escala de razón que posee todas las características de la anterior pero
el origen no es arbitrario, el cero indica ausencia total de la característica, se pueden
realizar todas las operaciones aritméticas. Como el cero no es arbitrario se pueden
establecer proporciones:
S(a)/S(b)=K
VIII.-FORMULACIÓN DE UN MODELO DE TOMA DE DECISIONES.
El primer paso es definir el problema, entendiendo como aquella situación que impide o
limita el cumplimiento de la misión o algunos de sus objetivos a corto, mediano o largo
plazo de una persona u organización. La formulación del problema puede conllevar a
diferentes grados de dificultad o complejidad al tratar de encontrar las causas que lo
determinan. Una herramienta útil a la hora de formular el problema es el gráfico causa-
efecto o espina de pescado de Ishikawa. Otra forma gráfica que ayuda ver las
interrelaciones entre las causas es emplear un gráfico de Veen, propuesto por Mata M
(2000) cuya utilidad la mostraremos en el capítulo VI. Las causas pueden estar
representadas por variables o categorías, entendiendo por variables aquellas
características que están medida en una escala métrica y por categorías aquellas que
solo se puede definir una relación de equivalencia o de orden. Las variables pueden
tener un comportamiento estático o dinámico, pueden ser de naturaleza aleatoria o
determinística
El segundo paso es establecer de qué manera se relacionan las causas con el problema y
entre ellas. Puede ser que las causas actúen aditivamente, multiplicativamente o de
cualquier otra forma. Tomando las ideas expuesta por Ubaldo Nieto de Alba (1998) las
causas pueden ser a) ciertas, sencillas, aisladas y estables b) inciertas pero
colectivamente estable (aleatoriedad débil) c) inciertas inestables pero con un orden
oculto (aleatoriedad fuerte) d) disipativas de orden histórico. En este punto empieza la
especificación del modelo entendiendo por tal la idealización de la realidad mediante
símbolos, relaciones, condiciones e hipótesis a cerca de las causas. En todo caso, debe
existir un isomorfismo entre el modelo que se está formulando y las causas reales. El
modelo debe reflejar lo más fielmente posible las propiedades de la realidad. El modelo
debe proveer las causas, las acciones o estrategias y una regla de decisión que permita
discriminar estas acciones en óptimas y no óptimas. En algunos casos la regla de
decisión se expresa mediante una función conocida como función objetivo y
dependiendo de los valores que toma para cada acción o estrategia se arribará a una
decisión óptima.
El tercer paso es la búsqueda de la información de las causas que se presumen originan
el problema. Esta búsqueda puede incluir fuentes primarias, es decir las elaboradas por
los interesados en la toma de decisión o fuentes secundarias que son datos de interés
elaborados por terceros. La información lograda debe ser necesariamente analizada en
lo posible por métodos estadísticos, considerando cada causa por separado y en su
41
conjunto con la finalidad de ver su consistencia. Para estudiar esta consistencia
empleando métodos estadísticos, debe tenerse presente la escala de medición utilizada
para cada causa. Puede ocurrir que existan relaciones entre las variables, que el número
de variables no representen la verdadera dimensión del problema o que hay
observaciones que forman grupos homogéneos. Para el primer caso se emplea el
concepto de correlación, en el segundo se usa técnicas de reducción de la
dimensionalidad y en el último clasificación automática.
La información obtenida puede responder a un proceso determinístico estático o
dinámico, estocástico estático o dinámico o altamente sensible a las condiciones
iniciales. Si el proceso es aleatorio dinámico y se posee información suficiente,
entonces, puede requerirse el estudio del comportamiento de los datos en el tiempo
empleando el análisis de series temporales. Se asume que esta información está en
correspondencia con la naturaleza de las causas. Es importante determinar en este punto
si hay información redundante, atipicidades o valores faltantes. Cuando se tiene una
gran cantidad de información es conveniente aplicar técnicas estadísticas que buscan
encontrar la estructura subyacente de los datos, esto puede realizarse mediante técnicas
estadísticas de reducción de dimensionalidad que se verán en el capítulo VIII.
El siguiente paso, es alimentar el modelo especificado previamente con las
observaciones obtenidas en el punto anterior y ver su comportamiento en un instante o
durante el tiempo. Es posible que la información sea engañosa y no refleje realmente el
comportamiento de las causas o simplemente se han obviados ciertas variables o
restricciones en la especificación del modelo.
El siguiente paso consiste en validar el modelo, esto es responder a las preguntas: ¿En
tanto y cuánto refleja el modelo la realidad? Y por consiguiente: ¿Podrá conducirnos a
una solución óptima? Si estas preguntas no se responden satisfactoriamente hay que
revisar cada paso anterior. Finalmente se implementa el modelo considerado como el
mejor modelo, esperando llegar a un óptimo.
Resumiendo los pasos son:
1.-Formulación del problema
2.-Formulación tentativa de un modelo
3.-Recolección de la información
4.-Estudio de la bondad de la información
5.-Alimentar el modelo seleccionado
6.-Validar el modelo.
7.-Implementar.
PROBLEMAS
42
Período Egreso Ingreso Egreso Ingreso
proyecto1 Proyecto 1 proyecto2 Proyecto 2
0 100 0 200
1 150 100 300 250
2 200 250 400 350
3 200 500 500 400
(X,Y) 0 1 2 3
0 0,10 0,20 0,05 0,15
1 0,05 0,10 0,15 0,20
Encontrar:
a.-P(X=0)
b.-P(X=1,Y=2)
c.-P(X=1/Y=2)
d.-La distribución marginal de X e Y
e.-E(X) y VAR(X)
f.-E(Y) y VAR(Y)
g.-E(X/Y=2)
4.-Con los datos del problema anterior, y sea la suma Z=2X+Y encontrar:
a.-E(Z) y VAR(Z)
2 4 2 3
1 3 4 7
2 3 2 2
1 1 1 4
1 A B C D
A 1 5 ¡/5 1/3
B 1/5 1 1/3 1/9
C 5 3 1 1/3
D 3 9 3 1
43
Se han presentado tres empresas a la licitación y los valores de los atributos de cada
equipo es como sigue:
Equipos/Atributos A B C D
Equipo1 100$ 2 1500$ 10años
Equipo2 150$ 1 1700$ 5años
Equipo3 125$ 1 1600$ 6años
1 A B C D
A 1 7 ¡/5 ¼
B 1/5 1 1/3 1/9
C 7 3 1 1/3
D 4 9 3 1
Evaluador 2
1 A B C D
A 1 5 ¡/3 1/3
B 1/5 1 1/3 1/7
C 3 3 1 1/3
D 3 7 3 1
Evaluador 3
1 A B C D
A 1 3 ¡/5 1/3
B 1/3 1 1/3 1/7
C 5 3 1 1/3
D 3 7 3 1
44
Característica Banco A Banco B Banco C Banco D
Riesgo 4 4 5 3
Patrimonio 4 5 3 4
Pasivo 4 4 5 3
Servicio Elect. 4 5 4 5
Servicio taq. 3 3 3 5
Atención Clte. 2 2 4 5
Nº de SCS. 5 5 3 2
Comodidades 4 3 3 5
Cercanía 5 4 3 4
:
9.-Suponga que una empresa puede ampliar su instalaciones si realiza una inversión de
100.000 $.Los flujos de caja futuros tienen un comportamiento aleatorio tal como se
muestra a continuación:
45
Proyecto/Escenarios θ1 θ2 θ3
Proyecto1 -1000 200000 300000
Proyecto2 90000 100000 200000
Proyecto3 40000 60000 400000
11.-Con los datos del problema anterior, asuma que los escenarios se comportan de
acuerdo a una distribución beta.
a.-Determine la esperanza del VAN de cada proyecto.
a.-Determine el riesgo de cada uno.
c.-¿Cuál de los proyectos selecciona y por qué?
Proyecto/Escenarios θ1 θ2 θ3 θ4 θ5 θ6
Proyecto1 -300 500 -100 800 1000 -20
Proyecto2 100 0 300 100 500 0
Proyecto3 -100 300 300 500 0 100
Proyecto4 200 -300 1000 -100 1000 0
BIBLIOGRAFIA.
46
Edwards, W.; Tversky, A (1976).
Toma de Decisiones.
Fondo de Cultura Económica. Mexico.
Eppen, G.D.; Gould, F.J.; Schmidt, C.P.; Moore, J.H;. Weatherford, L.R (2000)
Investigación de Operaciones en la Ciencia Administrativa
Prentice Hall. Quinta Edición. México
Hadley, G (1979)
Probabilidad y Estadística
Una Introducción a la Teoría de la Decisión.
Fondo de Cultura Económica-México.
Meyer, P. L (1992)
Probabilidad y Aplicaciones Estadística.
Addison Wesley-México
Suárez S, A. (1991)
Decisiones Óptimas de Inversión y Financiación en la Empresa.
Ediciones Pirámide. Madrid España.
47