You are on page 1of 47

HERRAMIENTAS CUANTITATIVAS EN LA TOMA DE DECISIONES

EMPRESARIAL

UNA INTRODUCCIÓN

ANDRES E. REYES POLANCO

1
DEDICATORIA.

A Letty Margarita mi esposa, amiga y compañera de mi vida.

A mis hijos los Reyes Valero: Eduardo, Daniel, Benjamín y


Ezequiel. A Luis Antonio Reyes Izquierdo.

Al lector.

2
PROLOGO

Los métodos de contraste matemáticos estadísticos concebidos a partir


del siglo XVIII o “siglo de las luces” y que predominaron durante la
“modernidad” – es decir hasta mediados del siglo XX – han visto
comprometida su aceptación general, al basarse preferentemente sobre la
información del pasado, una vez reconocida la circunstancia de
incertidumbre, como característica del enfrentamiento de actores sociales
concurrentes que operan a partir de imágenes competitivo del futuro
deseable.

Así las imágenes del futuro se han constituido en un referente


fundamental a considerar en el pensamiento científico de hoy (post-
modernidad) en el entendido de que un propósito fundamental de la
actividad científica, en el ámbito social, es obtener pronósticos del
desenvolvimiento futuro sobre la base de explicaciones verosímiles.

Aquí cabe destacar que en la era de la modernidad, la racionalidad sobre


la base de la información suficiente del pasado podría soportar las
exigencias que se hiciesen en relación a la verosimilidad; en tanto que
las leyes científicas, en general, se referían al comportamiento de los
objetos de estudio como referidas a un “juego contra la naturaleza
física”. Es decir con relaciones entre las variables predominantes
constantes. De allí que la repetición de ensayos permitiese obtener
márgenes de error decrecientes al asumir una explicación, atemporal o
estática.

Pero en la actualidad el supuesto básico en las ciencias sociales es que la


interacción entre los actores normalmente debe considerarse como un
juego entre “concurrentes” o “competidores” (aunque sin excluir una
eventual “cooperación”) que sigue una secuencia de acciones-reacciones
(sobre relaciones variables), obteniéndose resultados provisionales según
diferentes momentos. Es decir, además de la incertidumbre (asociada a
una concurrencia de futuros deseables) se hace presente una secuencia de
eventos o intertemporalidad; cuyo resultante total es el aumento de la
percepción “complejidad” ante los procesos sociales.

Dentro de este panorama, ¿hasta donde pueden


utilizarse satisfactoriamente, en términos de evitar los
errores “Clásicos” (tipo uno – aceptar una explicación
falsa y error tipo dos, o rechazar una explicación
verosímil), los métodos construidos durante la
modernidad?

La observación corriente en el presente señala que algunos fenómenos,


entre ellas las “crisis económicas” presentan rasgos repetitivos. Esta
circunstancia abre, al menos una ventana, para utilizar provechosamente
la data histórica. Pero al mismo tiempo las mismas crisis económicas

3
presentan como característica relevante el que pequeños cambios en las
circunstancias iniciales han dado origen a consecuencias tremendamente
diferentes.

Así, lo que estamos resaltando es que los fenómenos contemporáneos


deben considerarse siempre como resultantes de “sistemas dinámicos”, o
lo que es equivalente las “relaciones” entre sus variables, también varían
con el transcurso del tiempo. Es decir, se trata de relaciones no lineales.

Para considerar estas circunstancias un supuesto o punto de partida


todavía útil se encuentra los aportes matemáticos de Alexander
Lyapunov, quien estudió las relaciones de “estabilidad” y de
“inestabilidad” en las transformaciones en el tiempo, como aplicación en
las ecuaciones diferenciales, para anticipar un “futuro” sobre la base de
un presente siempre en transición (dinámico).

Cabe aquí destacar que ello es lo que habitualmente hace el


“espèculador” quien siempre supone que “adivina” mejor lo que la
multitud va a realizar en el futuro; lo cual evidentemente encierra un
componente de riesgo asociable a un comportamiento probabilístico.

Considerando simultáneamente todos los elementos mencionados como


“complejidad e incertidumbre”, “ínter temporalidad” “Riesgo” y
“probabilidad” en condiciones de variabilidad de las condiciones
iniciales encontramos el marco de referencia que la literatura
contemporánea define como “caótica”, el cual puede ser analizado con
ayuda de métodos matemáticos “no lineales”.

En efecto, resumiendo ordenadamente lo dicho, encontramos que:


1º La “racionalidad” hasta mediado del siglo XX buscaba la
predictibilidad, bajo el supuesto de que los fenómenos se
percibían en situación de certidumbre con características
regulares o periódicas y por lo tanto representables con
modelos lineales en lo posible, o con variaciones constantes
en el tiempo (estable – estacionaria). Es decir, el análisis del
pasado permitía prever el futuro con errores despreciables.
2º La “racionalidad” contemporánea permite suponer, como
primera aproximación, que cualquier ley determinista (lineal
estable) es un caso limite de una ley no lineal no identificada
(caótica), puesto que las desviaciones (errores) no convergen
o podían hacerlo lentamente (con sentidos opuestos). La
predicción es entonces ambigua o indeterminada. El devenir
tendría o pudiera tener apariencia “azarosa” pero sería
fundamentalmente indeterminado.
3º Como la medida de la incertidumbre radica en que las
desviaciones se amplían con distinto signo o dirección
(incertidumbre) los sistemas dinámicos necesariamente
pasarían de una situación a otra (extremos - bifurcaciones),
transitando posiciones de equilibrio. Debiendo decirse que
nada impediría que las bifurcaciones se presentasen en

4
“cascada” según un algoritmo iterativo de fracciones a la
manera de los “procedimientos de Cantor”.
4º Lo descrito señala que los comportamientos previsibles no son
“desordenados” aunque parezcan azarosos, al ser sensible a
las condiciones iniciales. En el caso de la economía ello
obliga a considerar, cuando menos, cuatro variables
interrrelacionables con ecuaciones diferenciales en el tiempo,
a saber: actor, precio, cantidad y espacio. Por supuesto el
recurrir a la hipótesis de “ceteris paribus” para realizar
simplificaciones tiene como costo alejarse de la realidad.
5º La consecuencia de todo lo anterior para la política económica
es que ella debe procurar establecer (ex -ante) condiciones
que hagan menos probables los resultados (ex-post) menos
deseables.

El libro que el lector tiene en sus manos explora, paso a paso, los
elementos a que hemos hecho referencia, de lo cual inferimos que una
lectura cuidadosa puede permitirle escoger el método más adecuado al
fenómeno que estudia o que intenta explicar.

Luís E. Mata Mollejas


(Junio, 2006)

5
PREFACIO.

El siguiente texto, es el producto de más de tres décadas de enseñanza continuada en la


Escuela de Administración y Contaduría, en las Especialidades y Maestría en el
Postgrado de Ciencias Administrativas, en la Maestría de Estadística y en el Doctorado
de Ciencias Sociales de la Facultad de Ciencias Económicas y Sociales de la
Universidad Central de Venezuela, además, de los Cursos de Comando y Estado Mayor
de la Escuela Superior de Guerra Naval. Esta experiencia docente, aunada al ejercicio
profesional me estimuló para escribir esta Introducción de Herramientas Cuantitativas
en la Toma de Decisiones sin otro pretexto que el deseo de contribuir modestamente a
aumentar la bibliografía ya existente con una visión particular.
Si el texto tiene algún mérito, este no es otro, que el deseo cumplido de aportar mi
experiencia como docente y como profesional a los alumnos del área de Ciencias
Sociales, en especial a los alumnos de Administración.
El texto nació como apuntes de apoyo para los alumnos de Toma de Decisiones y de la
materia electiva Pronóstico, que dicté en el Postgrado de Ciencias Administrativa,
además, de algunos seminarios que dirigí en el Doctorado de Ciencias Sociales de la
UCV, combinando en lo posible el aspecto académico con la experiencia profesional de
la aplicación de casi todas las herramientas que aquí se presentan.
Espero pues, haber cumplido con una de las razones del ser docente como lo es: el
divulgar la experiencia alcanzada para el beneficio de los demás, sin otra retribución
que la satisfacción del deber cumplido.
Este texto tiene como finalidad presentar las herramientas cuantitativas más usuales en
la toma de decisiones a un nivel introductorio. Está dirigido a estudiantes de los últimos
semestres en administración o economía y a estudiantes de postgrado en las áreas de
finanzas, organización, mercadeo, gerencia y economía o, a cualquier otro profesional
interesado en este tópico. Las herramientas que se presentan son aplicables a mercadeo,
economía de empresa o finanzas. Sin embargo, la mayoría de los ejemplos que se dan y
los problemas que se plantean son fundamentalmente del campo financiero. Para el uso
del libro solo se requiere el conocimiento básico de cálculo diferencial y matricial,
principios de estadística y uso de hoja de cálculo que suelen darse en casi todas las
licenciaturas. Durante la exposición de los temas se abordan conceptos que se suponen
ya adquiridos para no perder claridad.
En cada capítulo se desarrollan ejemplos de finanzas o economía empleando el Excel y,
en aquellos casos cuyos cálculos son laboriosos, se utilizan dos software de estadística:
SAS y SPSS indicando la interpretación de las salidas y, para simular sistema la
aplicación Crystal Ball.
El desarrollo de la informática, permite el manejo de una gran cantidad de datos, que
pueden convertirse en información útil para la toma de decisiones gerenciales,
originando lo que se conoce como minería de datos. En el contexto de la minería de
datos están el análisis estadístico multivariante, serie de tiempo y modelo de regresión
como herramientas fundamentales para definir patrones y reglas que son hoy de gran
importancia en la toma de decisiones financieras y de mercado. Ésta es la razón que
justifica la incorporación de estos temas en este texto. De por sí, los modelos de
regresión y serie de tiempo han permitido estudiar mejor la valoración de la empresa y
el mercado de capitales entre los tópicos financieros y una amplia aplicación en la
econometría.
Otro aspecto que se considera de importancia es iniciar al lector sobre la toma de
decisiones en ambiente complejo, lo que nos indujo a introducir conceptos basados en
simulación y, los problemas de estabilidad bajo la óptica de los sistemas dinámicos. Con

6
lo dicho, debe quedar claro que no es un texto donde solo se presentan las herramientas
clásicas de toma de decisiones, sino que se busca introducir al lector en otros temas de
desarrollo más reciente y que no son exclusivos de estadísticos y matemáticos.
En el primer capítulo se introduce al lector al proceso de toma de decisiones, se dan por
primera vez el uso del cálculo de probabilidades con ejemplos en toma de decisión
financiera y, se presenta un método heurístico para la toma de decisiones en situaciones
de cierta complejidad conocido como proceso de jerarquía analítica; se dan los
conceptos básicos de la teoría de la utilidad, escala de medición y los pasos generales
para construir un modelo.
En el segundo capítulo se da una introducción a la programación lineal y cuadrática
indicando los conceptos básicos y propiedades sin demostrar estas últimas, relación
entre el problema primal y dual, se discute la interpretación económica del primal y dual
de un modelo de programación lineal; de seguida se presenta el análisis de sensibilidad
cuando se hacen cambios en la función objetivo, las restricciones etc. Igualmente, se
hace una introducción al análisis paramétrico, el uso del Solver para tratar problema de
programación lineal y cuadrática como una herramienta fácil de emplear. Se estudian
los modelos de racionamiento de capital, selección de inversiones, selección de cartera
de Markowitz, modelo de Ferrar. Se dan varios ejemplos resueltos con Excel.
En el tercer capítulo se expone una introducción a la teoría de juegos, conceptos
básicos, juegos no cooperativos de dos jugadores de suma cero y de suma no constante:
el dilema del prisionero y el problema del duopolio, el equilibrio de Nasch, uso de la
programación lineal en la solución de juegos no cooperativos; sobre los juegos
cooperativos, se dan las definiciones de función característica, imputación, solución de
valor e índice de poder. El cuarto capítulo trata de la decisión bayesiana, conceptos
básicos, árboles de decisión, probabilidad condicional, teorema de Bayes, decisión con
experimentación, determinación del riesgo, valor de la información, análisis de
sensibilidad.
El quinto trata de un breve repaso de la decisión estadística bajo el enfoque clásico y
bayesiano. Se introduce en los conceptos de inferencia estadística: estimación y
contraste de hipótesis bajo estos dos enfoques. Test de bondad de ajuste. Comparación
entre los enfoques, aplicaciones a finanzas.
Los siguientes tres capítulo: seis, siete y ocho, tratan del análisis estadístico de los datos
como soporte a la toma de decisiones gerenciales. El capítulo seis contempla: datos en
forma de vectores y matrices, matriz de correlación, introducción al modelo de
regresión lineal estándar, supuestos básicos, métodos de estimación: mínimos
cuadrados, mínimos cuadrados generalizados, norma Lp, riscal; contraste de hipótesis;
efectos, detección y corrección de la violación de los supuestos, ejemplo con el software
SAS, salida e interpretación, ejemplo financiero con SSPS, salida e interpretación.
Aplicación del modelo de regresión múltiple a finanzas en el caso de selección de
cartera. El capítulo siete es la introducción a las series de tiempo, componentes,
técnicas de pronósticos: suavizado simple y doble, modelo de Holt, modelo de
Winters, modelo ARIMA(p,d,q), ARIMA(p,d.q)(P,Ds,Q) y una exposición muy breve
de ARFIMA, ARARMA y MARIMA junto con la validación del modelo seleccionado,
ejemplo con SAS y SPSS.
El capítulo ocho trata de las técnicas de reducción de dimensionalidad, análisis de
conglomerados y discriminante. Las técnicas de reducción de dimensionalidad que se
abordan son: componentes principales y correspondencia binaria. Estas técnicas
permiten encontrar la verdadera dimensión de una masa de datos con un gran número
de variables o categorías p e igualmente un gran número de observaciones n (n>>p). Por
otra parte, se mencionan varios algoritmos de conglomerados que permiten clasificar

7
objetos o personas en grupos lo más homogéneos posibles resultando útil cuando se
quiere por ejemplo clasificar clientes tomando en cuenta varias características. Del
análisis discriminante solo se aborda dos métodos el lineal de Fisher y el basado en
regresión logística. Estas técnicas dan reglas para decidir a que grupo previamente
establecido pertenece una nueva observación. Todas estas técnicas se ilustran con
ejemplos elaborados con SAS y SPSS.
Finalmente, el último capítulo trata de la toma de decisiones en ambiente complejo en
donde se introduce el concepto de complejidad algorítmica, la herramienta de la
simulación de sistemas, se repasa brevemente las distribuciones de probabilidad más
usuales en simulación, test de bondad de ajuste, uso de la aplicación de Excel: Crystal
Ball y algunos elementos del problema de equilibrio de los sistemas dinámicos,
concretamente las teorías del caos y catástrofe.
Los cuatro primeros capítulos se pueden leer de forma independiente, el quinto es
indispensable para comprender el sexto, el séptimo y octavo, al menos que se tengan
fresco los principios de inferencia estadística.
AGRADECIMIENTO.
Quiero expresar mi agradecimiento a los profesores: Doctores Henry Thonon, Luis
Mata Mollejas y Julio Corredor Ruiz, al profesor Jesuardo Areyan por su paciencia de
leer el manuscrito original y hacerme las observaciones que ellos tuvieron a bien
hacerme. Estos comentarios, me ayudaron a mejorar notablemente el texto. Al profesor
Jesús Silva coordinador del Postgrado en Ciencias Administrativa de la Universidad
Central de Venezuela quien demostró su interes por este texto. Igualmente quiero
agradecer a los alumnos en las materias Toma de Decisiones y Pronóstico del
Postgrado de Ciencias Administrativa de la Universidad Central de Venezuela, que en
su momento me comunicaron sus comentarios.
Cualquier error que el lector encuentre, que muy probablemente puede encontrar, por
aquello que errar es de humano, es de mi entera responsabilidad. Si tal es el caso, le
agradecería sus comentarios por aquello que rectificar también es de humano.

Andrés Eduardo Reyes Polanco.


San Antonio de Los Altos 2006

andresreyesp@rvaconsultores.com.ve

¨El autor se reserva todos los derechos de reproducción total o parcial de su obra por
cualquier medio”

8
CAPITULO I
NOCIONES BÁSICAS DE TOMA DE DECISIONES.
Contenido.
• Introducción.
• Introducción al Cálculo de Probabilidades.
• Distribuciones continuas usadas en Finanzas.
• Variables aleatorias bidimensionales.
• Casos:1) Caso proceso de jerarquía analítica 2) Caso proyectos con flujos
de caja aleatorios 3) Caso proyectos con flujos de caja con comportamiento
desconocido.
• Teoría de la utilidad.
• Escalas de medición.
• Formulación de un modelo de toma de decisiones
• Problemas.
• Bibliografía
Autor: Andrés E Reyes P.
¨El autor se reserva todos los derechos de reproducción total o parcial de su obra por
cualquier medio”

INTRODUCCIÓN.
Las herramientas de toma de decisiones son muy variadas, el desarrollo de las mismas
depende del enfoque que se considere, los primeros enfoques se orientaron a
comprender la conducta del consumidor de forma individual como un elector racional,
en donde con el concepto de escala ordinal se desarrolló la teoría de las curvas de
indiferencias y se incorporó la idea de maximización de la utilidad asumiendo
información perfecta, es decir, conociendo todas las acciones y sus consecuencias.
Posteriormente, se incorporó el comportamiento no de un consumidor sino el conjunto
de consumidores, que no se podía tratar como una suma de conductas individuales,
surgiendo así la teoría del bienestar, donde tiene una vital importancia el óptimo de
Pareto sustentado en la utilidad cardinal, este óptimo establece que: un cambio es
óptimo si deja a todos tan bien como antes y, mejora la posición de al menos una
persona. En estos enfoques no se considera el riesgo en la elección. Otro, es considerar
la elección con información incompleta, en este caso se le asigna probabilidades a los
resultados de las elecciones tal como jugar una lotería, en este caso se incorpora el
concepto de probabilidad y la mejor elección es aquella que maximiza la utilidad
esperada. Los enfoques donde se estudia el comportamiento del consumidor y hay
información perfecta, puede extenderse a otros problemas de la economía como el de la
formación de los precios o él de producción conjunta, dando lugar al desarrollo de la
teoría de juegos no cooperativos y cooperativos además, de la programación matemática
como herramientas para el uso óptimo de recursos escasos y por tanto, para la toma de
decisiones. El enfoque de asignar probabilidades y algunas formas de soluciones puede
extenderse a la decisión bayesiana y a la inferencia estadística y, a la construcción de
modelos estocásticos muy aplicados al problema de la volatilidad en el mercado de
capitales. Como aplicación de los modelos estocásticos, está el estudio de series
temporales que busca descubrir patrones que sirvan para predecir el comportamiento
futuro de una o varias variables económicas, surgiendo de esta forma una herramienta
útil para la toma de decisiones gerenciales. Otro enfoque, que se aparta definitivamente
del clásico, pero no entra en contradicción con él sino que lo complementa, es donde no
solo se considera la decisión de una o un conjunto de personas tratando el problema

9
como un caso de juego o de decisión bajo riesgo o incertidumbre, sino aquel donde se
hace énfasis en el conocimiento del entorno y del propio elector bien como persona o
como empresa es lo que podemos llamar decisión estratégica compleja, ella requiere
de nuevos instrumentos que van desde modelos predictivos, análisis estadístico de datos
multivariantes y la simulación. Por el momento, en este capítulo veremos solo los
conceptos básicos necesarios para abordar las diferentes herramientas de la teoría de la
decisión clásica.
Una decisión, en el caso más sencillo, es resolver un dilema que se presenta cuando al
frente tenemos un problema que puede resolverse al considerar dos acciones o
estrategias, cuyos resultados son medidos mediante un índice, este índice lo
llamaremos pago. El que toma la decisión es un ser racional e intencional y su
capacidad de actuar depende del grado de información que posea. Decidir, en general,
no es otra cosa que hacer una elección entre varias opciones que se dan como solución a
un determinado problema, y un problema es la limitación que se presenta para cumplir
con una misión previamente deseada. El decisor tomará una decisión óptima cuando con
la acción o acciones seleccionadas arribará al mejor de todos los pagos El problema por
ejemplo, puede referirse al caso de un gerente de una empresa que presenta un bajo
volumen de ventas, que atenta contra la supervivencia de la empresa en el mercado. Él
puede hacer una lista de acciones que anulen las causas que producen este bajo volumen
de ventas. Una forma de proceder es construir un gráfico causa efecto que indique las
interrelaciones de las causas y el efecto y posteriormente un gráfico de Pareto que indica
la importancia de cada causa y, finalmente definirá el conjunto de acciones, tal como los
mostramos a continuación (Estos gráficos se han obtenido empleándole software SAS).
El primer gráfico es el causa efecto.

10
En este ejemplo, se han considerado cuatro grupos de causas del comportamiento de la
venta: costos, calidad de la materia prima, la gerencia y el mercadeo. Cada uno de ellos
se ha dividido en subgrupos. Por ejemplo, el mercadeo se ha considerado dos aspectos:
el desconocimiento de las expectativas de los clientes y la publicidad. La calidad de la
materia prima se asume que depende de los proveedores y la entrega a destiempo que
afecta la calidad de la materia prima. Los costos responden a los altos inventarios y la
tecnología obsoleta que emplea la empresa en el proceso de producción. Finalmente los
problemas de la gerencia se asocia al bajo nivel de los supervisores.
Ahora corresponde definir la importancia de cada uno de ellos, esto puede hacerse
midiendo el costo de oportunidad asociado a cada elemento o dándole un grado de
importancia de acuerdo a una escala.
En nuestro caso se ha empleado una escala del 1 al 20 que indica el grado de
importancia de cada causa.
A continuación presentamos las causas, el código que se le asigna y la puntuación.

CAUSAS CÓDIGO CALIFICACIÓN


Inventario 1 5
Tecnología obsoleta 2 20
Nivel de los supervisores 3 8
Publicidad 4 10
Desconocimiento del cliente 5 18
Proveedores 6 4
Entrega a destiempo 7 3

El gráfico de Pareto es:

11
El gráfico de Pareto muestra que la causa más importante es la tecnología obsoleta
representado en el gráfico con el código:2, la segunda es el desconocimiento del cliente
con el código: 5, la tercera es la publicidad con código 4. Estos tres representan el 70%
de todos los pesos.
El conjunto de acciones o estrategias que define el gerente como ente decisor es:
A1: Reestructurar toda la empresa.
A2: Atacar solo las tres causas más importante (Tecnología obsoleta, cliente y
publicidad)
que conjuntamente representa el 70% de las causas.
En general, el pago asociado a cada acción depende del ambiente en donde debe tomar
la decisión, este puede ser uno o varios decisores igualmente racionales, que pueden
compartir los mismos intereses o por el contrario ser oponentes. En el caso en que
comparten intereses y pueden comunicarse entre sí llegando a compromisos
vinculantes, estaremos frente a lo que se conoce como juego cooperativo y en el caso
que pueden entrar en conflicto de intereses en juego no cooperativos.
Un ejemplo de la situación de intereses encontrados es lo que se conoce como la guerra
de las colas. En los juegos cooperativos hay un caso muy conocido: el problema de la
tríada; supóngase que el mercado de un determinado producto está repartido en tres
empresas. La empresa A tiene el 42% del mercado, B el 30% y C el 28%. Entonces, se
pregunta por ejemplo si C decide aliarse con una de las dos empresas para mejorar su
situación en el mercado ¿Cuál elegiría?
Pero también, el ambiente puede ser un conjunto de factores externos (políticos,
económicos, sociales, naturales, etc.) a los cuales no se les puede suponer racionalidad e
intencionalidad expresa. En éste último caso se habla de la naturaleza.
Supongamos que una empresa quiere invertir en un país en un futuro próximo. La
empresa puede formular varios escenarios cada uno es tal, que describe la situación
política, económica, jurídica y social con diferentes atributos. Un escenario puede
describirse como: un país con alta inestabilidad política, bajo desenvolvimiento
económico, inseguridad jurídica y graves problemas sociales; esta descripción
corresponde a un escenario pesimista, puede definir un segundo o en general varios
escenarios con la condición que sean excluyentes. Cada escenario es un estado de la
naturaleza sobre el cual no se tiene ningún control. La empresa puede hacer una lista de
posibles acciones y asociar a cada par de acción-estado de la naturaleza un pago
estimado.
Existen dos formas de abordar el asunto de la toma de decisiones. La primera forma es
estudiar la manera como las personas suelen tomar decisiones y la otra de cómo
deberían tomarla. La primera, se basa en realizar ciertos tipos de experimentos con los
que se tratan de encontrar algún patrón de comportamiento y, en este caso estamos
frente a un enfoque descriptivo de la toma de decisiones. En el otro caso, consiste en
elaborar un conjunto de supuestos y con estos se dan pautas de como debe ser la
conducta de aquel que toma la decisión siempre considerando que es un ser racional e
intencional, aunque tenga limitaciones de información.
Nosotros solamente tomaremos el último caso para desarrollar las herramientas de la
toma de decisiones.
El que toma la decisión tiene un grado de información sobre el ambiente. Esta
información puede ser veraz y completa que de acuerdo a la acción seleccionada dará un
resultado conocido perfectamente predecible. La selección de la acción la puede hacer
aplicando un modelo que recoge esta información y al resolverlo le indique la existencia
de una solución óptima. Un modelo construido con información completa que permite

12
predecir lo que ocurre con exactitud se llama un modelo determinístico. Casos de estos
modelos son los de programación lineal, modelos de inventarios con demanda y costos
conocidos etc.
Puede ocurrir, que la información que se posee es veraz pero incompleta, hay un
conjunto de elementos que hace que el comportamiento del ambiente sea irregular. El
resultado de la selección de la acción está condicionado al azar. Los modelos que se
construyen en este caso son de naturaleza probabilística. Ejemplo de este caso es la
selección entre varias inversiones donde los flujos de caja de cada opción tienen un
comportamiento aleatorio.
Finalmente, puede ocurrir que no poseemos ninguna información. Esto puede darse
porque el fenómeno es completamente nuevo o el fenómeno es altamente complejo que
hace imposible predecir el comportamiento final. No es fácil definir lo que es complejo,
pero tentativamente consideremos que el número de elementos que son necesarios para
describirlo es sumamente grande y además es casi imposible conocer todas las
interrelaciones existentes entre ellos, bajo esta situación, solo tenemos un conjunto de
criterios a escoger. En cuanto a las acciones o estrategias, no existe un algoritmo que
nos permita definir una lista de las mismas. Solo podemos establecer algunas reglas que
nos ayudan, siempre suponiendo la racionalidad, sin que con ello se descarte la
intuición, que aunque muchos no la acepten es otra forma de conocer el ambiente. La
definición de una estrategia está relacionada con el nivel de información que se posee
del ambiente. En general una estrategia es un conjunto de pasos para lograr un fin
determinado dentro de un ambiente del cual se tiene algún grado de información.
El número de estrategia puede ser finito o infinito, este último es el caso de los juegos
de persecución (misil versus avión, ambos se mueven en un espacio continuo
tridimensional).
Ejemplo 1.
Retomemos el ejemplo inicial, del gerente de una empresa que tiene un bajo volumen de
ventas, llamemos a este gerente Juan. Como se recordará, él puede elegir entre
reestructurar toda la empresa o ocuparse de las causas más importantes. Ahora,
supongamos que está en un mercado duopólico donde la otra empresa está pasando por
una situación similar y, tiene dos estrategias cambiar de producto, es decir, abandonar el
mercado, o invertir en nueva tecnología sin cambiar de producto. Llamemos al gerente
de esta empresa Pedro.
La lista de estrategias de Juan es:
A1: Reestructurar toda la empresa.
A2: Atacar solo las tres causas más importante.
La lista de estrategias de Pedro es:
B1: Cambiar de producto.
B2: Invertir en nueva tecnología.
El pago o la recompensa está dado por la participación en el mercado, como es un
duopolio lo que gana uno lo pierde el otro, por tanto basta indicar el pago de uno de
ellos en porcentaje de participación en el mercado. Tomaremos el pago asociado a Juan
y construyamos una matriz que refleje este pago:

Juan/Pedro B1 Abandonar B2 Cambiar de tecnología


A1 (Reestructurar) 100% 70%
A2 (Atacar más importante) 100% 50%

13
Lo primero que debemos tomar en cuenta es que lo que haga Juan afecta a Pedro y, lo
que haga Pedro afecta a Juan. Ambos tienen información completa y veraz de lo que
ocurre en el mercado y además, ambos conocen los resultados del conjunto de
elecciones, por tanto, tienen información perfecta. Este es un típico caso de juego con
intereses opuestos o no cooperativo. Como se puede ver, la mejor estrategia de Juan es
elegir la reestructuración de la empresa independientemente de la selección de Pedro,
porque corresponde en todos los casos a los porcentajes más altos de participación en el
mercado, lo mínimo que se garantiza con esta estrategia es el 70% del mercado.
Mientras la otra estrategia lo mínimo que le garantiza es el 50%. Por tanto, para su
conjunto de estrategias:
E=⎨A1,A2⎬ tiene asociado un conjunto de pagos mínimos P=⎨70%, 50%⎬ Como
70%>50% entonces: la estrategia de seleccionar A1 es preferida a A2.
Lo dicho en el ejemplo, podemos generalizarlo como sigue, consideremos los siguientes
conjuntos:

E=⎨e1 e2 e3…...en⎬

P=⎨p(e1 ) p( e2 ) p(e.)….p(.en⎬

Donde E es el conjunto formado por un número finito de estrategias y P los pagos


asociados a las mismas. En el caso en donde el número de estrategias es infinito el
decisor puede definir sus estrategias por ejemplo en intervalos del tiempo o espacios.
Dentro del conjunto de estrategias puede definirse una relación de orden de acuerdo al
pago esperado. Cuando una estrategia es preferida a otra se dice que ésta domina a
aquella.
Si la relación de orden sobre P es: ≥ que se lee ¨ preferible o indiferente a¨, o la
relación de orden en sentido estricto > que se lee ¨ preferible a ¨.

Si
p(e1 ) ≥ p( e2 ) ≥ p(e3. ) ≥….≥p(en)

Entonces, se verifica la relación de orden en E:

e1≥ e2≥ e≥…..≥.en

En este caso e1 es preferible a e2 y e2 es preferible a e3 , si la relación de orden es de


sentido estricto, entonces se dice que e1 domina a e2 y e2 domina a e3 etc.
Definamos ahora, una estrategia que está dada como combinación de otras dos:
E*=λ ej+(1-λ) ek 0≤ λ≤ 1

Si λ es cero o uno E* es una estrategia pura, si λ ∈ (0;1) es una estrategia mixta. Toda
estrategia mixta que no es dominada por otra se llama estrategia admisible.
La función de pago no siempre es fácil definirla. En ocasiones está dada en valor
monetario en otra en forma de utilidad. Sobre esto último se ha desarrollado toda una
teoría que se llama teoría de la utilidad que veremos brevemente en el punto IV.
Ahora, haremos un breve repaso del cálculo de probabilidades, cuyos conceptos son
necesarios para comprender los puntos que se desarrollan es este libro.

II.-INTRODUCCIÓN AL CÁLCULO DE PROBABILIDADES.

14
Como hemos indicado, hay situaciones en las cuales no se posee información completa
sobre el comportamiento de lo que hemos llamado ambiente. Este comportamiento varía
independientemente que pensemos que se han mantenido las mismas condiciones,
presentando irregularidades en sus resultados. Esto se explica, porque hay un gran
número de factores no observables y por tanto no medibles que actúan sobre el
comportamiento del ambiente que hacen que se presenten estas irregularidades,
entonces se dice que está interviniendo el azar. Los fenómenos o experimentos
afectados por el azar lo llamamos fenómenos o experimentos aleatorios. La pregunta es
¿Hay alguna ley que regule a estos fenómenos?. El célebre matemático Emil Borel
(1971) da una repuesta a esta pregunta: “ Parece evidente que la repuesta debería ser
negativa, ya que precisamente el azar se define como característica de los fenómenos
que no tienen ley, fenómenos cuyas causas son demasiados complejas como para que
podamos preverlas. Sin embargo, las matemáticas a partir de Pascal, Galileo y muchos
otros pensadores eminentes, han establecido una ciencia, el cálculo de probabilidades,
cuyo objeto ha sido generalmente definido como el estudio de las leyes del azar “.
Podemos por tanto decir que el cálculo de probabilidades es la matemática del azar.
Modernamente se ha ampliado el concepto al considerar la teoría de probabilidades,
como otra rama de la matemática tal como la geometría, con su cuerpo axiomático.
Hay varias formas de definir la probabilidad, unos la definen como un grado de
creencia, otros como cantidad de información, nosotros tomaremos la axiomática de
Kolmogorov como referencia sin entrar en refinamientos matemáticos.
Empecemos diciendo que a todo fenómeno aleatorio está asociado un conjunto formado
por todos los resultados posibles de este fenómeno que llamamos espacio muestral y
que designaremos por E. El conjunto de todos los conjuntos que se pueden formar con
los elementos del conjunto E. incluyéndolo a él, las uniónes y complementos que se
pueden formar con estos conjuntos y el conjunto vacío lo designaremos por Ω.
Consideremos ahora, un conjunto cualquiera A de Ω, al número P(A) lo llamaremos
probabilidad de A si cumple:
1.-P(A)≥0
2.-P(E)=1
3.-Si A y B son dos conjuntos de Ω y A ∩B=φ entonces: P(A∪B)=P(A)+P(B)
En general:
P(∪Ai)=P(A1)+ P(A2)+ P(A3)+…+P(Ak)+….Si los conjuntos son disjuntos entre ellos.

Al concepto de probabilidad está ligado el concepto de variable aleatoria. Dado un


fenómeno o experimento aleatorio, se llama variable aleatoria a una función que asigna
a cada elemento del espacio muestral uno y solamente un número real. Esto es s ∈ E:
X(s)→R.
Es importante destacar que a diferencia de lo que en matemática se conoce como
función, aquí la inversa no está definida en E sino en Ω.
Por otra parte, X(s) toma estos valores con una determinada ley de probabilidad. Esta
ley indica cual es la probabilidad que la variable X toma valores discretos o todos los
valores de un intervalo.
Entonces, las variables aleatorias pueden clasificarse de acuerdo a que tomen como
valor un número finito o infinito numerable, o tomen sus valores en todo un intervalo
real o, combine ambos casos. Cuando toma un número finito o infinito numerable de
valores enteros, decimos que la variable es discreta; en un intervalo decimos que es
continua y, mixta cuando puede tomar valores discretos y continuos.

De estas tres variables nos referimos primeramente a las variables aleatorias discretas.

15
Formalmente, X una variable aleatoria discreta que toma los valores: x1,x2,x3….xk….
Entonces:
1.-P(x1, ; θ1θ2…θ k)=P(X= x1; θ1θ2…θ k)≥0
xm
2.-P(X≤xm; θ1θ2…θ k)= ∑
i =1
P( xi θ1θ2…θ)= F(xm; θ1θ2…θ k)

3.- ∑ P(xi; θ1θ2…θ k)=1 ,
i =1

P(x1; θ1θ2…θ k) se llama función de probabilidad puntual, porque da la probabilidad de


que la variable aleatoria tome un valor x particular; θ1θ2…θ k son los parámetros
asociados a la ley de probabilidad. P(X≤xm; ; θ1θ2…θ k) es la función de probabilidad
acumulada, conocida también como función de distribución, indica la probabilidad de
que la variable aleatoria X tome todos los valores hasta el valor xm incluido.
El último sumando es la probabilidad de que tome todos y cada uno de los valores, por
tanto esta suma es igual a la unidad. Para simplificar la notación obviaremos los
parámetros.
Una forma de caracterizar una variable aleatoria es a través de sus momentos. Estos se
pueden definir partiendo de una función de X tal como g(X). Llamamos momento de
orden n a

E(g(X) n) = g(x1) n P(x1)+ g(x2) n P(x2)+ g(x3) n P(x3)…... +g(xk) n P(xk)+...

E es un operador que se lee: ¨ esperanza matemática de…¨.


Hay dos casos particulares que nos interesan, el primero es cuando n=1 y g(X)=X y se
llama simplemente esperanza de X, la cual se interpreta como centro de gravedad de la
masa de puntos y su expresión es:

E(X) = x1 P(x1)+ x2 P(x2)+ x3 P(x3)…... +xkP(xk)+…

Si nos acordamos de la media aritmética para datos estadístico encontramos una


relación entre los dos conceptos, basta expresar la media aritmética en función de las
frecuencias relativas fr y considerar que estas frecuencias son estimadores de los valores
p(xi):

M= x1 f1+ x2 f2+ x3 f3...... +xk fk

Donde f = (número que se repite xi)/(el número total de observaciones)≥0 y ∑ fr =1.


El segundo caso que nos interesa es cuando n=2 y g(X)=X-E(X), entonces tenemos el
segundo momento de inercia que mide la esperanza de los cuadrados de las distancia
entre los puntos y el centro de gravedad. Mientras más concentrados estén estos puntos
alrededor de E(X) menor dispersión tienen los datos, dicho de otra manera, más
homogéneos son y por tanto menor será este momento. Este caso se llama varianza de la
variable aleatoria X. Su expresión es:

VAR(X)=E(X-E(X)) 2= (x1 –E(X)) 2P(x1)+ (x2 –E(X)) 2 P(x2)+ (x3 –E(X)) 2P(x3)…... +(xk
–E(X)) 2P(xk)+..

Como se ve su interpretación es semejante a la varianza de un conjunto de datos, la cual


es el promedio de los cuadrados de los desvíos con respecto a la media aritmética.

16
Ejemplo 2:
Supongamos que tenemos una variable aleatoria que toma los valores 1,2,3,4,5,6 con
probabilidad de 1/6 cada uno. Esta variable se dice que se distribuye como una variable
discreta uniforme. La probabilidad que toma cualquier valor x entre 1 y 6 es:
P(X=x)=1/6, la probabilidad de que tome a lo sumo cuatro valores es: P(X≤4)=
P(X=1)+ P(X=2)+ P(X=3)+ P(X=4)=2/3.
El valor esperado es:

E(X)=1x1/6+2x1/6+3x1/6+4x1/6+5x1/6+6x1/6=3,5
La varianza es:

VAR(X)=(1-3,5) 2x1/6+(2-3,5) 2x1/6+(3-3,5) 2x1/6+(4-3,5) 2x1/6+(5-3,5) 2x1/6+


(6-3,5) 2x1/6=96,25
Otros casos de variables discretas son: la binomial, Poisson, uniforme discreta cuyas
funciones de probabilidad puntual son:
Binomial:P(X=x; n,p)=( n!/(n-x)!x!)pn(1-p)n-x
Poisson: P(X=x; λ )=exp(λ)λx /x!
Uniforme discreta: P(X=x;n)=1/n
La primera distribución tiene como parámetros n y p y se escribe B(x; n,p) la segunda
tiene como parámetro λ y se escribe P(x;λ). Estas tres distribuciones se verán con más
detenimiento en el último capítulo. En general, la función de probabilidad puntual se
escribe como: p(x; θ1θ2…θ k), donde θ1θ2…θ k son los parámetros de la distribución.
En el caso de una variable continua, la cual puede tomar cualquier valor en un intervalo
real cumple con:
1.-f(x; θ1θ2…θ k)≥0; función de densidad

x
2.-P(X≤x; θ1θ2...θ k)= F(x; θ1θ2...θ k)= ∫
−∞
f(x; θ1θ2...θ k)dx; función de distribución


3.-P(∞- ≤X≤∞;θ1θ2...θ k)= ∫
−∞
f(x; θ1θ2...θ k)dx=1

El valor esperado y la varianza son:



E(X)= ∫
−∞
Xf(x; θ1θ2…θ k)dx


VAR(X)= ∫
−∞
(X-E(X))2 f(x; θ1θ2…θ k)dx

Entre estas variables aleatorias continuas están: la distribución normal, la exponencial,


la beta , gamma, chi cuadrado , la triangular etc.

17
II a.-Distribuciones continuas empleadas en finanzas.

Dado un fenómeno tal, que asumimos que su comportamiento obedece a un gran


número de factores que actúan independientemente y de forma aditiva y, además, cada
factor por separado su efecto es casi nulo, podemos presumir que este fenómeno queda
bien representado por una variable aleatoria X que se distribuye como una normal de
media μ y desviación estándar: σ, es importante poseer un buen número de
observaciones, preferiblemente mayor que treinta para poder evaluar esta presunción,
cuando se tienen datos. Su notación es N(μ, σ) El modelo matemático es:

( )
f X ( x, μ , σ ) = 1 / 2π σ exp− (1 / 2)((x − μ ) / σ )
2

−∝
x
( )
P( X ≤ x ) = ∫ 1 / 2π σ exp− (1 / 2)(( x − μ ) / σ ) dx
2

−∝
( )
E ( X ) = ∫ 1 / 2π σ x exp− (1 / 2)(( x − μ ) / σ ) dx = μ
2

−∝
x
( )
VAR( X ) = ∫ 1 / 2π σ ( x − μ ) exp− (1 / 2)(( x − μ ) / σ ) dx =σ 2
2 2

Si se define el cambio de variable z=(x-μ)/σ, entonces obtenemos la normal reducida o


N(0,1)

(
f Z ( z,0,1) = 1 / 2π exp− (1 / 2)( z ) ) 2

−∝
(
P(Z ≤ z ) = ∫ 1 / 2π exp− (1 / 2)( z ) dx ) 2


( )
E (Z ) = ∫ 1 / 2π z exp− (1 / 2)( z ) dx = 0
−∝
2


( )
VAR(Z ) = ∫ 1 / 2π z 2 exp− (1 / 2)( z ) dx =1 = σ 2
−∝
2

Otras distribuciones muy empleadas en finanzas son la beta y la triangular. Estas se


emplean cuando se definen tres escenarios: pesimista, más probable y optimista. Un
caso es donde un determinado proyecto, los flujos de caja futuros se clasifiquen en uno
de estos escenarios previamente establecidos.

18
La distribución beta es:
f X ( x; p, q ) = ( x − a ) (c − x )q −1 / B( p, q)(c − a ) p + q −1 para
p −1

a≤x≤c
B( p, q ) = Γ( p )Γ(q ) / Γ( p + q )
Γ(n ) = (n − 1)(n − 2)(n − 3)...1
Si
Y = ( X − a ) / (c − a )
f Y ( y ) = y p −1 (1 − y ) / B ( p, q )
q −1

E ( X ) ≅ (a + 4b + c ) / 6

VAR( X ) ≅ (c − a ) / 36
2

El modelo matemático de la distribución triangular (Andrés Suárez Suárez (1991)) es:

f x (x ) = 0
x ≤ a
f x ( x ) = 2 ( x − a ) / (b − a )(c − a )
a ≤ x ≤ b
f x ( x ) = 2 ( x − c ) / (b − c )(c − a )
b ≤ x ≤ c

La media y varianza es:

E ( x ) = (a + b + c ) / 3
[
VAR( X ) = (c − a ) − (b − a )(c − b ) / 18
2
]
Ejemplo 3.
Supongamos que se tiene un proyecto con un horizonte económico de siete períodos. Se
ha considerado tres escenarios que afectan los flujos futuros de caja del proyecto. Estos
escenarios se han clasificado como: pesimista, medio o más probable y, optimista.
Los datos de los flujos de caja pueden presentarse por ejemplo mediante la siguiente
tabla, en donde, la primera columna se refiere a los períodos y, las siguientes a los
escenarios.

19
Período Pesimista Medio Optimista
1 12 16 20
2 10 12 15
3 23 24 34
4 12 18 20
5 14 16 20
6 18 20 22
7 17 22 30

En cada período se asume que el flujo correspondiente es una variable aleatoria con una
distribución beta o una distribución triangular. Se ha obtenido, con fines prácticos las
medias y las varianzas aproximadas de estas distribuciones. Se considera entonces, que
a corresponde al valor de la variable en un escenario pesimista, b o modo es el valor de
la variable en el escenario más probable y finalmente c al escenario optimista. En el
caso que nos ocupa, podemos ilustrar lo dicho asumiendo que los flujos de caja tienen
una distribución beta, entonces, el flujo de cajas esperado en el primer período es:
E(x)=(a+4b+c)/6=(12+4x16+20)/6=16 y la varianza es Var(x)=(c-a)2/36=(20-
12)2/36=1,77
De la misma forma puede obtenerse las medias y varianzas para los períodos siguientes.

II b.-Variables aleatorias bidimensionales.

Finalmente, el último tópico que nos interesa de la teoría de probabilidad, es el de


variable aleatoria bidimensional que se define como: dado un fenómeno o experimento
aleatorio, se llama variable aleatoria bidimensional a dos funciones X e Y que asigna a
cada elemento del espacio muestral uno y solamente un número real. Esto es sεE:
X(s)→R y Y(s)→R y se escribe (X;Y)
En el caso de variables discretas (obviando los parámetros) tenemos:
1.-P(X,Y)=P(X= x1.Y=y1)≥0
xm ym
2.-P(X≤xm,Y≤ym)= ∑ ∑
i =1 i =1
P(xiyi)
∞ ∞
3.- ∑ ∑
i =1 j =1
P(x1yi)=1

P(X,Y)=P(X= x1.Y=y1) se llama función de probabilidad puntual conjunta.


Si las dos variables aleatorias son independientes, esto es, conocida la probabilidad de
que una de ella tome un valor cualquiera, este conocimiento no afecta la probabilidad de
la otra en ningún caso, entonces:
P(X,Y)=P(X= x;Y=y1)= P(X= x)P(Y=y1)
P(X= x1.) y P(Y=y1) se llaman funciones de probabilidad marginales de las variables X
e Y respectivamente. Si la ocurrencia de un valor de una de la variable modifica la
probabilidad de ocurrencia de la otra ya no son independientes. Si la ocurrencia X= x1.
modifica la probabilidad P(Y=y) , esto es condiciona a P(Y=y) entonces se habla de
probabilidad condicional de Y dado un valor de X y se escribe: P(Y=y/ X= x1.), por
tanto :
P(X,Y)=P(X= x1.Y=y1)= P(X= x1.) P(Y=y/ X= x1).

20
Ejemplo 4:
Consideremos que se tiene un registro de dos variables aleatorias tal como se muestra a
continuación:

X Y 1 2 3 4 5 6
1 10 5 5 1 5 5
2 10 5 5 4 4 6
3 5 0 5 2 0 5
4 5 5 0 3 5 0

La variable X toma los valores 1,2,3,4 y las variables Y los valores 1,2,3,4,5,6.
Supongamos que se observan 100 realizaciones de (X,Y). Las celdas indican las veces
que repiten los valores de las variables, por ejemplo para X=1 y Y=1 hay 10
observaciones. El número total de observaciones es 100. Si se usa la frecuencia relativa
como una estimación de la probabilidad entonces P*(X=1,Y=1)=10/100=0,1. la
probabilidad condicional de X=1 dado que Y=1, esto es, P*(X=1/Y=1)=10/30, la
probabilidad de Y=1, P*(Y=1)=30/100. La función de probabilidad marginal de Y es
P*(Y=y), y para los valores de Y=1,2,3,4,5,6 se obtiene :
(30/100,15/100,15/100,10/100;14/100,16/100)=(0,3;0,15:0,15;0,1:0,14;0,16)
Con las variables aleatorias X e Y se pueden definir la suma, el producto y la división.
Tomaremos el caso de la suma:
Z=X+Y
La esperanza es:
E(Z)=E(X+Y)=E(X)+E(Y)
En general, tanto para variables continuas como discretas, si se tiene n variables
aleatorias X1,X2,…Xn, la suma es:
Z=X1+X2+…Xn
Por tanto la esperanza de la suma es:
n
E(Z)=E(X1+X2+...Xn)= ∑
i =1
E(Xi)

Si las variables que se están sumando son independientes, entonces la varianza es:

VAR(Z)=VAR(X+Y)=VAR(X)+VAR(Y)

En general, tanto para variables continuas como discretas independientes, la varianza de


la suma es:

n
VAR(Z)=VAR(X1+X2+..Xn)= ∑
i =1
VAR(Xi)

Si las variables que se están sumando no son independiente se demuestra que :

VAR(Z)=VAR(X+Y)=VAR(X)+VAR(Y)+2COV(X,Y)

Donde COV(X,Y)=E((X-E(X))(Y-E(Y))), el cual representa la variación conjunta de las


variables X e Y, este valor por tanto puede ser positivo, nulo o negativo. Si el valor es
positivo indica que las dos variables van en el mismo sentido, ambas creciendo o ambas
decreciendo, si es negativo entonces, van en sentido opuesto.
En general tendremos:

21
n n
VAR(Z)=VAR(X1+X2+..Xn)= ∑
i =1
VAR(Xi)+ ∑
i≠ j
COVAR(Xi ,Xj)
n n n
= ∑
i =1
VAR(Xi)+2 ∑
i =1

j =1
COVAR(Xi ,Xj)

La relación ρ(Xi ,Xj )=COVAR(Xi ,Xj) /[VAR(Xi )VAR(Xj)]1/2 se llama coeficiente de


correlación, y geométricamente es el coseno del ángulo formado por Xi ,Xj y por tanto
varía entre menos uno y más uno. Cuando la relación lineal es perfecta toma los valores
extremos. Cuando ambas variables crecen o decrecen en el mismo sentido entonces la
correlación es positiva, en caso contrario si una crece y la otra decrece la correlación es
negativa.
Si las variables Xi e Xj son independientes entonces, ρ(Xi ,Xj )=0, el recíproco, en
general no es cierto. Si ρ(Xi ,Xj )=0, entonces Xi e Xj no están correlacionadas.
Finalmente, consideremos la variable Z como una combinación lineal de n variables
aleatorias:

Z=a1X1+a2X2+…anXn
Entonces:

E(Z)=E(a1X1+a2X2+…anXn)= a1E(X1)+ a2E(X2)+….anE(Xn)

VAR(Z)=VAR(a1X1+a2X2+…anXn)=a12VAR(X1)+ a22VAR(X2)+… an2VAR(Xn)+a1


a2COV(X1 X2)+ a1 a3COV(X1 X3)+…. an-1 anCOV(Xn-1 Xn).

Esta última propiedad se va a emplear con bastante frecuencia en diferentes modelos


financieros. Por ejemplo, en la selección de cartera, las variables Xi representan los
rendimientos de los títulos y las aes la proporción que se quiere invertir en cada título.
Por tanto Z representa la composición de la cartera. Las esperanzas E(X1) representan
los rendimientos esperados de los títulos y E(Z) de la cartera. Las varianzas VAR(X1)
representan los riesgos de los títulos y VAR(Z) el riesgo de la cartera. Los términos ai
ajCOV(Xi Xj) pueden sustituirse por ai aj ρ(Xi ,Xj ) [VAR(Xi )VAR(Xj)]1/2
A continuación presentamos tres casos de toma de decisiones, el primero corresponde a
un artículo escrito por el autor titulado Consideraciones Teóricas y Praxis del Proceso
de Jerarquía Analítica en la Toma de Decisiones para el Cuaderno de Postgrado de
FACES-UCV, donde se describe un método heurístico para resolver problemas con
cierto grado de complejidad, el segundo es un ejercicio de selección de varios proyectos
con flujos de caja aleatorios donde se asume que se conoce las leyes de probabilidad
que los rige y, el tercero es también un ejercicio parecido al segundo pero sin ningún
conocimiento sobre la ley de probabilidad de los posibles eventos.

III.-CASO: PROCESO DE JERARQUÍA ANALÍTICA.

La técnica que a continuación comentamos fue desarrollada por el matemático T. M.


Saaty durante los primeros años de la década de los ochenta. Su aplicación es tan amplia
que discurre desde complejos problemas de política internacional hasta selección de un
software o de una cartera de inversión. En este trabajo es el resultado de algunas
aplicaciones realizadas en Venezuela por el suscrito, mostrando al final de este punto las
dificultades y limitaciones de la herramienta en diferentes situaciones. El método resulta

22
sencillo cuando hay un solo árbitro y pocos atributos, pero cuando estos atributos se
ramifican en varios niveles y hay más de un decidor su aplicación presenta varios
problemas. El caso se divide en los siguientes puntos, en primer lugar se desarrolla el
método, posteriormente se presenta una propuesta donde se establece la relación que
hay entre la teoría de la información y el problema de consistencia del método, en
seguida se plantea unos comentarios generales productos de la experiencia.

1.- El método.
El proceso de jerarquía analítica (P.J.A) es un método que permite consolidar las
opiniones de uno o varios expertos cuando se está en la disyuntiva de escoger entre
varias opciones, que no son fáciles de evaluar por el gran número de categorías
implícitas. Para ello se definen diferentes niveles. En el primer nivel está la definición
del problema, en el segundo están los atributos en su expresión más alta. Cada uno de
estos atributos se subdivide en subatributos definiendo un nuevo nivel. Esta operación
de definir niveles se efectúa tantas veces como sea necesario. Partiendo de esta forma
jerárquica, si no hay información previa de los atributos a un nivel o solo se tiene de
algunos de ellos que permitan hacer comparaciones, se construyen sucesivas matrices,
que permiten realizar comparaciones pareadas y, mediante el uso de auto vectores y
auto valores pueden determinarse cuál es el orden de importancia de cada atributo en los
diferentes niveles.
El Proceso de Jerarquía Analítica también conocido como Método Analítico de
Jerarquía ¨ dará lugar a un árbol cuya forma general es:

Objeto general
del proceso de
decisión

Nivel l

Nivel 2. Atributo
1
Atributo
2
Atributo
3
Atribut Atributo n

Nivel 3 Sub- Sub- Sub- Sub- Sub-


Atribut Atribut Atribut Atributo Atributo
o1 o o 1 2
2 3

Alterna- Alterna- Alterna- Alterna-


Nivel k tiva de tiva de tiva de tiva de
de- de- de- de-
cisión 1 cisión 2 cisión 3 cisión 4

Se puede observar que en el último nivel están las opciones o alternativas.

23
El siguiente paso, consiste en la determinación de los pesos para clasificar las
alternativas de decisión. Si se tiene en forma general, n criterios en una jerarquía
cualquiera, entonces necesitamos una matriz de comparación nxn. Cada uno de estos
criterios pueden subdividirse en mi criterios, dando origen a matrices mi x mi, y así
sucesivamente. En cuanto al último nivel la información requerida de las opciones debe
corresponder a las que se poseen del nivel inmediatamente anterior.
Supongamos que en un nivel cualquiera se está comparando tres atributos
independientes entre si que llamaremos A, B y C la matriz de comparación pareada es:

ATRIBUTOS A B C
A 1
B 1
C 1

Una característica de esta matriz cuadrada es que la diagonal principal es una constante
igual a 1 porque la comparación entre un mismo atributo es indiferente.
Para continuar la comparación debemos tener presente los siguientes aspectos:
1.-Hay que estar seguro que por la naturaleza de los atributos son independientes, la
presencia de uno no condiciona para nada la de otro.
2.-Los valores que se asigna a las comparaciones deben cumplir con:
2.a Siempre es: A ≅ A. Por tanto el número que se le asigna es uno.
2.b Si A f B, esto es, A es preferido a B y se le asigna el valor k, al hacer la
comparación B con A se cumple B p A y por tanto el valor asignado es 1/k.
2. c. Si A f B f C, entonces A f C, por tanto si A f B se le asignó k y B f C se le
asignó g, a A f C se le asignará un número m≥máximo (k,g).
2 .d Si A es indiferente a B, esto es A es igualmente preferido a B: A ≅ B entonces,
B ≅ A y el valor que se asigna es uno.
2.e Si A f B y B ≅ C entonces A f C y el valor que se le asigna a C es el mismo que el
asignado a A f B.
Sea aij el elemento de la i-ésima fila y la j-ésima columna de la matriz cuadrada Anxn
(en donde su lectura por fila o por columna se asocia a los n atributos) el cual puede
tomar los valores enteros entre 1 y 9, en donde aij =1, indica que tanto el atributo i como
el atributo j son igualmente importantes, aij =3 refleja que el atributo i es algo
importante que el atributo j, aij =5 indica que el atributo i es más importante que el
atributo j, aij =7 indica que el atributo i es mucho más importante que el atributo j, aij
=9 es el caso extremo donde el atributo i es extremadamente mucho mas importante que
j. De esto se desprende que si aij =k, aji =1/k .
El problema es encontrar la solución a la siguiente ecuación:
Anxnxnx1-λxnx1=0 nx1
En donde Anxn es la matriz de comparaciones pareadas, xnx1 es un vector fila , 0 nx1 es
el vector nulo y λ es un valor real.
Esta ecuación tiene solución distinta a la trivial si y solo si el determinante de │ Anxnxnx1-
λxnx1│es cero. Al resolver el determinante se obtendrá un polinomio en λ. En efecto:
│ Anxnxnx1-λxnx1│=f(λ)
Como el determinante debe ser nulo, entonces: f(λ)=0. Las raíces de f(λ) se denominan
raíces características o auto valores y los vectores asociados a estas raíces se llaman
vectores característicos o auto vectores. Hay diferentes métodos de cálculo que permiten
obtener tanto las raíces como los vectores.

24
Pero, si la matriz de comparaciones se ha construido tomando en cuenta lo propuesto en
los puntos 1 y 2 entonces la matriz de comparación, es perfectamente consistente. Si
este es el caso, entonces se podrá construir una nueva matriz partiendo de ésta, tal que la
suma de los componentes de cada vector columna suma uno, esto es:
n
P=║pij║ , pij = aij / ∑ aij i=1,2,…n y j=1,2, n;
i =1
(║pij ║el símbolo se lee la matriz de elementos pij; i=1,2,…n y j=1,2, n; y cumple con
∑ pij =1 para todo j ( ∑ pij = ∑ aij / ∑ aij =1) . La matriz P se llama matriz de
i =1 i =1 i =1 i =1
ponderaciones iniciales.
Construiremos la matriz P* que resulta de dividir cada columna de la matriz P por el
elemento que está en la posición que corresponde al número de la columna, esto es, la
primera columna se divide entre el primer elemento, la segunda por el segundo
elemento de esta columna y así sucesivamente (P*=║pij / pjj ║ ). Es fácil probar que:
A=P*
Partiendo de lo anterior definimos el sistema de ecuaciones dado por:
APj=P*Pj= λPj donde Pj es un vector columna de la matriz P y λ=n como puede
comprobarse.
Por tanto, si la matriz A es consistente entonces el primer valor característico es igual al
número de atributos o criterios que se están evaluando.
Postmultiplicamos esta matriz P por el vector (1/n)1 donde 1t = (1,1,1, … ,1)
obtenemos el vector de las medias por fila. Que es el vector característico o auto vector,
cada elemento de este vector significa la importancia de cada atributo en el nivel
considerado, luego para cada nivel se construirán las matrices y vectores, incluyendo el
nivel de alternativas de decisión. Una vez determinados todos los pesos en los diferentes
niveles, se obtiene un índice por encadenamiento de los pesos para cada una de las
alternativas de decisión, es decir, para cada opción se obtiene uno y sólo un índice
mediante el cual se determina que opción es mejor dentro de cada subatributo del último
nivel.
Ejemplo 4.
Supongamos, que una empresa desea adquirir una nueva maquinaria tomando en cuenta
tres cualidades o categorías: a) tecnología , b) costo y c)vida útil y mediante la
aplicación de una matriz de comparaciones obtuvo que la tecnología y el costo tienen un
peso cada uno de 30% y la vida útil el 40%. Hay tres maquinarias candidatas a ser
seleccionadas de acuerdo a estos atributos. El problema se presenta en forma de un
árbol:

25
Nivel 1
Selección
Productos

Nivel 2-a Nivel 2-b Nivel 2-c


Pa=0,3 Pb=0,3 Pc=0,4

Producto 1 Producto 2 Producto 3


Q1a=0;3 Q2a=0;5 Q3a=0;2
Q1b=0;2 Q2b=0;4 Q3b=0;4
Q1c=0;5 Q2c=0;1 Q3c=0;4

El nivel uno se indica el problema, el siguiente las tres cualidades o categorías, con sus
respectivas ponderaciones. La primera cualidad 2-a tiene una ponderación de 0,3 y así
las demás. El tercer nivel lo conforman las alternativas de maquinarias y sus
ponderaciones se obtienen mediante datos técnicos proporcionados por los vendedores.
Si se observa los últimos cuadros correspondientes al último nivel puede notarse que
para la categoría tecnología a (Qa ) la maquinaria 1 tiene una ponderación de 0,3; la
maquinaria 2 tiene una ponderación de 0,5 y por último la maquinaria 3 una
ponderación de 0,2 que al sumar da uno. Igual ocurre con las otras dos categorías.
Para evaluar cada máquinaria, ponderamos el peso que tiene cada una de las categorías
por el peso correspondiente del nivel superior.

P1=0,3x0,3+0,3x0,2+0,4x0,5=0,35
P2=0,3x0,5+0,3x0,4+0,4x0,1=0,31
P3=0,3x0,2+0,3x0,4+0,4x0,4=0,34

En este caso el mejor es la maquinaria 1.

Generalmente, no se puede garantizar la consistencia de una matriz la primera vez que


se trabaja, por tanto hay que estudiar la consistencia de la matriz de comparación, que
en forma general se plantea así: se calcula el índice de consistencia de A dado por: IC=
(λ-n)/(n-1), el índice de consistencia aleatorio dado por: ICA= 1,98(n-2)/n y la razón de
consistencia que está dada por: n(λ –n)/1,98(n-1)(n-2), si esta razón es menor que 0,1, el
nivel de inconsistencia es, según Saaty muy aceptable.
Si las matrices son consistentes, se pasa al ordenamiento de las variables o categorías
según el valor del elemento que le corresponde en el auto valor en cada nivel.
Cuando se tiene un solo evaluador y un solo nivel de comparación con pocos atributos
el problema se resuelve sin ninguna dificultad, de hecho se puede emplear el Excel sin
recurrir a algún software especializado. Difícilmente, un evaluador frente a matrices de

26
orden menor a cuatro tendrá mayores problemas para obtener matrices consistentes, el
problema surge cuando hay varios niveles con matrices de orden superior a tres.
Cuando existen varios niveles es necesario estudiar la consistencia global, no solamente
la consistencia en cada nivel. Para estudiar la consistencia global partimos como sigue:

ICG=IC del segundo nivel + (autovector del segundo nivel)x( vector de IC del tercer
nivel)+(autovector del tercer nivel)x(vector de IC del cuarto nivel)+….+(autovector del
nivel k-1)x( vector de IC del nivel k)
Ahora bien, es frecuente que en una empresa participen varios evaluadores considerados
como expertos. Cuando existen varios evaluadores para un mismo problema que afecta
a una organización hay que estudiar la concordancia entre los evaluadores.
Para ver la concordancia entre todos los expertos o evaluadores, se emplea el coeficiente
de concordancia W de Kendall que viene dado por:

n
W=12 ∑ (Ri*-R*)2/n(n2-1)
i =1
Donde:

Ri*= promedio de los rangos asignados al i-ésimo objeto.


R*= la media de todos los rangos asignados.
n= el número de factores o atributos evaluados.
n(n2-1)/12= suma máxima posible de los cuadrados de las desviaciones
n
El máximo valor que puede alcanzar ∑i =1
(Ri*-R*) es n(n2-1)/12 y el mínimo es cero

Por tanto 0≤W≤1, mientras más cercano se esté de uno, mejor es la concordancia,
puesto que de la forma que está definido este estadístico, a valor mayor de correlación
entre el conjunto de rangos, mayor es la concordancia. La hipótesis que se establece es
H0 W=0, contra la alternativa: H1 W>0. Si el número de factores o atributos es mayor
que siete (n>7) el estadístico que se emplea para contrastar la hipótesis nula es:

X2=k(n-1)W
donde k es el número de evaluadores. Este estadístico bajo la hipótesis nula tiene una
ley X2 con n-1 grados de libertad.
Si este valor es mayor que el valor del cuantil asociado a un nivel de significación
preestablecido de una X2 con n-1 grado de libertad, entonces rechazamos la hipótesis H0
W=0.
En el caso de que el número de evaluadores k esté comprendido entre tres y veinte y el
número de criterios a ordenar sea igual o menor a siete se tienen tablas para realizar el
contraste con la distribución exacta .

Resumiendo esta metodología requiere:

1.-La construcción de un instrumento especial que permita recoger las comparaciones


realizadas en cada nivel y por cada uno de los expertos en las diferentes áreas.

2.-Estudiar la consistencia de cada una de las matrices mediante la aplicación del índice
de consistencia y razón de consistencia.

4.-Estudiar la consistencia global.

27
3.-Estudiar la concordancia o acuerdo de las opiniones de los expertos mediante el
estadístico W de Kendall, cuando existen mas de dos expertos.

4.-Eliminar o aplicar nuevamente el instrumento en aquellos casos en donde se


determine inconsistencia.

1a.- Cálculo del autovector y del autovalor.

El cálculo de autovectores y autovalores parte de la siguiente relación: APj=P*Pj= λPj,


n n
esto es equivalente a ∑
j =1
aij Pj = ∑
j =1
p*ij Pj =λPi , i=1,2,…n de donde aij es el elemento

de la fila i y de la columna j de la matriz A, p*ij es el elemento de la fila i y de la


columna j de la matriz P*, pi es elemento i del vector característico Pj. De las igualdades
anteriores obtenemos una forma aproximada de obtener el vector característico y el
autovalor:
λ=∑ I (∑ j aij pj /pi)/n
Multiplicando la matriz P por el vector (1/n)1 donde 1t = (1,1,1, … ,1) obtenemos:
Pj=(1/n)P.1
Ejemplo 5
Veremos un ejemplo para ilustrar el procedimiento. De cada matriz de comparaciones
se obtiene el autovector y autovalor usando los siguientes pasos:
Se construye una nueva matriz de la siguiente forma. En primer lugar se suma los
valores de cada columna por separado, una vez realizada la suma se divide cada
elemento de la columna entre la suma obtenida. Cada vez que se realiza esta operación
se está obteniendo una columna de la nueva matriz. Para aclarar este punto
consideremos una matriz de comparaciones pareadas 6x6.

ATRIBUTO1 ATRIBUTO2 ATRIBUTO3 ATRIBUTO4 ATRIBUTO5 ATRIBUTO6


ATRIBUTO1 1 0,33333333 0,5 0,33333333 1 0,33333333
ATRIBUTO2 3 1 0,5 0,33333333 0,2 0,2
ATRIBUTO3 3 5 1 1 0,14285714 0,16666667
ATRIBUTO4 3 5 1 1 0,14285714 0,16666667
ATRIBUTO5 1 5 7 7 1 1
ATRIBUTO6 3 5 7 7 1 1

La suma de la primera columna es catorce (14), entonces, cada elemento de esta


columna se divide entre esta cantidad obteniéndose los elementos de la primera columna
de la nueva matriz:
(0,07142857, 0,21428571, 0,21428571, 0,21428571, 0,07142857, 0,21428571)T.

Puede observarse que la suma de estos valores da la unidad. Para obtener la segunda
columna de la nueva matriz, se toma los elementos de la segunda columna de la matriz
original y se suman lo que da veintiuno (21), ahora cada elemento de esta columna se
divide entre este número obteniendo la segunda columna de la nueva matriz ( 0,015625,

28
0,046875, 0,234375, 0,234375, 0,234375, 0,234375) T y así sucesivamente hasta obtener
la nueva matriz la cual se llama matriz normada.

MATRIZ NORMADA
0,07142857 0,015625 0,02941176 0,02 0,28688525 0,11627907
0,21428571 0,046875 0,02941176 0,02 0,05737705 0,06976744
0,21428571 0,234375 0,05882353 0,06 0,04098361 0,05813953
0,21428571 0,234375 0,05882353 0,06 0,04098361 0,05813953
0,07142857 0,234375 0,41176471 0,42 0,28688525 0,34883721
0,21428571 0,234375 0,41176471 0,42 0,28688525 0,34883721
1 1 1 1 1 1

2.-Para obtener el autovector procedemos como sigue: se suma la matriz por fila y el
resultado se divide entre el número de columnas que tiene la matriz, cada vez que se
realiza esta operación se obtiene un elemento del auto vector.

AUTOVECTOR
0,08993828
0,07295283
0,11110123
0,11110123
0,29554846
0,31935798

El primer valor del auto vector se obtuvo como sigue:


(0,07142857+0,015625+0,02941176+0,02 +0,28688525+0,11627907)/6=0,08993828.

La interpretación de los elementos del autovector es que mide el peso o importancia que
tiene cada atributo, en el ejemplo, el atributo numero seis es el más importante:
0,31935798

Para obtener el auto valor, en primer lugar se multiplica la matriz original por el auto
vector obteniéndose un nuevo vector:

MATRIZ
ORIGINAL
POR
AUTOVECTOR
0,60884136
0,5583333
0,95222897
0,95222897
2,62502608
2,80490263

29
Cada elemento de este vector se divide entre cada elemento del auto valor y luego se
suman y se divide entre el número de sumandos. El resultado es el primer auto valor de
la matriz A
λ=(0,60884136/0,0899382+0,5583333/0,07295283+0,95222897/0,11110123+0,95222897/0,11
110123+2,62502608/0,29554846+2,80490263/0,31935798)/6=8,20489366
3.-Una vez obtenido el auto valor, que denotamos por λ se obtiene el índice de
consistencia dado por:
(λ –n)/(n-1)= 0,44097873
Luego, obtenemos el índice de consistencia aleatorio dado por: 1,98(n-2)/n=1,30666667,
finalmente calculamos la razón de consistencia que está dada por: n(λ –n)/1,98(n-1)(n-
2)= 0,33748372 como esta razón no es menor que 0,1, el nivel de inconsistencia no es
aceptable.
Si se tiene varios evaluadores se promedian los autovalores de aquellos cuya
inconsistencia es aceptable, es decir, la razón de consistencia es menor a 0,1.

1b.- Cálculo de la concordancia.


Supongamos que tenemos tres evaluadores de los cuales poseemos sus autovectores y
los rangos asignados a los mismos:

Evaluador1 Rango Evaluador2 Rango Evaluador 3 Rango


0,36972128 1 0,55532688 1 0,37956029 1
0,04759194 5 0,18450649 2 0,13238445 4
0,04524514 6 0,10449158 3 0,17051658 2
0,07779081 4 0,09060269 4 0,06765476 6
0,25468381 2 0,03397547 5 0,14315339 3
0,20496702 3 0,03109689 6 0,10673053 5

Los índices de consistencia de cada evaluador es 0,10087798 para el primero,


0,09860412 para el segundo y 0,099 para el tercero.
Para el estudio de la concordancia empleamos el estadístico de Kendall el cual se
obtiene mediante:
n
W=12 ∑ (Ri*-R*)2/n(n2-1).
i =1

La forma de calcular este estadístico es como sigue:


1.-Se calcula el promedio de los rangos de cada atributo:

30
Rango1 Rango2 Rango 3 Ri*
1 1 1 1
5 2 4 3,66
6 3 2 3,66
4 4 6 4,66
2 5 3 3,33
3 6 5 4,66

2.-Luego se calcula el promedio de R*:=3,5


3.-La suma de los cuadrados de los desvíos ( 1-3,5)2+(3,66-3,5) 2+(3,66-3,5) 2+(4,66-
3,5) 2 +(3,33-3,5) 2+(4,66-3,5) 2)=9,05

Finalmente se obtiene W=0,5174.


.
Un valor alto de W puede interpretarse como un reflejo de que los k evaluadores están
aplicando los mismos estándares al asignar rangos a las n categorías o atributos bajo
estudio.

Para contrastar la hipótesis si el número de objetos evaluados es mayor que siete (n>7)
entonces aplicamos:

X*2=k(n-1)W

Si este valor es mayor que el valor del cuantil asociado a un nivel de significación
preestablecido de una X2 con n-1 grado de libertad o calculamos P(X2> X*2) y si es
menor al nivel de significación α rechazamos la hipótesis nula H0 W=0.
Para valores n<7 hay tablas de la distribución exacta bajo la hipótesis nula disponibles
para realizar el contraste.

2.-Información y consistencia.

En este punto consideramos la cantidad de información contenida en el vector


característico, para ello consideramos el caso que todos los atributos son igualmente
indiferente esto es: Anxn==║1 ║, luego el auto vector está formado por n elementos
iguales a: 1/n por tanto λ=n.
Si ahora tomamos la función de entropía dada por:
n
H=- ∑ pj log b pj
i =1
La función de entropía tiene dos interpretaciones, antes de realizar el experimento es
una medida de indeterminación y después de realizado es una medida de información
promedio.
Esta función se hace máxima para pi=1/n para todo i, y el máximo es log (b)n ( log (b)n.
se lee logaritmo de base b de n, en donde si b=2, se habla de bit y si es de base 10 de nit
) . Llamamos Hs a la función para cualquiera otro valor de Pj con la condición que sean
diferentes para todo o casi todo j, entonces:
H-Hs es la cantidad de información ganada.
Ahora, consideremos una matriz de comparación nxn con todos sus elementos iguales a
una constante a: ║a║ con a≠1,a tal matriz la llamaremos una matriz de comparación

31
impropia de primer tipo. Se puede demostrar que esta matriz tiene máxima entropía y
altísima inconsistencia (cuando n tiende a aumentar la inconsistencia se acerca a: a-1),
su auto valor mayor es λ=na. Si a=1, es una matriz de comparación impropia de
segundo tipo, ella tendrá máxima entropía e inconsistencia nula puesto que su auto valor
mayor es λ=n.
Consideremos una matriz de comparación cualquiera A siempre tendrá mayor
información que las matrices de comparación impropias uno y dos. Por otra parte,
tendrá menor o igual inconsistencia que la matriz del tipo uno y mayor o igual a la
matriz del tipo dos. Si IC(.) e Inf(.) son índices de inconsistencia e información, lo
anterior se resume como:

Inf(A)≥Inf(1)
Inf(A)≥Inf(2)
IC(1)≥IC(A)≥IC(2).

Mientras mayor sea la consistencia (menor inconsistencia) de una matriz de


comparación, mayor será su información en el sentido que se ha definido como la
diferencia de dos funciones de entropía.
Consideremos ahora que se puede dar un nivel de inconsistencia asociado al auto vector
Pj y que es posible disminuir tal nivel y corregirlo dando lugar a un nuevo auto vector
Qj .El problema es cuan tan grande ha sido la modificación del criterio de
ponderaciones. Para responder a este problema tomaremos una propuesta de H. Theil
adaptándola con una nueva interpretación mas apropiada al problema que nos ocupa.
Usando la misma notación de H. Theil tenemos:
I(Pj,Qj)= ∑
j
qj log qj / pj

Siendo pj y qj respectivamente elementos de Pj y Qj.


I(Pj,Qj)≈1/2 ∑ qj ((pj – qj)/ qj )2 =1/2 ∑ (pj – qj) 2/ qj
j j

Si este estadístico toma un valor muy grande es de presumir que pj - qj ≠0, para al
menos algún j. La hipótesis nula es Ho : pj – qj =0, para todo j y la alternativa H1 : pj – qj
≠0 para al menos algún j. Este estadístico sigue una ley Χ2 con n-1 g.l, bajo la hipótesis
nula. Si la hipótesis nula no se rechaza no se ha presentado una mejora en la
inconsistencia.
Asumiendo que la matriz de comparación es consistente, entonces el suceso de
cumplimiento expuesto en el punto 2 , tienen probabilidad igual a 1.

3.-Comentarios generales.

Empezaremos el comentario sobre el método, indicando sus limitaciones en la


aplicación. Como dijimos anteriormente es fundamental que los atributos en un nivel
sean independientes entre sí incluso en su desagregación a niveles inferiores. En
problemas con un solo árbitro, no es tanto el número de niveles sino el orden de cada
matriz de comparación cuando no hay datos estadísticos que avalen las preferencias. Es
corriente en estos casos, que se presente inconsistencias en uno o varios niveles.
Un problema común es cuando se tienen varios árbitros o jueces pero y no existe la
inconsistencia por el orden de las matrices en los diferentes niveles, sino que el
problema es la concordancia.

32
Hay situaciones que resultan algo más complejas: los niveles son evaluados por árbitros
distintos y además el orden de las matrices es mayor de cuatro. Esto ocurre cuando el
problema es lo suficientemente complejo que requiere la participación de un grupo de
expertos distinto para algún nivel o para todos.
Finalmente, se presenta el caso que no exista uno o varios árbitros que tengan una
visión confiable de conjunto y por tanto no se pueda terminar el árbol. A pesar de lo
indicado anteriormente, el método como herramienta para la toma de decisiones resulta
satisfactorio cuando el transcurrir del tiempo muestra que se ha tomado una buena
decisión o porque hay estudios similares que así lo avalan o, cuando se ha usado el
método acompañado con otra técnica, y es posible contactar que los resultados no se
contradicen.
Para resumir lo anterior daremos el siguiente cuadro:

Causa Problema Solución.


Complejidad. Falta de consistencia.-Falta Revisión de la consistencia
1.-Número de jueces de concordancia repetición del experimento,
2.- Número de niveles Aplicar T.G.N

3.-Orden de las matrices Falta de consistencia ídem


Conocimiento. Falta de consistencia Redefinir el conjunto de
1.-Definición inadecuada de categorías y sus divisiones.
la jerarquía. Inducción sobre el método
2.-Desconocimiento de las
reglas de asignación de
valores-

IV.-CASO: PROYECTOS CON FLUJOS DE CAJA ALEATORIOS.

A continuación daremos un ejemplo de selección de proyectos que suele presentarse con


frecuencia en donde se asume más de un escenario económico y, por tanto los flujos de
cajas son consideradas como variables aleatorias. Hay dos formas de resolver el
problema, el primero es asignar probabilidades a priori a los escenarios con el concurso
de un panel de expertos y aplicar la técnica Delphi. La otra forma es considerar que los
flujos responden al comportamiento de una variable aleatoria con distribución beta o
triangular.

Ejemplo 6.
Supongamos un caso sencillo: Ud. debe seleccionar entre tres proyectos independientes
y excluyentes. El primer proyecto tiene una inversión inicial de 10.000 $ y los flujos de
caja se espera que tenga el siguiente comportamiento en M$:

Proyecto 1
Período 1 2 3 4 5 6 7
Escenario1 2 2 2 2 2.1 2.2 2.3
Escenario2 3.5 3.7 3.8 3.9 4 4.1 4.2
Escenario3 4 4.1 4.2 4.3 4.4 4.5 4.6

33
El segundo proyecto su inversión inicial es de 12.000$ y los flujos de caja se espera que
tenga el siguiente comportamiento en M$:
Proyecto 2
Período 1 2 3 4 5 6 7
Escenario1 2 2 2.9 3 3.9 4. 4.3
Escenario2 3 3 3.8 3.9 4.6 4.9 5.2
Escenario3 4 4 4.2 4.3 4.8 5 5.4

El último proyecto tiene una inversión inicial de 6.000 $ y los flujos de caja se espera
que tenga el siguiente comportamiento en M$:

Proyecto 3
Periodo 1 2 3 4 5 6 7
Escenario1 2 2 2.9 3 3.9 4. 4.3
Escenario2 3 3 3.8 3.9 4.6 4.9 5.2
Escenario3 4 4 4.2 4.3 4.8 5 5.4

La tasa mínima exigida es de 12% por período. Seleccione uno de los proyectos
tomando en cuenta el valor esperado del VAN y el riesgo, asumiendo que los escenarios
tienen como probabilidad de ocurrencia: 0,20; 0,30 y 0,50 respectivamente
Para resolver este problema, debemos tomar en cuenta que los flujos de cajas en cada
período se comportan como una variable aleatoria que toma tres valores
correspondientes a los tres escenarios. Por tanto, podemos obtener el valor esperado y la
varianza de cada flujo de caja i . En general, el valor esperado de cada flujo de caja en el
período j ésimo tiene la forma:

n
E(Fj)= F1j p1 + F2j p2 + F3j p3 +…. Fnj pn = ∑ Fij pi j=1,2,3...T
i =1
Donde F1j indica el flujo de caja del primer escenario en el período j, F2j el flujo de caja
del segundo escenario en el período j y, así sucesivamente, p1 indica la probabilidad del
primer escenario, p2 la probabilidad del segundo escenario etc. El horizonte económico
es T (duración del proyecto).
En nuestro ejemplo, el valor esperado del flujo del primer período en el proyecto tres es:
E(F1)=2x0,2+3,5x0,3+4x0,5=3,45
La varianza de cada flujo de caja en el período j ésimo tiene la forma:
n
VAR(Fj)= (F1j-E(Fj))2p1 +(F2j-E(Fj))2p2 +….+(Fnj-E(Fj))2pn = ∑ (Fij-E(Fj))2pi
i =1
j=1,2,3…T
En nuestro caso:
VAR(F1)= (2-3,45)2x0,2 +(3-3,45)2x0,3 +(4-3,45)20,50=0,5725

Los valores actualizados de la esperanza y varianza son para el período j:

E(Fj)/(1+k) j

VAR(Fj)/(1+k)2j

Siendo k la tasa mínima exigida.

34
Siguiendo con el mismo ejemplo del primer flujo de caja (j=1) del primer proyecto, el
valor esperado actualizado es:
E(F1)/(1+k)=3,45/1,12= 3,08035714
Y la varianza actualizada es:
VAR(F1)/(1+k)2.1=0,5725/1,122=0,45639349

En el caso que la inversión inicial Co del proyecto es conocido y los flujos de caja son
variables aleatorias independientes, el valor esperado y la varianza del Valor Actual
Neto (VAN) es para un horizonte T :

E(VAN)= -Co + E(Fj)/(1+k) 1 + E(Fj)/(1+k) 2 + E(Fj)/(1+k) 3 +…+ E(Fj)/(1+k) T

=-Co+∑ E(Fj)/(1+k) j

VAR(VAN)= VAR(Fj)/(1+k)2x1 + VAR(Fj)/(1+k)2x2 + VAR(Fj)/(1+k)2x3 ….+


VAR(Fj)/(1+k)2xT

T
= ∑ VAR(Fj)/(1+k)2j
i =1

Se ha asumido que los flujos son incorrelacionados para el cálculo de la varianza del
VAN, por tanto no hay correlaciones.
Cuando los valores esperados de diferentes inversiones son iguales, la decisión depende
del riesgo medido por la varianza o la desviación estándar. Cuando los valores
esperados son diferentes se emplea el coeficiente de variación dado por:
CV(VAN)= (√ VAR(VAN))/E(VAN)x100
Empleando una hoja de cálculo Excel se llega a los siguientes resultados:

CUADRO Nº 1
Valores esperados, varianzas y coeficientes de variación
de los valores actuales netos de los proyectos.
Proyecto Valor Esperado: Varianza Coeficiente de
E(VAN) VAR(VAN) Variación
1 6,84 2,1315 21,33%
2 6,158 1,2142 17,89
3 12,107 1,2058 9,07%

Si partimos de los valores esperados, el tercer proyecto es preferido al primero y el


primero al segundo. Como tienen valores esperados diferentes el riego comparativo de
cada inversión se mide por el coeficiente de variación, de acuerdo a esto el tercer
proyecto presenta el menor riesgo. Por tanto, combinando valor esperado y riesgo del
VAN el proyecto que debe seleccionarse es el tercero. Si no existiese el tercer proyecto,
sino solo los dos primeros encontramos que si bien el primer proyecto tiene un valor
esperado del VAN mayor, también tiene un riesgo mayor medido por el coeficiente de
variación, quedaría entonces la decisión en manos del grado de aversión al riesgo que
tiene el inversionista. Una persona conservadora tomaría el segundo proyecto.
En muchas ocasiones no se tiene información como para estimar las probabilidades de
ocurrencia de los escenarios, entonces se recurre a dos leyes de probabilidad: beta y

35
triangular. Para ello se supone que los escenarios pueden clasificarse en pesimista,
optimista y más probable, también se supone que los escenarios numéricamente no son
equidistantes.
En el caso que se asuma que se tiene tres escenarios y los valores corresponden una
variable aleatoria X que tiene por ley de probabilidad beta, se puede obtener una buena
aproximación de su esperanza y varianza dada por:
E(X)=(minX+4modoX+maxX)/6
VAR(X)=(maxX-minX)2/12
En el caso de flujos de cajas aleatorios asociados a tres escenarios, entonces minX
corresponde al valor del escenario pesimista, modo de X, al más probable y, maxX al
optimista. Entonces, basta sustituir estos valores para obtener los valores esperados y la
varianzas de los flujos de caja en cada período del proyecto. El lector puede rehacer el
problema anterior asumiendo que los flujos de caja son variables aleatorias con ley de
probabilidad beta.

V.-CASO: PROYECTOS CON FLUJOS DE CAJA CON COMPORTAMIENTO


DESCONOCIDO.

Ejemplo 7
Supongamos que en el ejemplo anterior, de los tres proyectos bajo los tres escenarios
tienen flujos de cuyos comportamientos no podemos decir nada puesto que la
información disponible es nula, ni siquiera podemos establecer una posible distribución,
esto es, estamos frente a un problema de incertidumbre. En este caso podemos usar
varios criterios para seleccionar el proyecto óptimo.
El primer paso es calcular el VAN de cada proyecto para cada uno de los escenarios.

CUADRO Nº 2
VALORES ACTUALES NETOS DE LOS
TRES PROYECTOS BAJO TRES
ESCENARIOS
ESCENARIO1 ESCENARIO2 ESCENARIO3
PROYECRO1 -0,5787 7,5049 9,4194
PROYECRO2 1,5354 5,6983 8,1818
PROYECRO3 7,5354 11,6983 14,1818

Un criterio que podemos aplicar es asumir que todos los escenarios son igualmente
probables, por tanto tomaremos las medias de los valores actuales netos de cada uno de
los proyectos y seleccionamos aquel con el mayor promedio. Estos promedios son:
5,4484, 0,6646, 11,1385 respectivamente. Por tanto seleccionamos el tercer proyecto.
Otro criterio es pensar que puede ocurrir lo peor, por tanto tomamos el menor valor del
VAN de cada proyecto, que corresponde al escenario pesimista y de estos
seleccionamos el mayor. Esta regla se conoce como maximin. En nuestro caso, de
acuerdo a este último criterio seleccionamos el tercer criterio.
Se pueden definir más criterios que comentaremos mas adelante, lo que podemos
adelantar que ninguno tiene ventajas sobre los otros y para todo efecto, en esta situación
de incertidumbre no hay manera de determinar el riesgo.

36
VI.-TEORÍA DE LA UTILIDAD.

En el segundo ejemplo que hemos vistos, la decisión se toma a la vista del rendimiento
monetario, pero no siempre la satisfacción obtenida con una elección se puede medir en
término del rendimiento monetario. Así ocurre cuando un consumidor prefiere una
combinación de bienes a otra y, selecciona la que le da mayor satisfacción si no está
restringido por su nivel de ingreso, esto es, pasa de una isocuanta a otra. En este caso, su
selección está medida por el nivel de satisfacción que alcanza. Cada consumidor
definirá un conjunto de isocuantas y se irá desplazando a los niveles más altos
dependiendo de su nivel de ingreso. En todo caso, lo que se establece es un orden de
preferencia tal como la situación A es preferida a la situación B A esta preferencia se le
asigna un número que corresponde al orden que tiene entre varias opciones Entonces,
dado el orden y su correspondiente valor numérico obtenemos una función que se llama
función de utilidad. En algunos casos es fácil establecer la preferencia, esto ocurre
cuando se tiene información perfecta de lo que va a ocurrir, pero no siempre es así, lo
usual es que esta información sea incompleta y tenemos que introducir un elemento
aleatorio que solo es posible cuantificar empleando el concepto de probabilidad.
Empezaremos por definir una lotería. Consideremos el conjuntos de eventos aleatorios
n
S={s1,s2,s3….sn} con probabilidad de ocurrencia pi≥0 y ∑
i =1
pi=1 entonces el conjunto

de pares ordenados: L={(s1, p1);(s2,p2), (s3,p3),… (sn,pn)} se llama una lotería de una
etapa o unietápica. Si ahora consideramos varias loterías unietápicas Lj j=1,2,3 …k con
n
probabilidades de ocurrencia qj≥0 y ∑
j =1
qj=1 el nuevo conjunto: L*={(L1 q1);(L2,q2),

(L3,q3),… (Lk,qn)} se llama una lotería bietápica o en dos etapas. Por un procedimiento
similar podemos encontrar loterías de orden superior o de más de dos etapas.
Ahora, sobre una lotería L definimos una relación de preferencia, y a la función u:L→R
tal que u(Li) es preferido o indiferente a u(Lj) para i distinto a j, se llama función de
utilidad si y solamente si Li ≥ Lj . Si se cumple la propiedad u(q Li;(1-q) Lj)=qu(Li)+(1-
q)u(Lj) donde qε[0,1] entonces la función de utilidad es una función lineal.
En general, todo decisor tiene una función de utilidad la cual puede cambiar en el
tiempo dado los cambios en sus preferencias. Por otra parte, es importante destacar que
esta función es una variable aleatoria que mide la actitud del decidor frente al riesgo. En
efecto, la lotería tiene el rol de un espacio muestral donde cada evento s tiene asociado
una probabilidad, el decidor frente a una situación en donde no posee información
perfecta asume una postura frente al riesgo asociado al conjunto de acciones que puede
seleccionar. Bajo el supuesto de racionalidad el decidor hará una elección tal que
maximice su utilidad. El problema intrínseco es el nivel de conocimiento que tenga
sobre el problema y por tanto, por ser la probabilidad una medida de información, estará
pendiente sobre los valores de p. La racionalidad también está en cuestión porque el uso
de la misma está limitada por el grado de conocimiento retrospectivo o actual y de la
capacidad algorítmica del decisor, esto conduce a pensar en una función de utilidad es
más que un operador lineal que asigna un orden a las preferencias.
Luce y Raiffa (1957) al inicio de su obra plantean seis supuestos que corresponden a la
idea de racionalidad, ( El símbolo ≥se lee como es preferido o indiferente a, y el
símbolo ≈ se lee como indiferente a y > es preferido a.) .
El primer supuesto se refiere a la existencia de preferencias y su propiedad de
transitividad, esto es, se da solo y solamente uno de estos caso: si ≥ sj o sj ≥ si o si ≈ sj ,
además si si ≥ sj y sj ≥ sk entonces si ≥ sk.

37
El siguiente supuesto se refiere que una lotería compleja es indiferente a una lotería de
una etapa si tienen la misma probabilidad de ocurrencia.
El tercer supuesto es: dado tres eventos que cumplen la transitividad sj ≥ sk ≥si
entonces existe un valor p y otro 1-p asociados a los dos extremos tal que sr = [sj p,(1-
p) si] si p está cercano a uno sj ≥ sk y si p está cercano a cero sk ≥ sj .
El cuarto supuesto consiste en un cambio de al menos un evento de una lotería tal que si
sk≈ sj entonces: L={(s1 ,p1);(s2,p2), …(sk,pk),… (sn,pn)} ≈L*={(s1 p1);(s2,p2), …(sj,pj),…
(sn,pn)}.
El quinto supuesto se refiere a que la preferencia y la indiferencia acerca de la loterías
cumple con la relación transitiva: L1≥L2 y L2≥L3 entonces L1≥L3.
El sexto y último supuesto es la lotería [sj p,(1-p) si] es indiferente o preferida a [sj
p*,(1-p*) si] si y solamente si p≥p*.
Ejemplo 8.
Veamos un ejemplo de cómo se construye una función de utilidad: Supongamos que a
una persona se le propone el siguiente planteamiento: a) obtener una ganancia de 10
unidades monetaria sin ningún costo b) jugar la lotería dada como: ganar 1200 unidades
monetarias con probabilidad p o perder 1000 unidades monetarias con probabilidad 1-
p. La primera opción es una lotería también donde la probabilidad de ganancia es p=1 y
de perder 1-p=0. Por tanto ambas loterías se pueden escribir como. L1=((10.1);(0,0)) y
L2=((1200.p);(-1000,1-p)). El valor de p de la primera lotería lo conoce, no así el valor
de p de la segunda. La elección está dependiendo de cual es el valor de p y de una
actitud personal como es la actitud frente al riesgo. Para determinar el valor de p
asumimos que ambas loterías son indiferentes a la persona que debe elegir entre las
ellas, por tanto, sus valores monetarios esperados son iguales, esto es:
1200p-1000(1-p)=10
2200p=1010 de donde p =1010/2200=0,45909091.
Podemos variar los valores de p, en la medida que los valores sean mayores al obtenido
al igualar los valores esperados, mayor es el valor esperado de la segunda lotería y
viceversa, a valores menores de p menor será este valor esperado. Por tanto, si la
persona elige la segunda lotería solo para valores mayores a p entonces es adverso al
riesgo y propenso, si selecciona la lotería para valores menores a p, es indiferente si
selecciona la lotería con el valor obtenido de p.

38
función de utilidad

1400
1200
1000
800
utilidad

600 probabidad
400 utilidad
200
0
1
8
15
22
29
36
43
50
57
64
-200
-400
valor de p

VII.-ESCALAS DE MEDICIÓN
Las herramientas de la toma de decisiones suponen una forma de representar los datos
esto es el problema de la medición de los datos, que no es otra cosa que las reglas que
deben emplearse para asignar signos a las características o propiedades de los objetos,
distinguiéndose dos grandes grupos: mediciones en escala métrica, que comprenden la
escala de intervalo y la de razón y mediciones no métricas que responden a la escala
nominal y la ordinal. Este aspecto es de vital importancia porque la técnica estadística
que se emplee para analizar los datos para la toma de decisiones, dependerá entre otros
aspectos de la escala empleada.
Empezaremos a considerar tres conjuntos. El primer conjunto representa cualesquiera
entes y lo llamaremos A, el segundo representa las cualidades que poseen estos entes y
lo llamaremos B y, finalmente un conjunto de símbolos que llamaremos C. Definiremos
medición a una aplicación tal que a cada elemento de B le asignamos uno y solo un
elemento de C y, las propiedades que se cumplan en B deben cumplirse en C y
viceversa. La regla de asignar estos símbolos y sus propiedades se llama escala de
medición.La escala de medición más sencilla está basada en establecer una relación de
equivalencia y, se denomina escala nominal. Para ello, se define una partición P en el
conjunto B, originando un conjunto de clases, en donde el elemento a de B está
relacionado con el elemento b de B, y se escribe aRb, si a y b pertenecen a una misma
clase y solo en este caso, y esta relación cumple con las siguientes propiedades:
1.-aRa (propiedad reflexiva)
2.-aRb implica bRa (propiedad simétrica)
3.-aRb y bRc entonces aRc (propiedad transitiva)
Cuando los elementos de B cumplen con estas propiedades, se dice que cumplen con la
relación de equivalencia. De este modo, se obtiene el conjunto de todas las clases de

39
equivalencias llamado conjunto cociente. Entonces, a los elementos a y b se le asigna el
mismo símbolo S, si pertenecen a la misma clase: S(a)=S(b). Si son de clase diferentes
entonces S(a)≠S(b).
Por tanto, esta escala permite solamente clasificar los elementos de A partiendo de sus
propiedades en B en donde se ha definido esta relación de equivalencia, y contar
cuantos elementos contiene cada clase.
Todo conjunto de objeto puede ser medido con esta escala, en donde los símbolos para
diferenciar las clase son arbitrarios, pueden ser alfanumérico o cualquier otro.
Supongamos por ejemplo que el conjunto A es los clientes de un banco, B es las
características socioeconómicas. Entonces definimos la relación binaria de equivalencia:
religión a la que pertenece; los católicos forman una clase, los evangélicos otra y así
sucesivamente. A los católicos se le puede asignar el símbolo C o 1, a los evangélicos E
o 2 originando los elementos del conjunto C etc.
La siguiente escala es la ordinal, esto es, los elementos de B pueden ordenarse si se
cumple para toda par (a,b):
1.-aR`a (propiedad reflexiva)
2.-aR`b y bR`c entonces aR`c (propiedad transitiva)
3.-aR´b y bR`c entonces a=b (propiedad antisimétrica)
Cuando el conjunto B se puede medir en estas escalas: nominal y ordinal, entonces
incorpora también las propiedades de la escala nominal, es decir, se puede clasificar y
contar los elementos de cada clase, pero además, dentro de cada clase se establece una
relación de orden que expresa el grado de presencia de la característica o cualidad, por
tanto, la asignación de los símbolos deben mantener este grado. Entonces. S`(a)=S´(b) si
están en la misma clase, S`(a) ≠S´(b) si están en clases diferentes y S`(a)>S´(b) si la
característica en a se presenta en un grado mayor que en b. Aquí, no se determina cuán
mayor es ese grado. Supongamos que la característica es el color de un conjunto de
objetos, supongamos que los objetos se clasifican en tres colores verde, azul y amarrillo,
pero cada color puede degradarse desde los mas intensos hasta lo mas tenues, luego,
podemos clasificar los objetos de acuerdo al color y dentro de cada color ordenarlo
desde lo más tenues a lo más fuerte y asignarle un número que llamamos rango que
refleja la intensidad de la presencia del color originando los elementos del conjunto C.
Cuando los datos están medidos en estas escalas: nominal u ordinal, la inferencia
estadística que se desarrolla se conoce como estadística no paramétrica. Los modelos y
métodos multivariantes que se pueden usar, los cuales exponen en esta obra en el
capítulo VIII son: los métodos de correspondencia simple y múltiple, si la medición es
ordinal, es posible emplear el análisis de componentes principales siempre que la
asignación de los rangos recoja un espectro amplio
Las siguientes escalas se conocen como métricas y, cuando las propiedades de los
objetos están medidas en estas escala son a los que se pueden aplicar los métodos de
regresión, serie de tiempo, componentes principales y clasificación automática o análisis
de conglomerados, aunque se han desarrollados algoritmos que permiten definir
conglomerados de categorías.
La primera escala métrica es la de intervalo, la cual contiene todas las propiedades de la
escala ordinal, pero es posible establecer numéricamente la diferencia entre el grado de
presencia de una cualidad de un objeto a otro. Parte de un origen arbitrario, donde el
cero no significa ausencia total de la característica. Un ejemplo clásico es la

40
temperatura, cero grado centígrado no significa ausencia total de calor. Una
característica especial de esta escala es que se puede pasar de una magnitud a otra
mediante una relación lineal, si la cualidad de a se le asigna un número S(a) en una
magnitud (grados centígrados) y otro número S*(a) en otra magnitud (grados Fº) se
puede establecer la relación lineal:
S(a)=kS*(a)+c
Dado dos elementos a y b se puede establecer la diferencia:
S(a)-S(b)=k(S*(a)-S*(b))
Finalmente, está la escala de razón que posee todas las características de la anterior pero
el origen no es arbitrario, el cero indica ausencia total de la característica, se pueden
realizar todas las operaciones aritméticas. Como el cero no es arbitrario se pueden
establecer proporciones:
S(a)/S(b)=K
VIII.-FORMULACIÓN DE UN MODELO DE TOMA DE DECISIONES.

El primer paso es definir el problema, entendiendo como aquella situación que impide o
limita el cumplimiento de la misión o algunos de sus objetivos a corto, mediano o largo
plazo de una persona u organización. La formulación del problema puede conllevar a
diferentes grados de dificultad o complejidad al tratar de encontrar las causas que lo
determinan. Una herramienta útil a la hora de formular el problema es el gráfico causa-
efecto o espina de pescado de Ishikawa. Otra forma gráfica que ayuda ver las
interrelaciones entre las causas es emplear un gráfico de Veen, propuesto por Mata M
(2000) cuya utilidad la mostraremos en el capítulo VI. Las causas pueden estar
representadas por variables o categorías, entendiendo por variables aquellas
características que están medida en una escala métrica y por categorías aquellas que
solo se puede definir una relación de equivalencia o de orden. Las variables pueden
tener un comportamiento estático o dinámico, pueden ser de naturaleza aleatoria o
determinística
El segundo paso es establecer de qué manera se relacionan las causas con el problema y
entre ellas. Puede ser que las causas actúen aditivamente, multiplicativamente o de
cualquier otra forma. Tomando las ideas expuesta por Ubaldo Nieto de Alba (1998) las
causas pueden ser a) ciertas, sencillas, aisladas y estables b) inciertas pero
colectivamente estable (aleatoriedad débil) c) inciertas inestables pero con un orden
oculto (aleatoriedad fuerte) d) disipativas de orden histórico. En este punto empieza la
especificación del modelo entendiendo por tal la idealización de la realidad mediante
símbolos, relaciones, condiciones e hipótesis a cerca de las causas. En todo caso, debe
existir un isomorfismo entre el modelo que se está formulando y las causas reales. El
modelo debe reflejar lo más fielmente posible las propiedades de la realidad. El modelo
debe proveer las causas, las acciones o estrategias y una regla de decisión que permita
discriminar estas acciones en óptimas y no óptimas. En algunos casos la regla de
decisión se expresa mediante una función conocida como función objetivo y
dependiendo de los valores que toma para cada acción o estrategia se arribará a una
decisión óptima.
El tercer paso es la búsqueda de la información de las causas que se presumen originan
el problema. Esta búsqueda puede incluir fuentes primarias, es decir las elaboradas por
los interesados en la toma de decisión o fuentes secundarias que son datos de interés
elaborados por terceros. La información lograda debe ser necesariamente analizada en
lo posible por métodos estadísticos, considerando cada causa por separado y en su

41
conjunto con la finalidad de ver su consistencia. Para estudiar esta consistencia
empleando métodos estadísticos, debe tenerse presente la escala de medición utilizada
para cada causa. Puede ocurrir que existan relaciones entre las variables, que el número
de variables no representen la verdadera dimensión del problema o que hay
observaciones que forman grupos homogéneos. Para el primer caso se emplea el
concepto de correlación, en el segundo se usa técnicas de reducción de la
dimensionalidad y en el último clasificación automática.
La información obtenida puede responder a un proceso determinístico estático o
dinámico, estocástico estático o dinámico o altamente sensible a las condiciones
iniciales. Si el proceso es aleatorio dinámico y se posee información suficiente,
entonces, puede requerirse el estudio del comportamiento de los datos en el tiempo
empleando el análisis de series temporales. Se asume que esta información está en
correspondencia con la naturaleza de las causas. Es importante determinar en este punto
si hay información redundante, atipicidades o valores faltantes. Cuando se tiene una
gran cantidad de información es conveniente aplicar técnicas estadísticas que buscan
encontrar la estructura subyacente de los datos, esto puede realizarse mediante técnicas
estadísticas de reducción de dimensionalidad que se verán en el capítulo VIII.
El siguiente paso, es alimentar el modelo especificado previamente con las
observaciones obtenidas en el punto anterior y ver su comportamiento en un instante o
durante el tiempo. Es posible que la información sea engañosa y no refleje realmente el
comportamiento de las causas o simplemente se han obviados ciertas variables o
restricciones en la especificación del modelo.
El siguiente paso consiste en validar el modelo, esto es responder a las preguntas: ¿En
tanto y cuánto refleja el modelo la realidad? Y por consiguiente: ¿Podrá conducirnos a
una solución óptima? Si estas preguntas no se responden satisfactoriamente hay que
revisar cada paso anterior. Finalmente se implementa el modelo considerado como el
mejor modelo, esperando llegar a un óptimo.
Resumiendo los pasos son:
1.-Formulación del problema
2.-Formulación tentativa de un modelo
3.-Recolección de la información
4.-Estudio de la bondad de la información
5.-Alimentar el modelo seleccionado
6.-Validar el modelo.
7.-Implementar.

PROBLEMAS

1.-Suponga que Ud. Tiene un capital de 106 unidades monetarias. Ud tiene la


posibilidad de invertir en dos mercados diferentes. El primero es un mercado estable
donde el rendimiento es siempre del 12% de interés anual. El otro mercado, el interés
varia entre 6% y 16% anual. Si desea invertir su capital ¿ En cuál de los dos mercado
haría la inversión?.

2.-Hay dos proyectos de inversión mutuamente excluyentes. El primer proyecto tiene un


rendimiento exigido del 15% y el segundo de 16%. Los ingresos y egresos de los dos
proyectos se muestran a continuación:

42
Período Egreso Ingreso Egreso Ingreso
proyecto1 Proyecto 1 proyecto2 Proyecto 2
0 100 0 200
1 150 100 300 250
2 200 250 400 350
3 200 500 500 400

a.-Defina un criterio para decidir entre los dos proyectos


b,.¿Cuál de los dos proyectos selecciona?

3.-Dado la distribución conjunta de dos variables aleatorias X,Y;

(X,Y) 0 1 2 3
0 0,10 0,20 0,05 0,15
1 0,05 0,10 0,15 0,20

Encontrar:
a.-P(X=0)
b.-P(X=1,Y=2)
c.-P(X=1/Y=2)
d.-La distribución marginal de X e Y
e.-E(X) y VAR(X)
f.-E(Y) y VAR(Y)
g.-E(X/Y=2)
4.-Con los datos del problema anterior, y sea la suma Z=2X+Y encontrar:
a.-E(Z) y VAR(Z)

5.-Dada la siguiente matriz:

2 4 2 3
1 3 4 7
2 3 2 2
1 1 1 4

a.-Determinar el vector característico o auto vector.


b.-Encontrar al auto valor o valor característico.

6.-Suponga que se va adquirir un nuevo equipo y se hace una licitación tomando en


cuenta cuatro atributos: A) costo del equipo B) número de administradores del equipo
C) Ahorro mensual que representa la adquisición D) Vida útil.
Estos atributos fueron comparados entre sí dando como resultado la siguiente matriz de
comparación:

1 A B C D
A 1 5 ¡/5 1/3
B 1/5 1 1/3 1/9
C 5 3 1 1/3
D 3 9 3 1

43
Se han presentado tres empresas a la licitación y los valores de los atributos de cada
equipo es como sigue:

Equipos/Atributos A B C D
Equipo1 100$ 2 1500$ 10años
Equipo2 150$ 1 1700$ 5años
Equipo3 125$ 1 1600$ 6años

a.-Determine el orden de importancia de los atributos.


b.-Determine la razón de consistencia.
c.-Determine el equipo ganador de acuerdo a los atributos considerados.

7-Suponga que se incorporan tres evaluadores adicionales, cuyas matrices de


comparación son:
Evaluador 1

1 A B C D
A 1 7 ¡/5 ¼
B 1/5 1 1/3 1/9
C 7 3 1 1/3
D 4 9 3 1
Evaluador 2

1 A B C D
A 1 5 ¡/3 1/3
B 1/5 1 1/3 1/7
C 3 3 1 1/3
D 3 7 3 1

Evaluador 3

1 A B C D
A 1 3 ¡/5 1/3
B 1/3 1 1/3 1/7
C 5 3 1 1/3
D 3 7 3 1

a.-Determine la concordancia entre los cuatros evaluadores.


8-Se desea seleccionar un banco entre cuatro posibles. Las características que se
consideran son en primer lugar la solvencia, la calidad de servicio y finalmente las
sucursales.
En la solvencia se consideran además tres categorías: riesgo del banco, patrimonio, y
pasivo. En cuanto el servicio, se toma en cuenta: servicios electrónicos, servicio de
taquilla y calidad de atención al cliente. En cuanto a las sucursales; nº de las mismas,
comodidades en general y cercanía.
Los cuatro bancos considerados fueron previamente evaluados en una escala de 1 a 5,
en donde 1 es la menor calificación.

44
Característica Banco A Banco B Banco C Banco D
Riesgo 4 4 5 3
Patrimonio 4 5 3 4
Pasivo 4 4 5 3
Servicio Elect. 4 5 4 5
Servicio taq. 3 3 3 5
Atención Clte. 2 2 4 5
Nº de SCS. 5 5 3 2
Comodidades 4 3 3 5
Cercanía 5 4 3 4
:

a.-Construya las matrices pareadas de acuerdo a la escala presentada en el artículo.


b.-Estudie la consistencia de cada una.
c.-Construya el árbol.
d.-¿Cuál banco selecciona?
e.-Forma un grupo de cuatro personas y analicen el grado de acuerdo en el grupo.
f.-¿Pueden llegar a un consenso?

9.-Suponga que una empresa puede ampliar su instalaciones si realiza una inversión de
100.000 $.Los flujos de caja futuros tienen un comportamiento aleatorio tal como se
muestra a continuación:

año Flujo 1 P(F=x) Flujo2 P(F=x) Flujo3 P(F=x) Flujo 4 P(F=x)


1 10000 0.10 20000 0,30 25000 0,40 30000 0,20
2 15000 0,20 20000 0,30 30000 0,40 30000 0,10
3 15000 0,10 20000 0,30 35000 0,60
4 20000 1
5 30000 1

P(F=x) es la probabilidad de que el Flujo de caja tome el valor x en el año t..


a.-Determine si vale la pena realizar la ampliación si la tasa mínima exigida por el
inversionista es de 15%.
b.-Determine además el riesgo de la inversión.

10.Suponga que se ha definido tres escenarios θ1 θ2 θ3 y, de acuerdo a los expertos el


primero tiene una probabilidad de 0,30, el segundo de 0,45 y el tercero de 0,25. Con una
inversión de 100000$ se puede seleccionar uno de los siguientes proyectos de inversión,
que tienen un horizonte económico de un año. Los flujos netos de caja asociados a cada
proyecto de acuerdo al estado de la naturaleza son:

45
Proyecto/Escenarios θ1 θ2 θ3
Proyecto1 -1000 200000 300000
Proyecto2 90000 100000 200000
Proyecto3 40000 60000 400000

La tasa mínima exigida es del 15%


a.-De acuerdo a las probabilidades dadas, determine la esperanza matemática del VAN
de cada proyecto.
b.-Determina el riesgo de cada uno
c.-¿Cuál de los proyectos selecciona y por qué?

11.-Con los datos del problema anterior, asuma que los escenarios se comportan de
acuerdo a una distribución beta.
a.-Determine la esperanza del VAN de cada proyecto.
a.-Determine el riesgo de cada uno.
c.-¿Cuál de los proyectos selecciona y por qué?

12-Ud. desea seleccionar un proyecto en un ambiente económico donde se detectan seis


escenarios de los cuales no conoce la probabilidad de ocurrencia de los mismos. Tiene
para seleccionar cuatro proyectos con sus posibles beneficios, tal como se muestra a
continuación:

Proyecto/Escenarios θ1 θ2 θ3 θ4 θ5 θ6
Proyecto1 -300 500 -100 800 1000 -20
Proyecto2 100 0 300 100 500 0
Proyecto3 -100 300 300 500 0 100
Proyecto4 200 -300 1000 -100 1000 0

a.-Establezca un criterio de selección.


b.-Seleccione una inversión de acuerdo al criterio establecido.

BIBLIOGRAFIA.

Alexander, G.J.; Sharpe, W.F.; Bailey, J.V (2003)


Inversiones. Teoría y Práctica
Prentice Hall. Tercera Edición , México.

Bierman, H;, Bonini, C;. Asuman, W. (2001)


Análisis Cuantitativo para la Toma de Decisiones.
Editorial Irwin-Madrid

Bodie, Z.; Merton, R.C (1999)


Finanzas
Prentice Hall. 1era Edición , México.

Borel, Emil (1971)


La Probabilidad y la Vida.
Colección ¿ Qué se? Prensa Universitaria de Francia.

46
Edwards, W.; Tversky, A (1976).
Toma de Decisiones.
Fondo de Cultura Económica. Mexico.

Eppen, G.D.; Gould, F.J.; Schmidt, C.P.; Moore, J.H;. Weatherford, L.R (2000)
Investigación de Operaciones en la Ciencia Administrativa
Prentice Hall. Quinta Edición. México

Hadley, G (1979)
Probabilidad y Estadística
Una Introducción a la Teoría de la Decisión.
Fondo de Cultura Económica-México.

Luce R. D.; Raiffa, H (1957)


Games and Decisions.
John Wiley & Sons, Inc. New Cork.

Mata Mollejas L.; Niño, J (2000)


Revisión de las Métodos Cuantitativos en la Economía.
Fondo Editorial Trópicos.-Caracas

Meyer, P. L (1992)
Probabilidad y Aplicaciones Estadística.
Addison Wesley-México

Resnik, M.D (1998)


Elecciones. Una Introducción a la Teoría de la Decisión
Gedisa Editorial Barcelona España.

Suárez S, A. (1991)
Decisiones Óptimas de Inversión y Financiación en la Empresa.
Ediciones Pirámide. Madrid España.

Ubaldo Nieto de Alba (1998)


Historia del Tiempo en la Economía
MC Graw-Hill-Barcelona España.

47

You might also like