Professional Documents
Culture Documents
Nuevamente, surgen las preguntas, ¿cuántas variables modificar? y ¿cómo hacerlo? Antes
de contestarlas, se debe incidir que la lógica de este análisis dicta que todas las variables
escogidas se muevan a la vez; pero, y esto es lo importante, de manera consistente.
Es decir, no se modifican «a tontas y locas», sino que sus variaciones deben obedecer a
escenarios que pueden presentarse a lo largo de la vida del proyecto. Un escenario, por si
acaso, se define como un marco de relaciones causales lógicas.
No debe confundirse con la definición contable de este concepto, la cual precisa que
es el número de unidades que deben venderse para que los ingresos sean iguales a
los costos o, lo que es lo mismo, para que la utilidad sea cero.
Una última acotación antes de terminar, el análisis del punto de equilibrio debe ser
consistente con los resultados del análisis de sensibilidad por variables.
Esto significa que las dos técnicas deben arrojar los mismos resultados.
Mediciones Estadísticas del Riesgo de un Proyecto
Primero, debe conocerse la «ley de los grandes números». Esta expresa que si un
experimento se repite muchísimas veces, entonces sus resultados se distribuirán de
manera normal (si se es un poco más técnico, entonces debe recurrirse al teorema del
límite
central; el cual postula que, en condiciones generales, si Sn es la distribución de n
variables aleatorias independientes, entonces esta se aproximará a una distribución
normal).
Así, por ejemplo, si quiere medirse la estatura de todos los peruanos y se escoge una
muestra representativa de la población, entonces la mayoría de los resultados de esa
muestra se encontrarán alrededor del promedio de estatura hallado. Una distribución
normal, gráficamente, se presenta así:
La Simulación Montecarlo
¿Y por qué se denomina simulación Montecarlo? Pues debido a que los valores de
cada una de las variables se escogen de manera aleatoria, al igual que los números
que se obtienen en una ruleta.
Es importante notar que, en los primeros 30 años de su existencia, esta técnica no fue
muy utilizada. Recién a partir de la segunda mitad de la década del año 1990, es que
se vuelve popular entre los evaluadores de proyectos. ¿Razones?, básicamente dos, la
primera tiene que ver con el desarrollo de hardware (capacidad de procesamiento); y
la segunda con la aparición de software que corre en Excel y que facilita,
grandemente, su aplicación Es probable que se haya escuchado mencionar alguno de
ellos; los más conocidos son: el Crystall Ball y el Risksimulator.
Si quiere una mejor aproximación, escoja las variables que luego del análisis
de sensibilidad unidimensional son las que afectan, de manera importante, al
VPN del proyecto.
Si, por otro lado, la variable no tiene data histórica, entonces busque la
opinión de expertos, recurra a su experiencia o seleccione la
distribución normal.
6. Análisis de los resultados: ¿Se acuerda que este método era una mezcla del
análisis de escenarios con el de mediciones estadísticas?, pues ahora le
explicaré el porqué. Al final del proceso se cuenta con n escenarios y n VPN. La
probabilidad de ocurrencia de cada escenario es 1/n. Es decir, cada VPN
obtenido tiene la probabilidad 1/n de ocurrir en ese universo.
Sin embargo, cabe resaltar, para que quede claro, que cualquier método que
se emplee para medir el riesgo en un proyecto tiene componentes subjetivos
y, más aún, la prueba ácida es la propensión o aversión al riesgo de los
inversionistas. Es seguro que este mismo set de datos puede ser interpretado
de manera diferente por cada inversor.
2
(𝑉𝐴𝑁𝑚𝑎𝑥 − 𝑉𝐴𝑁𝑚𝑖𝑛 )2 (𝑉𝐴𝑁𝑚𝑎𝑥 − 𝑉𝐴𝑁𝑚 ) (𝑉𝐴𝑁𝑚 − 𝑉𝐴𝑁min )
𝜎 (𝑉𝐴𝑁) = − 𝑥
18 1 1
𝑋 − 𝐸(𝑉𝐴𝑁)
𝑃(𝑉𝐴𝑁 > 𝑥) = 𝑃(𝐸(𝑉𝐴𝑁) + 𝜎(𝑉𝐴𝑁)𝜀 > 𝑥) = 𝑃 [𝜀 > ]
𝜎(𝑉𝐴𝑁)