You are on page 1of 91

INSTITUTO TECNOLÓGICO

DE TUXTLA GUTIÉRREZ

Apuntes
De

Simulación
Ingeniería en Sistemas computacionales

José del Carmen Vázquez Hernández


Tuxtla Gutiérrez Chiapas agosto 2014
INTRODUCCIÓN A LA SIMULACIÓN 4

1.1 DEFINICIONES E IMPORTANCIA DE LA SIMULACIÓN EN LA INGENIERÍA 4


1.1.1.-IMPORTANCIA DE LA SIMULACIÓN EN LA INGENIERÍA. 5
1.2 CONCEPTOS BÁSICOS DE SIMULACIÓN 6
1.3 METODOLOGÍA DE LA SIMULACIÓN 7
1.4 MODELOS Y CONTROL 10
1.5 ESTRUCTURA Y ETAPAS DE ESTUDIO DE SIMULACIÓN 14
1.6 ETAPAS DE UN PROYECTO DE SIMULACIÓN 15
1.7 ELEMENTOS BÁSICOS DE UN SIMULADOR DE EVENTOS DISCRETOS 17

NÚMEROS PSEUDOALEATORIOS 21

2.1 MÉTODOS DE GENERACIÓN DE NÚMEROS PSEUDOALEATORIOS 22


2.2 PRUEBAS ESTADÍSTICAS 27
2.2.1 DE UNIFORMIDAD. (CHI CUADRADA, KOLMOGOROV-SMIMOV). 33
2.2.2 DE ALEATORIEDAD. (C., ARRIBA Y DEBAJO DE LA MEDIA Y LONGITUD DE CORRIDAS). 38
2.2.3 DE INDEPENDENCIA. (A-C, P-H, P-P, PRUEBA DE YULE). 46
2.3 MÉTODO DE MONTE CARLO 47
2.3.1 CARACTERÍSTICAS. 48
2.3.2 APLICACIONES. 48
2.3.3 SOLUCIÓN DE PROBLEMAS 49

GENERACIÓN DE VARIABLES ALEATORIAS 56

3.1 CONCEPTOS BÁSICOS 56


3.2 VARIABLES ALEATORIAS DISCRETAS 56
3.3 VARIABLES ALEATORIAS CONTINUAS 57
3.4 MÉTODOS PARA GENERAR VARIABLES ALEATORIAS 57
3.4.1 MÉTODO DE LA TRANSFORMADA INVERSA. 58
3.4.2 MÉTODO DE CONVOLUCIÓN. 64
3.4.3 MÉTODO DE COMPOSICIÓN. 66
3.5 PROCEDIMIENTOS ESPECIALES 70
3.6 PRUEBAS ESTADÍSTICA. (PRUEBAS DE BONDAD DE AJUSTE) 71

LENGUAJES DE SIMULACIÓN 75

4.1 LENGUAJE DE SIMULACIÓN Y SIMULADORES 75


4.2 APRENDIZAJE Y USO LENGUAJE DE SIMULACIÓN O UN SIMULADOR 75
4.3 CASOS PRÁCTICOS DE SIMULACIÓN 76
4.3.1 PROBLEMAS CON LÍNEAS DE ESPERA. 77
4.3.2 PROBLEMAS CON SISTEMAS DE INVENTARIO. 77
4.4 VALIDACIÓN DE UN SIMULADOR 77

1
4.4.1 PRUEBAS PARAMÉTRICAS (V. DEL MODELO, PRUEBAS DE HIPÓT Y PRUEBAS DE ESTIMACIÓN). 78
4.4.2 PRUEBAS NO PARAMÉTRICAS 78

PROYECTO INTEGRADOR 83

5.1 ANÁLISIS, MODELADO Y SIMULACIÓN DE UN SISTEMA O SUBSISTEMA DE


SERVICIOS O PRODUCTIVO DE UNA EMPRESA PARA DETECTAR LAS MEJORAS
POSIBLES A REALIZAR. 83

CUESTIONARIO 1 85

FUENTE DE INFORMACIÓN 88

BIBLIOGRAFÍA 88

2
Unidad 1
Introducción a la Simulación

Objetivo de la simulación

La simulación consiste en diseñar y desarrollar un modelo de un sistema o proceso y conducir


experimentalmente con este modelo para entender el comportamiento del sistema del mundo
real o evaluar varias estrategias con las cuales puedan operar el sistema.

La simulación de procesos es una de las más grandes herramientas de la ingeniería ya que


simplifica los procesos y los hace más entendibles para el ser humano. Esta simulación es en
algunos casos casi indispensable.

3
Introducción a la Simulación
La simulación consiste básicamente en construir modelos informáticos que describen la parte
esencial del comportamiento de un sistema de interés, así como en diseñar y realizar
experimentos con el modelo y extraer conclusiones de sus resultados para apoyar la toma de
decisiones.

En la vida real se presentan situaciones o sucesos que requieren tomar decisiones para planificar,
predecir, invertir, proyectar, etc. Una vez construido un modelo matemático, si este es lo
suficientemente sencillo, puede ser posible trabajar con sus relaciones y cantidades para obtener
una solución analítica exacta.

Si una solución analítica para un modelo matemático está disponible y es computacionalmente


eficiente, usualmente es deseable estudiar el modelo en esta forma, en vez que por la vía de la
simulación. Sin embargo, muchos sistemas son altamente complejos, de manera que los modelos
matemáticos válidos de ellos son ellos mismos complejos, descartando cualquier posibilidad de
una solución analítica. En este caso, el modelo debe ser estudiado por medio de simulación.
Otro caso es la combinación de reglas lógicas y la matemática.

1.1 Definiciones e importancia de la simulación en la ingeniería


Simulación: Es el proceso de diseñar un modelo de un sistema real y realizar experimentos con
él, para entender el comportamiento del sistema y/o evaluar estrategias para la operación del
mismo.

Según ROBERT SHANNON: Simulación es el proceso de diseñar y desarrollar un modelo de


un sistema o proceso real y conducir experimentos con el propósito de entender el
comportamiento del sistema o evaluar varias estrategias (dentro de límites impuestos por un
criterio o conjunto de criterios) para la operación del sistema.

La Simulación permite estudiar un sistema sin tener que realizar experimentación sobre el
sistema real. Simulación es una palabra familiar a los profesionales de todas las disciplinas e
incluso para aquéllos que no han estudiado una carrera profesional. De esta manera el
4
significado de la palabra Simulación se explica casi por sí misma. Entre los significados que
podemos obtener de la gente común y corriente para la palabra “Simular”, se encuentran los
siguientes: “Imitar la realidad”, “emular un sistema”, “dar la apariencia o efecto de un sistema
o situación real.

Para Thomas H. Naylor: Simulación es una técnica numérica para conducir experimentos en
una computadora digital, estos experimentos comprenden ciertos tipos de relaciones
matemáticas y lógicas, las cuales son necesarias para describir el comportamiento y la estructura
de sistemas complejos del mundo real a través de largos periodos de tiempo.

1.1.1.-Importancia de la simulación en la ingeniería.


La simulación es una herramienta que se usa ampliamente, actualmente existe una gran cantidad
de software para diversas aplicaciones lo que trae consigo las siguientes ventajas:

1. A través de un estudio de simulación se puede estudiar el efecto de cambios internos y


externos del sistema, al realizar cambios en el modelo del sistema se observan sus efectos
en el comportamiento del sistema.
2. La observación detallada del sistema que se está simulando puede conducir a un mejor
entendimiento del mismo y por consiguiente a sugerir estrategias para mejorar la operación
y eficiencia del sistema.

5
3. Puede utilizarse como instrumento pedagógico para desarrollar en los estudiantes
habilidades básicas en análisis estadístico, teórico, etc. En ocasiones se puede tener una
buena representación del sistema y a través de él es posible entrenar y dar cierto tipo de
experiencia. (simuladores de negocios, de vuelo, etc.).
4. Ayuda a entender mejor los sistemas complejos, a detectar las variables más importantes
que interactúan en el sistema y a entender las interrelaciones entre las variables.
5. Se puede utilizar para experimentar con nuevas situaciones, sobre las cuales se tiene poca o
nula información.
6. Cuando se introducen nuevos elementos al sistema, la simulación se puede usar para
anticipar los cuellos de botella o algún otro problema que pueda surgir en el sistema

1.2 Conceptos básicos de simulación


Una simulación es una imitación de la operación de un proceso del mundo real sobre
determinado tiempo.

“El comportamiento de un sistema durante determinado tiempo puede ser estudiado por medio
de un modelo de simulación. Este modelo usualmente toma su forma a partir de un conjunto de
postulados sobre la operación del sistema real”.

“Una indicación de la realidad que se implique la realidad, esta implica trampa, engaño; la magia
está en que se parezca tanto a la realidad”. “En la naturaleza la simulación es como una técnica
de engaño para sobrevivir”. Ejemplo el camaleón el cual es un animal conocido por su capacidad
de cambiar de color dependiendo en el lugar en que se encuentre.

Según Thomas H. Naylor: La Simulación es el proceso de diseñar y desarrollar un modelo


computarizado de un sistema o proceso y conducir experimentos con este modelo con el
propósito de entender el comportamiento del sistema o evaluar varias estrategias con las cuales
se puede operar el sistema.

6
1.3 Metodología de la simulación

7
1. Definición del sistema(Problema)

Para tener una definición exacta del sistema que se desea simular, es necesario hacer
primeramente un análisis preliminar de este, con el fin de determinar la interacción con otros
sistemas, las restricciones del sistema, las variables que interactúan dentro del sistema y sus
interrelaciones, las medidas de efectividad que se van a utilizar para definir y estudiar el sistema
y los resultados que se espera obtener del estudio.

8
2. Formulación del modelo

Una vez definidos con exactitud los resultados que se esperan obtener del estudio, se define y
construye el modelo con el cual se obtendrán los resultados deseados. En la formulación del
modelo es necesario definir todas las variables que forman parte de él, sus relaciones lógicas y
los diagramas de flujo que describan en forma completa el modelo.

3. Colección de datos

Es importante que se definan con claridad y exactitud los datos que el modelo va a requerir para
producir los resultados deseados.

4. Implementación del modelo con la computadora

Con el modelo definido, el siguiente paso es decidir si se utiliza algún lenguaje como el fortran,
lisp, etc..., o se utiliza algún paquete como Vensim, Stella e iThink, GPSS, Simula, Simscript,
Rockwell, Arena, Promodel, etc..., para procesarlo en la computadora y obtener los resultados
deseados.

5. Validación

A través de esta etapa es posible detallar deficiencias en la formulación del modelo o en los
datos alimentados al modelo. Las formas más comunes de validar un modelo son:

1. La opinión de expertos sobre los resultados de la simulación.


2. La exactitud con que se predicen datos históricos.
3. La exactitud en la predicción del futuro.
4. La comprobación de falla del modelo de simulación al utilizar datos que hacen fallar al
sistema real.
5. La aceptación y confianza en el modelo de la persona que hará uso de los resultados que
arroje el experimento de simulación.

9
6. Experimentación

Se realiza después de que el modelo haya sido validado, consiste en generar los datos deseados
y en realizar un análisis de sensibilidad de los índices requeridos.

7. Interpretación

Se interpretan los resultados que arroja la simulación y con base a esto se toma una decisión. Es
obvio que los resultados que se obtienen de un estudio de simulación que ayuda a soportar
decisiones de tipo semi-estructurada.

8. Documentación

Dos tipos de documentación son requeridos para hacer un mejor uso del modelo de simulación.
La primera se refiere a la documentación del tipo técnico y la segunda se refiere al manual del
usuario, con el cual se facilita la interacción y el uso del modelo desarrollado.

1.4 Modelos y control


Sistemas

El concepto de sistemas tiene un papel importante en el mundo moderno. El enfoque de sistemas


para abordar problemas reencuentra muy arraigado, y se habla de ella como si fuera una
metodología precisa (lo cual no es cierto).

Como definición de sistema se puede decir que “Es un conjunto de elementos con relaciones de
interacción e interdependencia que le confieren entidad propia al formar un todo unificado”.

Un sistema puede ser cualquier objeto, cualquier cantidad de materia, cualquier región del
espacio, etc., seleccionado para estudiarlo y aislarlo (mentalmente) de todo lo demás. Así todo
lo que lo rodea es entonces el entorno o el medio donde se encuentra el sistema. EL enfoque de
sistemas intenta estudiar el comportamiento de sistemas completos en vez de concentrarse en
sus partes. Se deriva de reconocer que aun optimizando cada elemento del sistema desde el

10
punto operativo, el comportamiento del sistema completo puede resultar menos que óptimo
debido a las interacciones de los elementos.

Los sistemas complejos tienen características que pueden producir frustraciones al tratar de
mejorar su comportamiento, entre las cuales tenemos:

1. Cambio. Ningún sistema del mundo real permanece estático durante un largo periodo.
La condición o estado real de un sistema es el resultado del pasado y es la base para el
futuro.
2. Medio. El medio de un sistema es un conjunto de elementos y sus principales
propiedades, el cual aun cuando no forma parte del sistema, si se modifica puede
producir cambios en el estado del sistema (son todas las variables externas que pueden
afectar). Cada sistema tiene su propio medio.
3. Comportamiento intuitivo opuesto. Por lo general la causa y el efecto no se relacionan
estrechamente en el tiempo o el espacio, los efectos pueden aparecer después de mucho
tiempo de que se dieran las causas. El examen superficial a menudo indica la necesidad
de acciones correctivas erróneas, que pueden intensificar los problemas.
4. Tendencia al bajo rendimiento. Con el paso del tiempo las partes del sistema se
deterioran y surgen ineficiencias que van en perjuicio de su desempeño.
5. Interdependencia. Las actividades del mundo real influyen entre sí. Ninguna de las
actividades dentro de un sistema complejo está aislada completamente, cada evento es
influido por sus predecesores y afecta a sus sucesores.

Modelos.

1. Modelo: es la representación de un conjunto de objetos o ideas de forma diferente a la de la


entidad misma.

2. Modelo: es una abstracción de la realidad que captura lo esencial para investigar y


experimentar en lugar de hacerlo con el sistema real, con menor riesgo, tiempo y costo.

11
El modelo es una "imitación" del sistema original. Como para poder imitar algo o a alguien es
necesario conocerlo bien, será necesario reunir la información precisa respecto del sistema
original. En el modelo participan las variables y sus relaciones.

Modelizar es una metodología de trabajo para:

1. Describir el comportamiento de los sistemas.


2. Hacer hipótesis que expliquen el comportamiento observado.
3. Predecir cómo responde el sistema cuando se producen cambios.

Clasificaciones generales de un Modelo

Según el punto de vista que se tome (naturaleza del sistema o uso del modelo) surgen diferentes
clasificaciones:

4. Estático: Representa las relaciones del sistema cuando está quieto o en equilibrio.
Ejemplo: Maquetas. Plano. El cambio de lugar de la pared del plano de la casa refleja un
nuevo estado.

El modelo no muestra las etapas intermedias ni cómo se desarrollan, sólo el principio y el final.

1. Dinámico: Refleja los cambios en el sistema a través del tiempo y muestra la evolución
desde el principio hasta el final. Ejemplo: crecimiento de un ser viviente, vaciamiento
de un tanque de agua, traslado de un camión de mercadería, cocción de un alimento, etc.

2. Determinístico: Un cambio en el modelo produce uno y sólo un resultado. Ejemplo: Un


modelo que represente el cambio de temperatura del agua para el mate. Cuando se
calienta el agua, sea de la canilla o de la heladera, siempre va a llegar a la temperatura
de 80 a 100 grados.

3. Estocástico: Un cambio en el modelo produce resultados aleatorios. Ejemplo: Un


modelo para estudiar el comportamiento del tránsito en la zona céntrica de la ciudad en
distintos horarios.

12
4. Continuo: el comportamiento cambia continuamente en el tiempo, no es una cuestión
de magnitud del cambio sino de analizar si el mismo se produce en un instante de tiempo
o a lo largo de todo el tiempo de estudio. Ejemplo: la caída del agua de un tanque, el
movimiento de un vehículo, etc.

5. Discreto: los cambios en el tiempo son predominantemente discontinuos o instantáneos,


es decir que las propiedades que describen su comportamiento cambian en momentos
determinados de tiempo, y entre esos instantes no sucede variación alguna. Ejemplo:
Representación de un sistema electrónico digital, la entrada de personas a un negocio.

Control

El control se ha definido bajo dos perspectivas; una limitada y una amplia. Para la perspectiva
limitada, el control se concibe como la verificación a posteriori de los resultados conseguidos
en el seguimiento de objetivos planeados. La perspectiva amplia lo concibe como una actividad
que orienta a la organización hacia el cumplimiento de los objetivos propuestos bajo
mecanismos de medición cualitativos y cuantitativos.

El control es una etapa primordial pues aun cuando se tenga una estructura y operación eficiente,
como se verifica que los hechos están de acuerdo a los objetivos

Elementos del concepto.

1. Relación con lo planteado: Siempre existe para verificar el logro de los objetivos que
se establecen en la planeación.
2. Medición: Para controlar es imprescindible medir y cuantificar los resultados.
3. Detectar desviaciones: Una de las funciones inherentes al control, es descubrir las
diferencias que se presentan entre la ejecución y la planeación.
4. Establecer medidas correctivas: El objeto del control es prever y corregir los errores.

13
Requisitos de un buen control

Corrección de fallas y errores: El control debe detectar e indicar errores de planeación,


organización o dirección.

Previsión de fallas o errores futuros: el control, al detectar e indicar errores actuales, debe
prevenir errores futuros, ya sean de planeación, organización o dirección.

1.5 Estructura y etapas de estudio de simulación


Un proyecto de simulación comienza normalmente con la descripción de una situación por parte
del patrocinador o promotor al analista, en términos generales y de manera vaga e imprecisa.
Esto es de esperarse porque si conociera en forma exacta cual es el problema y la forma de
resolverla, ya lo hubiera resuelto.

Si suponemos que la simulación se usa para investigar las propiedades de un sistema real, se
requieren de ciertas etapas las cuales difieren según ciertos autores.

Raúl Coss Bu, con la opinión de varios autores, plantea que los pasos necesarios para llevar a
cabo un experimento de simulación son:

1. Definición del sistema. Se debe de realizar un análisis preliminar con el fin de


determinar la interacción del sistema con otros sistemas, las restricciones del sistema,
las variables que interactúan dentro de él y sus interrelaciones, las medidas de
efectividad a utilizar para definir y estudiar el sistema y los resultados que se esperan
obtener del estudio.
2. Formulación del modelo. En la formulación es necesario definir todas las variables que
forman parte de él, sus relaciones lógicas y los diagramas de flujo que describen en
forma completa el modelo.
3. Colección de datos. Definir con claridad y exactitud los datos que el modelo va a
requerir para producir los resultados deseados. Por lo general la información se puede
obtener de registros contables, ordenes de trabajo, opinión de expertos y si no hay otro
remedio por experimentación.

14
4. Implementación del modelo en la computadora. Decidir que lenguaje se utilizará o
algún paquete, para procesarlo en la computadora y obtener los resultados deseados.
5. Validación. En esta etapa es posible detectar deficiencias en la formulación del modelo
o en los datos alimentados a él. Las formas más comunes de validar son: la opinión de
expertos sobre los resultados de la simulación, la exactitud de predecir datos históricos,
exactitud de predicciones futuras, la comprobación de falla del modelo al usar datos que
hacen fallar al sistema real y la aceptación y confianza en el modelo de la persona que
usará los resultados que arroje el experimento.
6. Experimentación. Consiste en generar los datos deseados y realizar análisis de
sensibilidad de los índices requeridos.
7. Interpretación. Se interpretan los datos que arrojó la experimentación y en base a estos
se toma una decisión.
8. Documentación. Se requieren dos tipos de documentación: para hacer uso del modelo
(tipo técnico) y para la interacción y uso del modelo (manual del usuario).

1.6 Etapas de un proyecto de simulación


1.-Modelación. Fijado el objetivo que se persigue en la creación de un problema,
inmediatamente se activan los componentes intelectuales básicos: sensaciones, percepciones,
memoria, pensamiento e imaginación. La construcción de los diagramas de Euler para estudiar
las distintas relaciones que se establecen entre los conocimientos, es una actividad que ayuda a
desarrollar la habilidad de modelación. Estos diagramas también son utilizados en la
metodología como situación inicial para la construcción de tareas que respondan a determinadas
características.

2.-Tanteo-error. Consiste en un proceso continuo de adecuación y ajuste por búsqueda y prueba


de los datos y/o las incógnitas según las condiciones del problema, hasta encontrar las más
adecuadas. La búsqueda puede ser de tipo inteligente o arbitrario, y en ocasiones es utilizada
para modificar las condiciones y con ella reordenar los elementos estructurales.

15
3. Asociación por analogía. En esta técnica se hace uso de la reproducción en una primera fase.
Consiste en establecer nuevos nexos entre datos e incógnitas siguiendo formatos y textos
guardados en la memoria para obtener otras por medio de la innovación. Es evidente que sobre
las ideas iniciales, posteriormente se introducen modificaciones, que consisten en relacionar los
datos de otra forma, introducir nuevas condiciones o cambiar la forma de redactar las preguntas,
para obtener al final un problema derivado, que si bien no se caracteriza por su originalidad, sí
constituye una nueva tarea.

4.-Integración por inclusión. Es una técnica muy sencilla, cuyo procedimiento es asequible a
cualesquier sujeto. Consiste en elaborarla de forma tal que las incógnitas de los diferentes
incisos mantengan una dependencia sucesiva en forma de cadena, como el ejemplo de la página
37, donde fueron caracterizados los sistemas semi-abiertos, para luego eliminar los iniciales y
solo dejar la incógnita final.

5.-Reformulación. Consiste en reconstruir la estructura gramatical y de sistema mediante


procesos de innovación. Se diferencia de la analogía por la profundidad de los cambios
introducidos, puesto que se parte de un ejemplo concreto que debe ser modificado y no de
recuerdos que pueden ser borrosos y a veces confusos.

6.-Fusión de tareas (o contenidos) auxiliares. Como parte de las estrategias de integración, la


fusión de tareas docentes auxiliares constituye una de las más importantes. Es poco empleada,
debido a la elevada complejidad que implica el establecimiento de relaciones múltiples entre
datos e incógnitas que proceden de ejemplos diferentes, aunque también pueden ser integrados
diversos contenidos previamente seleccionados, que guarden una relación directa o indirecta.

Además, en su conjunto, los fundamentos teóricos estudiados sobre los distintos tipos de tareas
integradoras y las técnicas necesitan para su implementación del siguiente conjunto de
requisitos:

16
 1.-Partir del análisis de los objetivos de los programas, siguiendo un enfoque sistémico
en su derivación gradual, desde los más generales de la enseñanza hasta la clase.

 2.-Proporcionar en las tareas relaciones ricas entre los nuevos conocimientos y los
esquemas existentes, donde estén presentes todos los niveles de integración de los
conocimientos y las habilidades, hasta llegar al nivel interdisciplinario.

 3.-Desarrollar una adecuada variedad, concebida la variedad no sólo en términos de


enfoque que propicien reflexión, estimulen el debate y permitan crear motivos
cognoscitivos, sino también en relación con las funciones, habilidades, niveles de
asimilación y complejidad, entre otros

 4.-Presentar la información tanto en términos positivos y familiares como con


complejidad lógico lingüística, ir desde la simple descripción del lenguaje simbólico
hasta la exigencia de complicadas transformaciones, como por ejemplo negaciones o
varias premisas con diferentes enlaces lógicos, textos complejos a interpretar o
informaciones no utilizables, entre otras.

 5.-Redactar las tareas de forma tal que expresen siempre más de una función. Además
de la función cognoscitiva, incorporar situaciones nuevas, con diferentes niveles de
complejidad, tanto de la vida diaria, la orientación profesional o el cuidado del medio
ambiente, como de la actualidad político- ideológico del país.

 6.-Establecer un adecuado equilibrio entre los problemas que serán formulado, dejando
un espacio a los problemas experimentales y cualitativos, que son insuficientes en los
textos de la enseñanza media.

1.7 Elementos básicos de un simulador de eventos discretos

Es el valor del tiempo que el simulador puede avanzar a una velocidad superior a la habitual de
un reloj común, evolucionando así el estado de un sistema de forma acelerada.

17
Evento

Un evento es un suceso que hace cambiar las variables de estado del sistema. Durante el
procesamiento de un evento el tiempo de simulación permanece fijo. Un evento pertenece a una
entidad, o actor en el sistema, y normalmente solo cambiara atributos de esta, dejando invariante
el resto del sistema.

Proceso

Es toda secuencia de eventos ordenada temporalmente (sucesión de estados de una entidad sobre
uno o más intervalos sucesivos).

Entidad

El sistema a simular se modela en base a entidades ó actores que representan en su agregado al


sistema compuesto. El estado del sistema se entiende entonces como el agregado de los estados
que lo conforman.

Actividad

Secuencia de eventos pertenecientes a una entidad que cierran un ciclo funcional. A diferencia
de un evento, que se ejecuta a tiempo de simulación constante, una actividad se desarrolla dentro
de un intervalo de tiempo de simulación no puntual.

Simulación en tiempo acelerado

Se da cuando el avance del tiempo de simulación es mayor de un segundo por cada segundo de
tiempo real.

18
Simulación en tiempo real

Se da cuando el avance del tiempo de simulación exactamente de un segundo por cada segundo
de tiempo real.

Atributos.

Propiedades que poseen las entidades, también son llamados variables. Existen varios tipos de
atributos.

1. P: Parámetros son atributos fijados durante el diseño del sistema


2. U: Variables de entradas o exógenos, fijadas por el entorno
3. D: Variables de entradas fijadas por el usuario
4. Y: Variables de salida son las variables de estado o combinación de ellas correspondiente
a medidas del sistema

Variables

Una variable es la expresión simbólica representativa de un elemento no especificado


comprendido en un conjunto.

Reloj de simulación

Es el contador de tiempo de la simulación, y su función consiste en responder preguntas tales


como cuánto tiempo se ha utilizado el modelo de la simulación, y cuanto tiempo en total se
requiere que dure esta última.

19
Unidad 2

Números Pseudoaleatorios
Objetivo.

Solucionará problemas relacionados con la generación y valoración estadística de los números


Pseudoaleatorios.

20
Números Pseudoaleatorios
Mientras a comienzos del siglo XX los inventores e ingenieros ya diseñaban y perfeccionaban
diversas máquinas tragamonedas o aparatos de juegos automáticos que de forma mecánica
pretendían imitar el azar y que en cierto modo ya funcionaban de manera Pseudoaleatorio.
También se observa que en el área de las matemáticas, la estadística y en los nacientes campos
de la computación y la Informática existía una preocupación creciente por establecer fórmulas
o algoritmos que permitieran generar números aleatorios a base del mero cálculo matemático o
de la ejecución de instrucciones programadas, es decir, sin necesidad de tener que usar los
tradicionales métodos físicos tales como tirar monedas al aire, lanzar dados, sacar pelotas
numeradas de una urna, sacar cartas de un mazo, hacer girar una ruleta, impulsar las ruedas de
una máquina tragamonedas, etc.

Estas iniciativas científicas culminaron en la creación de métodos matemáticos y sistemas


informáticos para la generación de Números Pseudoaleatorios, ya que las secuencias de números
que son obtenidas al usar esas fórmulas o algoritmos, por más aleatorias que a simple vista
parezcan, en el fondo son el resultado de cálculos que se basan en variables, en instrucciones y
en operaciones matemáticas preestablecidas por la mente humana, es decir, no dependen
absolutamente de variables desconocidas que interactúan caóticamente o fuera de todo control.

La simulación sirve como herramienta para analizar el diseño y operaciones de sistemas de


procesos complejos. Si bien la solución nunca es exacta, las aproximaciones que se obtienen
son bastante buenas.

21
Por su parte, los números Pseudoaleatorios son aquellas que tienen un comportamiento similar
a la naturaleza aleatoria, pero están ceñidos a un patrón, generalmente de naturaleza matemática,
que hace que su comportamiento sea determinístico.

Fundamentalmente porque las sucesiones de números Pseudoaleatorios son más rápidas de


generar que las de números aleatorios. Si las personas tenemos dificultad en generar números
aleatorios, mucho más la tiene un ordenador, la dificultad está en que un ordenador es tan "torpe"
que no sabe generarlos. Por eso usan números Pseudoaleatorios, que para nuestro fin es lo
mismo, pues nadie los puede predecir.

2.1 Métodos de generación de números Pseudoaleatorios

Definición: Un número aleatorio es un resultado de una variable al azar especificada por una
función de distribución. Cuando no se especifica ninguna distribución, se presupone que se
utiliza la distribución uniforme continua en el intervalo [0,1).

Casi todos los métodos de simulación se basan en la posibilidad de crear números aleatorios con
distribución U (0,1). Hasta la aparición de las computadoras, los números aleatorios se obtenías
de procedimientos experimentales como lotería o ruleta y se almacenaban en tablas.

Los números generados por computadora se llaman números Pseudoaleatorios, dado que son
predecibles a partir del primer número denominado semilla

Para poder utilizar un generador automático de números Pseudoaleatorios, éste debe cumplir
con ciertas propiedades:

 Producir muestras según la distribución U(0,1)


 Pasar los contrastes de aleatoriedad e independencia más habituales
 Que la sucesión generada sea reproducible a partir de la semilla
 Tener una longitud de ciclo tan grande como se desee
 Generar valores a alta velocidad
 Ocupar poca memoria

22
2.1.1.-Métodos Manuales para generar números Pseudoaleatorios

Métodos Manuales: son los métodos más simples y lentos, ejemplo de estos métodos son
lanzamientos de monedas, dados, cartas y ruletas. Los números producidos por estos métodos
cumplen las condiciones estadísticas mencionadas anteriormente, pero es imposible reproducir
una secuencia generadas por estos métodos.

Tablas de números aleatorios: estos números se pueden generar por medio de una hoja de
cálculo o por cualquier generador de cualquier lenguaje de programación razón por la cual su
comportamiento es totalmente determinístico.

Mediante el computador digital: existen tres métodos para producir números aleatorios
mediante un computador:

 Provisión externa.
 Generación interna a través de un proceso físico aleatorio.
 Generación por medio de una regla de recurrencia.

23
2.1.2-Métodos aritméticos para generar números Pseudoaleatorios

Métodos de Cuadrados Medios: el procedimiento de obtención de números Pseudoaleatorios


con este tipo de generador es el siguiente:

 Se define una semilla 𝑋𝑜


 Se eleva la semilla al cuadrado (𝑋𝑜 )2
 Depende de la cantidad de dígitos que se desea, que tenga el número Pseudoaleatorio, se
toman de la parte central del número resultante en el paso anterior el número de dígitos
requeridos. Si no es posible determinar la parte central, se completa el número agregando
ceros al principio o al final.

CUADRADO MEDIO PARA GENERAR NÚMEROS ALEATORIOS:


No. de Resultado al ser Selección de los 10 Nuevo número
arranque: elevado al cuadrado dígitos aleatorio
(x2): del medio: generado:
5772156649 33317792380594909201 33317792380594909201 7923805949
7923805949 62786700717407800000 62786700717407800000 7007174078
7007174078 49100488559395200000 49100488559395200000 4885593952
4885593952 23869028263819000000 23869028263819000000 0282638190

Método de Producto medio: este método es un poco similar al anterior pero se debe comenzar
con dos semillas cada una con k dígitos, el número resultante se toma como las cifras centrales
del producto de los dos números anteriores. Por ejemplo, tomando como semillas a 𝑋𝑜 =
13 𝑦 𝑋 1 = 15 el método sería el siguiente: 𝑋𝑖+1 = 𝑋𝑜 ∗ 𝑋1

𝑥𝑖
𝑟𝑖 =
𝑚−1

𝑥2 = (13 ∗ 15) = 0195 = 19, 𝑙𝑢𝑒𝑔𝑜 𝑟1 = 19 / 99 = 0.1919


𝑥3 = (15 ∗ 19) = 0285 = 28, 𝑙𝑢𝑒𝑔𝑜 𝑟2 = 28 / 99 = 0.2828
𝑥4 = (19 ∗ 28) = 0532 = 53, 𝑙𝑢𝑒𝑔𝑜 𝑟3 = 53 / 99 = 0.5354
𝑥5 = (28 ∗ 53) = 1484 = 53, 𝑙𝑢𝑒𝑔𝑜 𝑟3 = 48 / 99 = 0.4848

24
Método del producto medio modificado: consiste en usar una constante multiplicativa en lugar
de una variable. Es decir 𝑋𝑖+1 = (𝐾 ∗ 𝑋𝑛). Debe notarse que los métodos anteriores tienen
periodos relativamente cortos, los cuales son afectados grandemente por los valores iniciales
que se escojan, además son estadísticamente insatisfactorios. También debe tenerse en cuenta
que un generador con un periodo corto no sirve para hacer un número considerado de ensayos
de simulación.

2.1.3.-Métodos congruenciales.

Se han desarrollado básicamente tres métodos de congruenciales para generar números


Pseudoaleatorios, los cuales se derivan del empleo de diferentes versiones de la relación
fundamental de congruencia. El objetivo de cada uno de los métodos es la generación en un
tiempo mínimo, de sucesiones de números aleatorios con periodos máximos. Los métodos
congruenciales son: el aditivo, el multiplicativo y el mixto.

Método Congruencial Aditivo: calcula una sucesión de números Pseudoaleatorios mediante


la relación 𝑋𝑖+1 = 𝑋𝑖 + 𝑋𝑖−𝑘 (𝑚𝑜𝑑 𝑀). Para usar este método se necesitan k valores iniciales,
siendo k entero. Las propiedades estadísticas de la secuencia tienden a mejorarse a medida que
k se incrementa. Este es el único método que produce periodos mayores que M.

Método Congruencial Multiplicativo: calcula una sucesión 𝑋𝑖 de enteros no negativos, cada


uno de los cuales es menor que M mediante la relación 𝑋𝑖+1 = 𝑎 ∗ 𝑋𝑛 (𝑚𝑜𝑑 𝑀). Es un caso
especial de la relación de congruencia en que c=0, este método se comporta de manera
satisfactoria estadísticamente, es decir, los números generados por medio de este método están
uniformemente distribuidos, y no están correlacionados. Este método tiene un periodo máximo
menor que M, pero se pueden imponer condiciones en 𝑎 y 𝑋𝑜 de tal forma que se obtenga el
periodo máximo.

Método Congruencial Mixto o Lineal: los generadores congruenciales lineales generan una
secuencia de números Pseudoaleatorios en la cual el próximo número Pseudoaleatorio es
determinado a partir del último número generado, es decir, el número Pseudoaleatorio 𝑋𝑖+1 es

25
derivado a partir del número Pseudoaleatorio 𝑋𝑛 La relación de recurrencia para el generador
congruencial mixto es 𝑿𝒊+𝟏 = (𝒂 ∗ 𝑿𝒊 + 𝒄) 𝒎𝒐𝒅 𝒎, en donde:

 𝑋𝑜 = es la semilla
 𝑎 =el multiplicador
 𝑐 = constante aditiva
 𝑚 = 𝑒𝑙 𝑚𝑜𝑑𝑢𝑙𝑜 (𝑚 > 𝑋𝑜, 𝑎, 𝑐)
 𝑋𝑜, 𝑎, 𝑐 > 0
Ejemplo: supongamos que se tiene un generador en el cual los valores de sus parámetros son:

 𝑎 = 5,
 𝑐 = 7,
 𝑋𝑜 = 4
 𝑚 = 8.

El generador quedará de la siguiente manera:


𝑋𝑖+1 = (5 𝑋𝑖 + 7) 𝑚𝑜𝑑 8

N Xn (5*Xn+7)/mod 8 Xn+1 residuo No aleatorio


1 4 27/8 3 0.3750
2 3 22/8 6 0.7500
3 6 37/8 5 0.6250
4 5 32/8 0 0.0000
5 0 7/8 7 0.8750
6 7 42/8 2 0.2500
7 2 17/8 1 0.1250
8 1 12/8 4 0.5000

De acuerdo con Hull y Dobell, los mejores resultados para un generador congruencial mixto en
una computadora binaria son:

 𝑐 = 8∗𝑎±3
 𝑎 = 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑒𝑛𝑡𝑒𝑟𝑜
 𝑋𝑜 = 𝐶𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑒𝑛𝑡𝑒𝑟𝑜 𝑖𝑚𝑝𝑎𝑟.
 𝑀 = 2𝑏
Donde

𝑏 > 2 𝑦 𝑞𝑢𝑒 " 𝑚" 𝑠𝑒𝑎 𝑎𝑐𝑒𝑝𝑡𝑎𝑑𝑜 𝑝𝑜𝑟 𝑙𝑎 𝑐𝑜𝑚𝑝𝑢𝑡𝑎𝑑𝑜𝑟𝑎.

26
Determine el período de los siguientes generadores congruenciales mixtos:

 𝑋𝑖+1 = (8 𝑋𝑖 + 16) 𝑚𝑜𝑑 100 𝑦 𝑋𝑜 = 15.


 𝑋𝑖+1 = (50 𝑋𝑖 + 17) 𝑚𝑜𝑑 64 𝑦 𝑋𝑜 = 13.
 𝑋𝑖+1 = (5 𝑋𝑖 + 24) 𝑚𝑜𝑑 32 𝑦 𝑋𝑜 = 7.
 𝑋𝑖+1 = (5 𝑋𝑖 + 21) 𝑚𝑜𝑑 100 𝑦 𝑋𝑜 = 3.
 𝑋𝑖+1 = (9 𝑋𝑖 + 13)𝑚𝑜𝑑 32 𝑦 𝑋𝑜 = 8

2.2 Pruebas estadísticas


Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas
estadísticas de estimación y contraste frecuentemente empleadas se basan en suponer que se ha
obtenido una muestra aleatoria de una distribución de probabilidad de tipo normal o de Gauss.

Pruebas no paramétricas:

 Las pruebas estadísticas no paramétricas son las que, a pesar de basarse en determinadas
suposiciones, no parten de la base de que los datos analizados adoptan una distribución
normal.
 Técnica estadística que no presupone ninguna distribución de probabilidad teórica de la
distribución de nuestros datos.
 Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de
probabilidad para los datos, por ello se conocen también como de distribución libre
(distribución free).
 En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir de
procedimientos de ordenación y recuento, por lo que su base lógica es de fácil
comprensión.

Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer
la normalidad de los datos, conviene utilizar pruebas no paramétricas, al menos para corroborar
los resultados obtenidos a partir de la utilización de la teoría basada en la normal.

En estos casos se emplea como parámetro de centralización la mediana, que es aquel punto para
el que el valor de 𝑋 está el 50% de las veces por debajo y el 50% por encima.

27
Las pruebas no paramétricas no requieren asumir normalidad de la población y en su mayoría
se basan en el ordenamiento de los datos, la población tiene que ser continua. El parámetro que
se usa para hacer las pruebas estadísticas es la Mediana y no la Media. Son técnicas estadísticas
que no presuponen ningún modelo probabilístico teórico.

Son menos potentes que las técnicas paramétricas, aunque tienen la ventaja que se pueden
aplicar más fácilmente.

Pruebas paramétricas:

Las pruebas estadísticas paramétricas, como la de la “𝑡” de Student o el análisis de la varianza


(ANOVA), se basan en que se supone una forma determinada de la distribución de valores,
generalmente la distribución normal, en la población de la que se obtiene la muestra
experimento.

Análisis de la varianza (anova)

La técnica del Análisis de la Varianza, introducida en los años cincuenta por Sir Ronald Fisher,
es utilizada, fundamentalmente, en el análisis de datos procedentes de experimentos, los cuales,
por otra parte, son diseñados teniendo en cuenta el futuro análisis de la varianza que se hará de
sus resultados. El investigador, antes de realizar su experimento, identifica aquellas fuentes de
variación que considera importantes y elige un diseño que le permita medir la importancia de la
contribución de cada una de estas fuentes a la variación total.

Ejemplo

Los miembros de un equipo ciclista se dividen al azar en tres grupos que entrenan con métodos
diferentes. El primer grupo realiza largos recorridos a ritmo pausado, el segundo grupo realiza
series cortas de alta intensidad y el tercero trabaja en el gimnasio con pesas y se ejercita en el
pedaleo de alta frecuencia. Después de un mes de entrenamiento se realiza un test de rendimiento
consistente en un recorrido cronometrado de 9 Km. Los tiempos empleados fueron los
siguientes:

28
Método I Método II Método III
15 14 13
16 13 12
14 15 11
15 16 14
17 14 11

A un nivel de confianza del 95% ¿Puede considerarse que los tres métodos producen resultados
equivalentes? O por el contrario ¿Hay algún método superior a los demás?

Solución:
Comenzamos calculando los totales y los cuadrados de los totales divididos por el número de
observaciones:

Met 1 Met 2 Met 3 Total Suma2/15


Suma 77 72 61 =210 =2940
Suma2 5929 5184 3721
Suma2/5 1185.8 1036.8 744.2 =2966.8

A continuación calculamos los cuadrados de las observaciones y su total


225 196 169
256 169 144
196 225 121
225 256 196
289 196 121
1191 1042 751 2984

A partir de estas cantidades básicas calculamos las Sumas de Cuadrados


𝑆𝐶(𝑡𝑜𝑡𝑎𝑙) = 2984 − 2940 = 44
𝑆𝐶(𝑖𝑛𝑡𝑟𝑎) = 2984 – 2966,8 = 17.2
𝑆𝐶(𝑒𝑛𝑡𝑟𝑒) = 2966,8 – 2940 = 26.8
Los cuadrados medios serán:
26,8
𝐶𝑀(𝑒𝑛𝑡𝑟𝑒) = = 13.4
2
17,2
𝐶𝑀(𝑖𝑛𝑡𝑟𝑎) = = 1.43
12
Por consiguiente el estadístico de contraste vale

29
13.4
𝐹 = = 9.37
1.43
El valor de la F teórica con 2 y 12 grados de libertad, a un nivel de confianza del 95% es 3,89.
Por consiguiente se rechaza la hipótesis nula y se concluye que los tres métodos de
entrenamientos producen diferencias significativas.
RESUMEN EN EXCEL
Análisis de varianza de un factor
Grupos Cuenta Suma Promedio Varianza
Columna 1 5 77 15.4 1.3
Columna 2 5 72 14.4 1.3
Columna 3 5 61 12.2 1.7
ANÁLISIS DE VARIANZA
Origen de las Suma de Grados de Promedio de los F Probabili Valor crítico
variaciones cuadrados libertad cuadrados dad para F
Entre grupos 26.8 2 13.4 9.348 0.00356 3.885293835
Dentro de los grupos 17.2 12 1.4333
Total 44 14

Distribución t de Student

Las distribuciones t de Student fueron descubiertas por William S. Gosset (1876-1937) en 1908
cuando trabajaba para la compañía de cervezas Guinness en Dublín (Irlanda). No pudo publicar
sus descubrimientos usando su propio nombre porque Guinness había prohibido a sus
empleados que publicaran información confidencial.

Es una distribución de probabilidad que surge del problema de estimar la media de una
población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base
de la popular prueba t de Student para la determinación de las diferencias entre dos medias
muéstrales y para la construcción del intervalo de confianza para la diferencia entre las medias
de dos poblaciones.

30
En la generalidad de los casos, no disponemos de la desviación standard de la población, sino
de una estimación calculada a partir de una muestra extraída de la misma y por lo tanto no
podemos calcular Z.

𝜇−𝑥
𝑇=
𝑠
∑(𝑥 − 𝑥𝑖 )2
𝑠=√
(𝑛 − 1)
𝑥̅ − 𝜇
𝑡= 𝑠
√𝑛
Ejemplo 1.

La compañía USA produce focos. El presidente de la Cía. dice que sus focos duran 300 días.
Entonces la competencia va a varios supermercados y compra 15 focos para probar esa
afirmación. Los focos de la muestra duran en promedio 290 días con una desviación estándar
de 50 días. Entonces, si quieren desmentir al presidente de USA necesita saber cuál es la
probabilidad de que 15 focos seleccionados al azar tengan una vida promedio o no mayor de
290 días.

290−300 −10
Primero calculamos 𝑡= 50 = 12.91 = 0.7746
√15

Donde es la media de la muestra, 𝜇 la media de la población, 𝑠 es la desviación estándar de la


muestra y 𝑛 el tamaño de la muestra.

Grados de libertad (ν): 15 - 1 = 14.

* El valor t que obtuvimos = - 0.7746

31
El resultado nos da: 0.2340. Esto significa que si la verdadera vida de un foco es de 300 días,
hay una probabilidad de 23.4% de que la vida promedio de 15 focos seleccionados al azar sea
menor o igual a 290 días y nosotros ha sabríamos a qué atenernos si queremos poner en ridículo
al Presidente.

Ejemplo 2.

Supongamos que las calificaciones de una prueba están distribuidas normalmente con una media
de 100. Ahora supongamos que seleccionamos 20 estudiantes y les hacemos un examen. La
desviación estándar de la muestra es de 15.

¿Cuál es la probabilidad de que el promedio en el grupo de muestra sea más 110?

 Número de grados de libertad: 𝑛 − 1 = 20 − 1 = 19


 La media de la población es igual a 100
 La media de la muestra es igual a 110
 La desviación estándar de la muestra es igual a 15

110 − 100
𝑡= = 2.9814
15
√20

32
Usando estos valores nos da un resultado de probabilidad acumulada de 0.00496. Esto implica
que hay una probabilidad de 0.42% de que el promedio en una muestra sea mayor de 110.

Ejemplo

Las puntuaciones en un test que mide la variable creatividad siguen, en la población general de
adolescentes, una distribución Normal de media 11,5. En un centro escolar que ha implantado
un programa de estimulación de la creatividad una muestra de 30 alumnos ha proporcionado las
siguientes puntuaciones.

11 9 12 17 8 11 9 4 5 9 14 9 17 24 19
10 17 17 8 23 8 6 14 16 6 7 15 20 14 15

1.-A un nivel de confianza del 95% ¿Puede afirmarse que el programa es efectivo?

𝐻𝑜 ∶ 𝜇 = 11.5
𝐻1: 𝜇 > 11.5
2.-Se calcula media y la desviación estándar

(𝑥̅ − 𝜇) (12.47 − 11.5)


𝑡= 𝑠 = = 1.00
5.3
√𝑛 − 1 √29

3.-Como el contraste es unilateral, buscamos en las tablas de la t de Student, con 29 grados de


libertad, el valor que deja por debajo de sí una probabilidad de 0.95, que resulta ser 1.699.

4.-El valor del estadístico es menor que el valor crítico, por consiguiente se acepta la hipótesis
nula

5.-La interpretación sería que no hay evidencia de que el programa sea efectivo

2.2.1 De uniformidad. (Chi cuadrada, Kolmogorov-Smimov).


Chi-cuadrado

La prueba de independencia Chi-cuadrado, nos permite determinar si existe una relación entre
dos variables categóricas. Es necesario resaltar que esta prueba nos indica si existe o no una

33
relación entre las variables, pero no indica el grado o el tipo de relación; es decir, no indica el
porcentaje de influencia de una variable sobre la otra o la variable que causa la influencia.

Propiedades de la Distribución Chi-cuadrado

 1.-Los valores de X2 son mayores o iguales que 0.


 2.-La forma de una distribución X2 depende del 𝑔𝑙 = 𝑛 − 1. En consecuencia, hay un
número infinito de distribuciones X2.
 3.-El área bajo una curva ji-cuadrada y sobre el eje horizontal es 1.
 4.-Las distribuciones X2 no son simétricas. Tienen colas estrechas que se extienden a la
derecha; esto es, están sesgadas a la derecha.
 5.-Cuando n >2, la media de una distribución X2 es n-1 y la varianza es 2(𝑛 − 1).
 6.-El valor modal de una distribución X2 se da en el valor (𝑛 − 3).

Supongamos que tenemos un número k de clases en las cuales se han ido registrados un total de
n observaciones (n será pues el tamaño muestral). Denotaremos las frecuencias observadas en
cada clase por 𝑂1 + 𝑂2 + . . . +𝑂𝑘 (𝑂𝑖 es el número de valores en la clase 𝐴𝑖 ). Se cumplirá:

𝑂1 + 𝑂2 + . . . +𝑂𝑘 = 𝑛

Lo que queremos es comparar las frecuencias observadas con las frecuencias esperadas
(teóricas), a las que denotaremos por 𝐸1 , 𝐸2 , . . . , 𝐸𝑘 . Se cumplirá:

Clase Frecuencia Observada Frecuencia Esperada


Clase 1 O1 E1
Clase 2

Clase n Ok Ek
Total n N

Se tratará ahora de decidir si las frecuencias observadas están o no en concordancia con las
frecuencias esperadas (es decir, si el número de resultados observados en cada clase corresponde
aproximadamente al número esperado). Para comprobarlo, haremos uso de un contraste de
hipótesis usando la distribución Chi-cuadrado:

34
𝑘 2
2
(𝑂𝑖 − 𝐸𝑗 )
𝑋 =∑
𝐸𝑗
𝑖=1

En cierta máquina Expendedora de Refrescos existen 4 canales que expiden el mismo tipo de
bebida. Estamos interesados en averiguar si la elección de cualquiera de estos canales se hace
de forma aleatoria o por el contrario existe algún tipo de preferencia en la selección de alguno
de ellos por los consumidores. La siguiente tabla muestra el número de bebidas vendidas en
cada uno de los 4 canales durante una semana. Contrastar la hipótesis de que los canales son
seleccionados al azar a un nivel de significación del 5%.

Canal Numero de bebidas consumidas mediante este expendedor


1 13
2 22
3 18
4 17
Total 70
Para realizar el contraste de Chi cuadrada debemos calcular las frecuencias esperadas de cada
suceso bajo la hipótesis de uniformidad entre los valores. Si la selección del canal fuera
aleatoria, todos los canales tendrían la misma probabilidad de selección y por lo tanto la
frecuencia esperada de bebidas vendidas en cada uno de ellos debería ser aproximadamente la
misma. Como se han vendido en total 70 refrescos, la frecuencia esperada en cada canal es

𝐸𝑖 = 𝑛 ∗ 𝑝𝑖 = 70 ∗ ¼ = 17.5 𝑖 = 1, . . . , 𝑘

𝑘
2
(131 − 17.5)2 (22 − 17.5)2 (18 − 17.5)2 (17 − 17.5)2
𝑋 =∑ + + + = 2.34.28
17.5 17.5 17.5 17.5
𝑖=1

Este valor debemos compararlo con el valor crítico de la distribución χ2 con (4-1)=3 grados de
libertad. Este valor se busca en tabla y es: 𝑋 2 0.95 (3) = 7.81 2

Prueba de Kolmogorov Smirnov

La prueba de Kolmogorov es considerada para el análisis de una muestra un procedimiento de


bondad de ajuste, es decir, permite la medición del grado de concordancia existente entre la
distribución de un conjunto de datos y una distribución teórica específica.

35
Metodología

1. Formular la hipótesis nula, Ho. Teniendo en cuenta que los números que se van a generar
provienen de una distribución uniforme.

2. Se selecciona una muestra de tamaño n de números Pseudoaleatorios n.

3. Se hallan los parámetros de acuerdo a la distribución que se esté utilizando y demás


datos que sirvan de base para la realización de la prueba. Ej.: para el caso de una
distribución normal se deben hallar los parámetros respectivos (Media, desviación
estándar) y otros datos de utilidad.

4. Se debe calcular la función de distribución acumulada para después hallar las frecuencias
respectivas.
5. Antes de poder hallar el estadístico de prueba se debe hallar la frecuencia observada y
la frecuencia relativa de cada uno de los intervalos establecidos de acuerdo al rango.

6. Se aplica la ecuación D= Frecuencia observada relativa-Frecuencia esperada


relativa para hallar la discrepancia de las mismas o error estadístico.

7. Posteriormente, se halla el estimador Smirnov-Kolmogorov que es: Valor máximo entre


todos los valores hallados para cada intervalo. En Excel sería =Máx. [Frecuencia
observada relativa-Frecuencia esperada relativa].

8. Se hallan también los grados de libertad de acuerdo a la distribución estadística utilizada.


A su vez se establece un nivel de significancia de acuerdo al planteamiento.

9. Con base a lo anterior se consulta la tabla de límites de aceptación para la prueba de


Kolmogorov-Smirnov para un tamaño de muestra n y un determinado nivel de riesgo
alfa, Si el estimador de la prueba es menor al valor buscado en la tabla se acepta H0 o
hipótesis nula, en caso contrario se rechaza.

36
Variable y formulas de la prueba de Kolmogorov

𝐷 = 𝑒𝑠𝑡𝑎𝑑í𝑠𝑡𝑖𝑐𝑜 𝑑𝑒 𝑝𝑟𝑢𝑒𝑏𝑎
𝐹𝑡 = 𝑓𝑟𝑒𝑐𝑢𝑒𝑛𝑐𝑖𝑎 𝑡𝑒ó𝑟𝑖𝑐𝑎
𝐹𝑜 = 𝑓𝑟𝑒𝑐𝑢𝑒𝑛𝑐𝑖𝑎 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑑𝑎

Estadístico de prueba

𝐷 = (𝐹𝑟𝑒𝑐𝑢𝑒𝑚 𝑂𝑏𝑠 𝑅𝑒𝑙𝑎𝑡 − 𝐹𝑟𝑒𝑐𝑢𝑒𝑚 𝐸𝑠𝑝𝑒𝑟 𝑅𝑒𝑙𝑎𝑡)


𝛼 = 𝑎𝑙𝑓𝑎

EJEMPLO Efectuar la prueba de Kolmogorov – Smirnov a la siguiente muestra de números


aleatorios uniformes.

0.15 0.31 0.81 0.48 0.01 0.60


0.26 0.34 0.70 0.31 0.07 0.06
0.33 0.49 0.77 0.04 0.43 0.92
0.25 0.83 0.68 0.97 0.11 0.00
0.18 0.11 0.03 0.59 0.25 0.55

Sustituyendo los valores en las fórmulas correspondientes se tiene que:


i Ri F(i/n) F(i/n)- (Ri) 𝑹(𝒙)𝒊 − (𝒊 − 𝟏)/𝒏
1 0.00 0.03 0.03 0.000
2 0.01 0.07 0.06 -0.023
3 0.03 0.10 0.07 -0.037
4 0.04 0.13 0.09 -0.060
5 0.06 0.17 0.11 -0.073
6 0.07 0.20 0.13 -0.097
7 0.11 0.23 0.12 -0.090
8 0.11 0.27 0.16 -0.123
9 0.15 0.30 0.15 -0.117
10 0.18 0.33 0.15 -0.120
11 0.25 0.36 0.11 -0.083
12 0.25 0.40 0.15 -0.117
13 0.26 0.43 0.17 -0.140
14 0.31 0.47 0.16 -0.123
15 0.33 0.50 0.17 -0.137
16 0.34 0.53 0.19 -0.160
17 0.34 0.57 0.23 -0.193
18 0.43 0.60 0.17 -0.137
19 0.48 0.63 0.15 -0.120
20 0.49 0.67 0.18 -0.143
21 0.55 0.70 0.15 -0.117
22 0.59 0.73 0.14 -0.110
23 0.60 0.77 0.17 -0.133
24 0.68 0.80 0.12 -0.087
25 0.70 0.83 0.13 -0.100
26 0.77 0.87 0.1 -0.063
27 0.81 0.90 0.09 -0.057
28 0.83 0.93 0.1 -0.070
29 0.92 0.97 0.05 -0.013
30 0.97 1.00 0.03 0.003

37
Siguiendo con el paso 4

𝑫𝒏 = 𝑴𝒂𝒙 |𝑫+ −
𝒊 , 𝑭(𝑫𝒊 )| = |(𝟎. 𝟐𝟑, −𝟎. 𝟏𝟗𝟕)| = 𝟎. 𝟐𝟑𝟎

Comparamos el valor Dn (calculado) contra el valor en tablas de la distribución Kolmogorov-


Smirnov con n = 30 y un nivel de significancia alfa = 5%, el cual es d30, 5% = 0.242. Como 0.230
es menor que 0.242, entonces, no se puede rechazar la uniformidad de los números aleatorios.
La muestra se acepta.

2.2.2 De aleatoriedad. (C., arriba y debajo de la media y longitud de corridas)1.


Prueba de las Medias

En la prueba de los promedios se establecen las siguientes hipótesis:

 𝐻𝑜: 𝜇 = ½ (Los números Pseudoaleatorios generados provienen de una distribución


𝑈 (0,1) 𝑐𝑜𝑛 𝜇 = 0.50)
 Ha: 𝜇 ≠ ½ (los números Pseudoaleatorios generados no provienen de una distribución
𝑈(0,1) 𝑐𝑜𝑛 𝜇 = 0.50)
𝑛
1
𝑋̅ = ∑ 𝑟𝑖
𝑛
𝑖=1

𝟏 (𝒁𝜶/𝟐 )
𝑳𝑺𝒓̅ = 𝟐 + ,
√𝟏𝟐𝒏

𝟏 (𝒁𝜶/𝟐 )
𝑳𝑰𝒓̅ = 𝟐 −
√𝟏𝟐𝒏

Ejemplo. Determinar si la muestra de 30 datos aleatorios presenta un comportamiento


uniformemente distribuidos; se utiliza el estadístico 𝑍∝/2 , el cual se determina por medio de la
tabla de distribución normal estándar. 𝑍0.025 =1.96

1
Corridas arriba y debajo de la media y longitud de corridas
38
Tabla de números aleatorios
0.𝟎𝟑𝟗𝟗𝟏 .𝟏𝟎𝟒𝟔𝟏 .𝟗𝟑𝟕𝟏𝟔 .𝟏𝟔𝟖𝟗𝟒 .𝟗𝟖𝟗𝟓𝟑 .𝟕𝟑𝟐𝟑𝟏
0.𝟐𝟓𝟓𝟗𝟑 .𝟑𝟒𝟓𝟔𝟓 .𝟎𝟐𝟑𝟒𝟓 .𝟔𝟕𝟑𝟒𝟕 .𝟏𝟎𝟗𝟖𝟕 .𝟐𝟓𝟔𝟕𝟖
0.𝟕𝟏𝟖𝟗𝟎 .𝟔𝟏𝟐𝟑𝟒 .𝟖𝟔𝟑𝟐𝟐 .𝟗𝟒𝟏𝟑𝟒 .𝟗𝟗𝟖𝟕𝟐 .𝟐𝟕𝟔𝟓𝟕
0.𝟖𝟐𝟑𝟒𝟓 .𝟏𝟐𝟑𝟖𝟕 .𝟎𝟓𝟑𝟖𝟗 .𝟖𝟐𝟒𝟕𝟒 .𝟓𝟗𝟐𝟖𝟗 .𝟑𝟔𝟕𝟖𝟐
0.𝟕𝟐𝟒𝟖𝟒 .𝟒𝟖𝟗𝟗𝟗 .𝟓𝟎𝟓𝟎𝟐 .𝟑𝟗𝟓𝟐𝟖 .𝟑𝟔𝟕𝟖𝟐 .𝟗𝟎𝟐𝟑𝟒

1 (𝑍𝛼/2 ) 1 1.96
𝐿𝑆𝑟̅ = + = + = 0.5298
2 √12𝑛 2 √12 ∗ 30

1 (𝑍𝛼2 ) 1 1.96
𝐿𝐼𝑟̅ = − = − = 0.4701
2 √12𝑛 2 √12 ∗ 30
Ecuación para determinar el valor estadístico
𝟏
̅ − ) √𝒏
(𝒙
𝒁𝒐 = 𝟐
√𝟏
𝟏𝟐

Sustituyendo valores y comprando ambos valores de Z de tabla y el calculado, si el valor de 𝒁𝒐


es menor que valor de Z de tabla, no se puede rechazar 𝒁𝒐

̅̅̅̅̅̅̅ − 1) √30
(0.507 0.0383
𝑍𝑜 = 2 = = 0.13267
0.2886
√1
12
Y como 𝑍𝑜 ≤ 𝑍 entonces no se puede rechazar de la muestra de los números aleatorios estén
normalmente distribuidos entre (0,1)

Prueba de las frecuencias

Esta prueba consiste en dividir el intervalo (0,1) en n sub-intervalos para luego comparar para
cada sub-intervalo la frecuencia esperada con la frecuencia observada. Si estas frecuencias son
bastante parecidas entonces la muestra proviene de una distribución uniforme.

Las hipótesis son:

 Ho: Los números Pseudoaleatorios provienen de una distribución U (0,1).


 Ha: Los números Pseudoaleatorios no provienen de una distribución U (0,1).

39
∑𝑛𝑖=1(𝐹𝑂𝑖 − 𝐹𝐸𝑖 )2
𝜒𝑜2 =
𝐹𝐸𝑖
𝐹𝑂𝑖 = frecuencia observada del i-esimo sub-intervalo
𝐹𝐸= Frecuencia esperada del i-esimo sub-intervalo
𝑁= Tamaño de la muestra
𝑛= Número de su-intervalo

0.82663 0.41139 0.50401 0.54860 0.00026


0.73748 0.89560 0.55539 0.58461 0.14318
0.56663 0.45352 0.12979 0.71470 0.97389
0.95757 0.67382 0.98986 0.30483 0.47850
0.67208 0.96900 0.93208 0.67359 0.64561
0.81381 0.76395 0.64551 0.57957 0.27479
0.97394 0.60976 0.56826 0.55440 0.42556
0.12404 0.35960 0.86559 0.85091 0.98150
0.27809 0.08951 0.30814 0.55353 0.67700
0.69858 0.78127 0.16585 0.78562 0.67231
0.54125 0.93738 0.34762 0.39295 0.34631
0.76028 0.47596 0.25384 0.94603 0.74919
0.03713 0.28384 0.07877 0.05370 0.52661
0.29025 0.78377 0.10184 0.24963 0.50416
0.40276 0.74116 0.68255 0.61969 0.98574
0.17434 0.42252 0.57261 0.51144 0.85281
0.71957 0.84566 0.42448 0.29796 0.41094
0.36474 0.56183 0.71793 0.81251 0.40407
0.27223 0.23400 0.07764 0.85689 0.98148
0.31974 0.23641 0.86060 0.40582 0.80703

No Clases LIM INF LIM SUP PMEDIO FO FE PM*F FR REL FR ACUM


1 0.000 0.198 0.0992 12 20 1.19 0.12 0.120
2 0.198 0.396 0.2971 18 20 5.35 0.18 0.300
3 0.396 0.594 0.49506 26 20 12.87 0.26 0.560
4 0.594 0.792 0.69298 22 20 15.25 0.22 0.780
5 0.792 0.990 0.89090 22 20 19.60 0.22 1.000
100 100

𝐹𝐸 = 𝑁/𝑛
(12 − 20) + (18 − 20) + (26 − 20)2 + (22 − 20)2 + (22 − 20)2
2 2
𝜒𝑜2 = = 1.12
(5(20))

40
2
Buscando en tabla 𝜒.05,4 = 9.49 > 𝜒02 entonces no se puede rechazar la hipótesis de que los
números Pseudoaleatorios provienen de una distribución uniforme.

Prueba de Series

Esta prueba se utiliza para comprobar el grado de aleatoriedad entre números sucesivos. La
prueba consiste en formar parejas de números, las cuales son consideradas como coordenadas
en un cuadrado unitario dividido en 𝑛2 celdas. En la prueba de series se generan N números
Pseudoaleatorios de los cuales se forman parejas entre 𝑈𝑖 𝑦 𝑈𝑖+1 , es decir si se generan 5
números, las parejas que se forman serian: (𝑈1 , 𝑈2), (𝑈2 , 𝑈3), (𝑈3 , 𝑈4), (𝑈4 , 𝑈5).

En seguida se determina la celda a la que pertenece cada pareja ordenada, con lo cual se
determina la frecuencia observada de cada celda.

Paso 1. Crear un histograma de dos dimensiones con m intervalos, clasificando cada pareja de
números consecutivos (𝑟𝑖 , 𝑟𝑖+1 ) dentro de las casillas de dicho histograma de frecuencias. El
número total de pares ordenados en cada casilla formará la frecuencia observada: 𝐹𝑂𝑖

Paso 2 Calcular la frecuencia esperada en cada casilla FE de acuerdo con 𝐹𝐸 = 𝑛ú𝑚/𝑚 donde
núm. es el número total de parejas ordenadas.

Paso 3 Calcular el error 𝜒02 , con la ecuación


𝑛 𝑛 2
2
𝑛2 𝐹𝑂𝑖𝑗 − (𝑁 − 1)
𝜒0 = ∑ ∑( )
𝑁−1 𝑛2
𝑖=1 𝑗=1

Pasó 4 Si el valor de 𝜒12 es menor o igual al estadístico de tablas 𝜒12 con (m-1) grados de libertad
y una probabilidad de rechazo a, entonces aceptamos que estadísticamente los números son
independientes.

41
Ejemplo: Realice la prueba de series a los siguientes 30 números con un nivel de confianza del
95%.
0.72484 0.48999 0.50502 0.39528 0.36782 0.90234
0.71890 0.61234 0.86322 0.94134 0.99872 0.27657
0.34565 0.02345 0.67347 0.10987 0.25678 0.25593
0.82345 0.12387 0.05389 0.82474 0.59289 0.36782
0.03991 0.10461 0.93716 0.16894 0.98953 0.73231

Se forman las parejas de coordenadas


(0.72484, 0.48999); (0.48999, 0.50502); (0.50502, 0.39528) ;…………..( 0.98953, 0.73231)
La clasificación en una tabla de frecuencias de dos dimensiones de 4 x 4, (m=16), queda

1.00 3 2 1 2
0.75 1 1 1 3
0.50 1 3 3 1
0.25 2 2 1 2
0 0.25 0.50 0.75 1.00
Se suman de acuerdo al tipo por ejemplo hay 7 unos (1)

Tomando en cuenta que se tienen 29 parejas ordenadas clasificadas uniformemente en 16


casillas, la frecuencia esperada FE en cada una es 1.8125 y al calcular el error con la ecuación
del paso 3, para cada una de las 16 celdas o intervalos de la tabla anterior se tiene:
1 7(1.81 − 1)2 + 5(1.81 − 2)2 + (1.81 − 3)2
𝜒12 = [ ] = 5.75
1.81 1
El valor de la tabla 𝜒𝑡2 con un nivel de confianza del 95% y con (16-1)=15 grados de libertad es
igual a 25. Si se compara 𝜒12 =5.75 con este valor, se acepta la independencia de la secuencia de
números.
2
𝜒12 ≤ 𝜒𝑡,05,15
Por consiguiente Ho se acepta

Prueba de las corridas

La prueba de las corridas sirve para probar la aleatoriedad de los números generados. Esta
prueba se basa en el número de corridas o secuencias ascendentes y descendentes. Una corrida
es una secuencia ascendente o descendente de números Pseudoaleatorios adyacentes.

42
Las hipótesis son:

 Ho: Los números son Pseudoaleatorios U (0,1).


 Ha: Los números no son Pseudoaleatorios U (0,1).

En este método se coloca el signo “+” o “–” en cada par de números adyacentes. Se puede
demostrar que:

Si: R = número total de corridas (arriba y abajo)

N = tamaño de la muestra

Corridas por arriba y por abajo del promedio

Procedimiento

 Generar la muestra de tamaño N de números aleatorios.


 Con base en esta muestra, obtener una nueva sucesión binaria, según el criterio siguiente:
 Si 𝑟𝑗 es menor o igual a 0.50 entonces asignarle a 𝑟𝑗 el símbolo 0.
 Si 𝑟𝑗 es mayor a 0.50 entonces asignarle a: 𝑟𝑗 el símbolo 1.
 La frecuencia esperada para cada longitud de corrida 𝑖, es:

(N − i + 3)
FEi =
2𝑖+1

𝑁+1
𝑁𝑐 =
2

EJEMPLO 1. Dada la siguiente muestra de tamaño 30 de números aleatorios, aplicar la prueba


de corridas, para la independencia.

0.15 0.31 0.81 0.48 0.01 0.60


0.26 0.34 0.70 0.31 0.07 0.06
0.33 0.49 0.77 0.04 0.43 0.92
0.25 0.83 0.68 0.97 0.11 0.00
0.18 0.11 0.03 0.59 0.25 0.55

43
Comparando los números aleatorios según el criterio establecido, se obtiene la siguiente
sucesión binaria. Leyendo de izquierda a derecha se agrupan los símbolos del mismo tipo para
formar la longitud de corridas.

En la siguiente tabla se resume la información necesaria para el cálculo de la Ji-cuadrada

(𝐹𝑂 − 𝐹𝐸)2
Longitud de la Frecuencia 𝐹𝐸
corrida observada
𝑙𝑖 FO FE Resultado
𝑖=1 9 8 0.125
𝑖=2 3 3.875 0.197
𝑖=3 2 1.875 0.008
𝑖=4 1 0.906 0.010
𝑖=5 1 0.438 0.721

Como para las longitudes de corrida 𝑖 = 1,2, 3, 4, 5; las frecuencias observadas son menores o
igual a cinco, agrupamos estas longitudes de corridas en una sola longitud de corrida.

(𝐹𝑂 − 𝐹𝐸)2
Longitud de la Frecuencia 𝐹𝐸
corrida observada
li FO FE Resultado
1 9 8 0.125
>2 7 7.4 0.936
2
El valor en tablas de 𝑋1;5% = 3.84 ; entonces no se puede rechazar la independencia de los
números aleatorios.

44
Corridas ascendentes y descendentes

Procedimiento

1. Generar la muestra de tamaño N de números aleatorios.

2. Construir la sucesión binaria de acuerdo al siguiente criterio:

Si 𝑟𝑗 es menor o igual a 𝑟𝑗+1entonces asignarle a 𝑟𝑗 el símbolo 0.

Si 𝑟𝑗 es mayor que 𝑟𝑗+1 entonces asignarle al 𝑟𝑗 el símbolo 1.

Con base en la distribución 𝑋2, efectuar la prueba, donde la frecuencia esperada de las longitudes
de corrida 𝑖 se calculará con:

2|(𝑖 2 + 3𝑖 + 1)𝑁 − (𝑖 3 + 3𝑖 2 − 𝑖 − 4)|


𝐹𝐸𝑖 =
(𝑖 + 3)!

EJEMPLO 2. Aplicar la prueba de las corridas ascendentes y descendentes a la muestra de 30


números aleatorios del ejemplo anterior. Compararemos a los números por fila, pero es
indistinto hacerlo por columna.

0.15 0.31 0.81 0.48 0.01 0.60


0.26 0.34 0.70 0.31 0.07 0.06
0.33 0.49 0.77 0.04 0.43 0.92
0.25 0.83 0.68 0.97 0.11 0.00
0.18 0.11 0.03 0.59 0.25 0.55

Ahora la sucesión binaria es la siguiente como se muestra en la tabla

0 0 1 1 0 1
0 0 0 1 1 0
0 0 1 0 1 1
0 1 0 1 1 0
1 1 0 1 0

Obsérvese que la última celda se deja en blanco, pues no hay con qué número comparar. (Aquí
N = 29)

45
Tabla de cálculos
Longitud de corrida i FE FO (FE-FO)2/FE
1 11.500 11 0.020
2 5.083 5 0.001
3 1.400 2 0.257
4 0.292 -
5 0.005 -

Tabla simplificada
i FE FO (FE-FO)2/FE
1 11.500 11 0.020
>=2 6.483 7 0.004
2
X = 0.024

Como el valor 0.024 es menor que el valor en tablas de Ji-cuadrada 𝑋2 1,5%= 3.84, no se puede
rechazar la independencia de los números aleatorios.

2.2.3 De independencia. (A-C, P-H, P-P, prueba de Yule).2

Las pruebas de independencia consisten en demostrar que los números generados son
estadísticamente independientes entre sí, esto es, que no depende uno de otro. Para esto se
propone la siguiente hipótesis:

 Ho independiente
 Hi Dependiente

Para realizar esta prueba de hipótesis existen varios métodos, puede seleccionarse cualquiera de
la siguiente lista:
Prueba de hueco

Consiste en suprimir de un texto una serie de palabras seleccionadas en virtud que representan
los aspectos que se requieren medir. La tarea del candidato es deducir, por el contexto, la palabra
eliminada y reescribirla para determinar la palabra dada es correcta o incorrecta.

2
Auto-correlación, prueba de huecos, prueba del póquer, prueba de Yule
46
Prueba de Yule

Es una medida de asociación creada por el estadístico escoces George Udny Yule, se utiliza en
cuadros estadísticos llamado contingencia.

Variables nominales

Restricciones:

 Tener en cuenta que son números positivos, solo pueden tomar valores comprendidos
entre cero y uno.
 Cuando se acercan a un cero, indican independencia o asociación muy débil entre las
variables.

2.3 Método de Monte Carlo


La simulación de Monte Carlo es una técnica cuantitativa que hace uso de la estadística y los
ordenadores para imitar, mediante modelos matemáticos, el comportamiento aleatorio de
sistemas reales no dinámicos (por lo general, cuando se trata de sistemas cuyo estado va
cambiando con el paso del tiempo, se recurre bien a la simulación de eventos discretos o bien a
la simulación de sistemas continuos).

El método Montecarlo es un método numérico que permite resolver problemas físicos y


matemáticos mediante la simulación de variables aleatorias. Lo vamos a considerar aquí desde
un punto de vista didáctico para resolver un problema del que conocemos tanto su solución
analítica como numérica. El método Montecarlo fue bautizado así por su clara analogía con los
juegos de ruleta de los casinos, el más célebre de los cuales es el de Montecarlo, casino cuya
construcción fue propuesta en 1856 por el príncipe Carlos III de Mónaco, siendo inaugurado en
1861.

Definición
Es el proceso de diseñar y desarrollar un modelo computarizado de un sistema o proceso y
conducir experimentos con este modelo con el propósito de entender el comportamiento del
sistema o evaluar varias estrategias con las cuales se puede operar el sistema.

47
2.3.1 Características.
Ventajas

1. Es un método directo y flexible


2. Existe un amplio abanico de programas y lenguajes destinados a simular.
3. Cuando el modelo matemático es demasiado complicado la simulación permite obtener
una aproximación.
4. La simulación nos permite formular condiciones extremas con riesgos nulos.
5. La simulación no interfiere con el mundo real. Permite experimentar.
6. Permite estudiar la interacción entre las diferentes variables del problema.
7. Mediante la simulación podemos “influir en el tiempo” de los procesos.
8. La simulación permite resolver problemas que no tienen solución analítica.

Desventajas

1. Una buena simulación puede resultar muy complicada, gran número de variables.
2. La simulación no genera soluciones Óptimas globales.
3. No proporciona la decisión a tomar, sino que resuelve el problema mediante
aproximación para unas condiciones iniciales.
4. Cada simulación es única, interviene el azar.

2.3.2 Aplicaciones.
 Criptografía
 Cromo dinámica cuántica
 Densidad y flujo de tráfico
 Diseño de reactores nucleares
 Ecología
 Econometría
 Evolución estelar
 Física de materiales
 Teoría de colas
 Métodos cuantitativos de la organización industrial

48
 Pronósticos
 Sistema de inventarios
 Portafolios de valores
 Sistemas de ventas

2.3.3 Solución de problemas


El algoritmo de Simulación Monte Carlo Crudo o Puro está fundamentado en la generación de
números aleatorios por el método de Transformación Inversa, el cual se basa en las
distribuciones acumuladas de frecuencias

 Determinar las V.A. y sus distribuciones acumuladas (F)


 Generar un número aleatorio uniforme I (0,1).
 Determinar el valor de la V.A. para el número aleatorio generado de acuerdo a las clases
que tengamos.
 Calcular media, desviación estándar error y realizar el histograma.
 Analizar resultados para distintos tamaños de muestra.

Otra opción para trabajar con Monte Carlo, cuando la variable aleatoria no es
directamente el resultado de la simulación o tenemos relaciones entre variables es la
siguiente:

 Diseñar el modelo lógico de decisión


 Especificar distribuciones de probabilidad para las variables aleatorias relevantes.
 Incluir posibles dependencias entre variables.
 Muestrear valores de las variables aleatorias.
 Calcular el resultado del modelo según los valores del muestreo (iteración) y registrar el
resultado
 Repetir el proceso hasta tener una muestra estadísticamente representativa
 Obtener la distribución de frecuencias del resultado de las iteraciones
 Calcular media, desvío.
 Analizar los resultados

49
Las principales características a tener en cuenta para la implementación o utilización del
algoritmo son:

El sistema debe ser descripto por 1 o más funciones de distribución de probabilidad (fdp)

Generador de números aleatorios: como se generan los números aleatorios es importante para
evitar que se produzca correlación entre los valores muéstrales.

Ejemplo.

Tenemos la siguiente distribución de probabilidades para una demanda aleatoria y queremos ver
qué sucede con el promedio de la demanda en varias iteraciones.

Frecuencia
0.45
0.4
0.35
0.3
0.25
0.2 0.4
0.15
0.1 0.2 0.2
0.05 0.1 0.10
0
42 45 48 51 54

Tabla de datos
Consultas Frecuencias Frecuencia Frecuencia Intervalo
absolutas (días) acumulada
10 .10 .10 0.0- 0.10
20 .20 .30 0.10-0.30
48 .40 .70 0.30-0.70
51 .20 .90 0.70-0.90
54 .10 1.00 0.90-1.00

50
Frecuencia acumulada
1.00
0.9
0.7

0.3
0.1

42 45 48 51 54

Generando los valores aleatorios vamos a ver como se obtiene el valor de la demanda para cada
día, interesándonos en este caso como es el orden de aparición de los valores. Se busca el número
aleatorio generado en la tabla de probabilidades acumuladas, una vez encontrado (si no es el
valor exacto, éste debe ser menor que el de la fila seleccionada pero mayor que el de la fila
anterior), de esa fila tomada como solución se toma el valor de las unidades (Cuando trabajamos
en Excel debemos tomar el límite inferior del intervalo para busca en las acumuladas, para poder
emplear la función BUSCAR (), para 42 sería 0, para 43; 0.100001 y así sucesivamente).

Supongamos que el número aleatorio generado sea 0.52, ¿a qué valor de unidades corresponde?

Nos fijamos en la columna de frecuencias acumuladas, ese valor exacto no aparece, el siguiente
mayor es 0.70 y corresponde a 48 unidades.

Se puede apreciar mejor en el gráfico, trazando una recta desde el eje de la frecuencia hasta que
intersecta con la línea de la función acumulada, luego se baja a la coordenada de unidades y se
obtiene el valor correspondiente; en este caso 48.

Cuando trabajamos con variables discretas la función acumulada tiene un intervalo o salto para
cada variable (para casos prácticos hay que definir los intervalos y luego con una función de
búsqueda hallar el valor). Para funciones continuas se puede hallar la inversa de la función
acumulada.

51
Numero de simulación Numero aleatorio Valor de la demanda
1 0.92 54
2 0.71 51
3 0.85 51
4
5
6
n 0.46 48

Eficiencia del Número de simulaciones


Numero de simulaciones Media Desviación estándar Error residual
10 48.6 3.4 1.08
100 48,13 3.16 0.32
1000 47.87 3.29 0.11
10000 47,88 3.30 0.04

Ejemplo 2.

Se muestra un análisis histórico de 200 días sobre el número de consultas diarias realizadas a un
sistema de información empresarial (EIS) residente en un servidor central. La tabla incluye el
número de consultas diarias (0 a 5) junto con las frecuencias absolutas (número de días que se
producen 0, 1,..., 5 consultas), las frecuencias relativas (10/200 = 0,05,...), y las frecuencias
relativas acumuladas.

Tabla de resultado

Frecuencias Frecuencia Frecuencia


Consultas Intervalo
absolutas (días) relativa acumulada

0 10 0.05 0.050 0.0- 0.05


1 20 0.10 0.150 0.05-0.15
2 40 0.20 0.350 0.15-0.35
3 60 0.30 0.650 0.35-0.65
4 40 0.20 0.850 0.65-0.85
5 30 0.15 1.000 0.85-1.00
200 1.00

52
Podemos interpretar la frecuencia relativa como la probabilidad de que ocurra el suceso
asociado, en este caso, la probabilidad de un determinado número de consultas (así, p.e., la
probabilidad de que se den 3 consultas en un día sería de 0,30), por lo que la tabla anterior nos
proporciona la distribución de probabilidad asociada a una variable aleatoria discreta (la variable
aleatoria es el número de consultas al EIS, que sólo puede tomar valores enteros entre 0 y 5).

Supongamos que queremos conocer el número esperado (o medio) de consultas por día. La
respuesta a esta pregunta es fácil si recurrimos a la teoría de la probabilidad.

Denotando por X a la variable aleatoria que representa el número diario de consultas al EIS,
sabemos que

𝑬(𝒙) = ∑ 𝒙𝒊 𝑷(𝑿 = 𝒙𝒊 ) = 𝟎 ∗ 𝟎. 𝟓 + 𝟏 ∗ 𝟎. 𝟏𝟎 + 𝟐 ∗ 𝟎. 𝟐𝟎 + 𝟑 ∗ 𝟎. 𝟑𝟎 + 𝟒 ∗ 𝟎. 𝟐𝟎 + 𝟓 ∗ 𝟎. 𝟏𝟓 = 𝟐. 𝟗𝟓
𝒊=𝟏

Cuando se conozca la distribución de probabilidad asociada a una variable aleatoria discreta,


será posible usar la columna de frecuencias relativas acumuladas para obtener los llamados
intervalos de números aleatorios asociados a cada suceso.

Coonsultas
0.35

0.30

0.25
Título del eje

0.20

0.15

0.10

0.05

0.00
0 1 2 3 4 5
Total de consultas

53
FRECUENCIA ACUMULADA
1.200

1.000

Título del eje 0.800

0.600

0.400

0.200

0.000
0 1 2 3 4 5 6
Numero de consultas

54
Unidad 3
Generación de variables aleatorias

Objetivo
Con base a los instrumentos que existen el alumno podrá generar variables aleatorias de tipo
continua y discreta
Conocer los valores de las variables aleatorias con diferentes distribuciones
Conocer el tipo de variable aleatoria que da como resultado el método de transformada inversa
con diferentes distribuciones.

55
Generación de variables aleatorias
La generación de cualquier variable aleatoria se va a basar en la generación previa de una
distribución uniforme (0,1). Y las transformaciones de dichos números generados en valores de
otras distribuciones.

La mayoría de las técnicas utilizadas para la generación se pueden agrupar en:

 Método de la transformada inversa


 Método de aceptación-rechazo
 Método de composición
 Método de convolución

3.1 Conceptos básicos


Se llama variable aleatoria (V.A) a toda aplicación que asocia a cada elemento del espacio
muestral (𝝎) de un experimento, un número real.

𝑋: 𝝎 → 𝑹

Una variable aleatoria o variable estocástica es una variable estadística cuyos valores se obtienen
de mediciones en experimento aleatorio.

Se llama variable aleatoria a toda función que asocia a cada elemento del espacio muestral E un
número real.

Se utilizan letras mayúsculas X, Y,... para designar variables aleatorias, y las respectivas
minúsculas (x, y,...) para designar valores concretos de las mismas.

3.2 Variables aleatorias discretas


Una variable aleatoria discreta es aquella que sólo puede tomar valores enteros.

Ejemplo: El número de hijos de una familia, la puntuación obtenida al lanzar un dado

56
3.3 Variables aleatorias continuas
Este tipo de variable se representa mediante una ecuación que se conoce como función de
probabilidad de densidad. Dada esta condición se cambia el uso de la sumatoria por la de una
integral para conocer la función acumulada de la variable aleatoria.

Sea X una variable aleatoria diremos que es continua cuando toma un número infinito no
numerable de valores, es el caso de los intervalos de R o todo R.

Una variable aleatoria continua es aquella que puede tomar todos los valores posibles dentro de
un cierto intervalo de la recta real.

Ejemplo: La altura de los alumnos de una clase, las horas de duración de una pila.

Ejemplo Se puede expresar de la siguiente forma:

𝑃(𝑥) ≥ 0 , 𝑃(𝑥 = 0) = 0

∫ 𝑓(𝑥) = 1
−∞
𝑏

𝑃(𝑎 ≤ 𝑥 ≤ 𝑏) = 𝑃(𝑎 < 𝑥 < 𝑏) = ∫ 𝑓(𝑥)


𝑎
Entre las distribuciones de probabilidad se la uniforme continua, la exponencial, la normal, la
Weibull, la Chi-cuadrada y la Erlang.

3.4 Métodos para generar variables aleatorias

Método de la transformada inversa: Consiste en emplear la distribución acumulada 𝐹(𝑥) de


la distribución de probabilidad a simular por medio de integración; como el rango de 𝐹(𝑥) se
encuentra en el intervalo de cero (0) a uno (1), se debe generar un número aleatorio 𝑟𝑖 para luego
determinar el valor de la variable aleatoria cuya distribución acumulada es igual a 𝑟𝑖. El
problema de este método radica en el hecho que algunas veces se dificulta demasiado la
consecución de la transformada inversa.

57
Método de convolución: Permite generar una distribución a partir de la suma de distribuciones
más elementales o mediante la transformada Z.

Método de aceptación y rechazo: Cuando 𝑓(𝑥) es una función acotada y 𝑥 tiene un rango
finito, como a 𝑥 𝑏, se utiliza este método para encontrar los valores de las variables
aleatorias.

El método consiste en normalizar el rango de f mediante un factor de escala c, luego definir a x


como una función lineal de r, después se generan parejas de números aleatorios 𝑟1, 𝑟2 y por
último si el número encontrado se elige al azar dentro del rango (𝑎, 𝑏) 𝑦 𝑟 𝑐𝑓 (𝑥) se acepta,
en caso contrario se rechaza. El problema de este método es la cantidad de intentos que se
realizan antes de encontrar una pareja exitosa.

Método de composición: Con este método la distribución de probabilidad f(x) se expresa como
una mezcla o composición de varias distribuciones de probabilidad fi(x) seleccionadas
adecuadamente.

Procedimientos especiales: Existen algunas distribuciones estadísticas de probabilidad en las


cuales es posible emplear sus propiedades para obtener expresiones matemáticas para la
generación de variables aleatorias en forma eficiente. En varios casos se aplica el Teorema
Central del Límite y en otros se utiliza el método directo para encontrar las variables aleatorias.

3.4.1 Método de la transformada inversa.


El método de la transformada inversa puede utilizarse para simular variables aleatorias
continuas, lo cual se logra mediante la función acumulada 𝑓(𝑥) y la generación de números
Pseudoaleatorios 𝑟𝑖 ~𝑈 (0,1).

 Definir la función de Densidad 𝑓(𝑥) que representa la variable a modelar.


 Calcular la función acumulada 𝑓(𝑥).
 Despejar la variable aleatoria 𝑥 y obtener la función acumulada inversa 𝑓(𝑥)−1

58
 Generar las variables aleatorias 𝑥, sustituyendo valores con números Pseudoaleatorios
𝑟𝑖 ~𝑈 (0,1) en la función acumulada inversa. 𝐹(𝑥) = 𝑅 ó 𝑥 = 𝐹 −1 (𝑅)

Ejemplo: La distribución uniforme

A partir de la función de la densidad de las variables aleatorias uniformes entre a y b

1
𝑓(𝑥) = 𝑎≤𝑥≤𝑏
𝑏−𝑎

Se obtiene la función acumulada


𝑥
1 𝑥−𝑎
𝐹(𝑥) = ∫ 𝑑𝑥 = 𝑎≤𝑥≤𝑏
0 𝑏−𝑎 𝑏−𝑎

Igualando la función acumulada 𝐹(𝑥) con el número Pseudoaleatorios y despejando a 𝑥

𝑥−𝑎
=𝑅
𝑏−𝑎

𝑥 = 𝑎 + (𝑏 − 𝑎)𝑅

Ejemplo1

La temperatura de un calefactor se comporta unifórmenme dentro del rango de 95-100 Co.


Compruebe esta condición utilizando la ecuación de la distribución uniforme.

Datos: a= 95 C, b= 100 C.

59
Al generar los números aleatorios y sustituir en la ecuación se obtienen las siguientes mediciones
que se muestran en la tabla siguiente 3.4.1, además se muestra la gráfica de los rangos dentro
de los límites permitidos de temperatura.

Comportamiento de la medición

Variacion de la Temperatura
101
100 99.852
99.459 99.197
99 98.68
98 98.243
97.357 97.43897.552
97 96.859
96.298 96.41796.525 96.197
96
95.461 95.157
95
94
93
92
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Temperatura

Figura 3.4.1

𝑥 = 95 + (100 − 95)𝑟𝑖

Tabla 3.41
Datos del problema A=95 B=100
Medición No Aleatorio Temperatura
1 0.092153592 95.461
2 0.471401819 97.357
3 0.970380946 99.852
4 0.648670514 98.243
5 0.735904367 98.680
6 0.259601273 96.298
7 0.891811735 99.459
8 0.487690208 97.438
9 0.51033388 97.552
10 0.839493295 99.197
11 0.031388969 95.157
12 0.283466358 96.417
13 0.305078094 96.525
14 0.371888104 96.859
15 0.239365786 96.197

60
Ejemplo práctico. Aplicando la distribución exponencial

Los datos del tiempo de servicio en la caja de un banco se comportan de forma exponencial con
media de 3 minutos/cliente. Una lista de números Pseudoaleatorios 𝑅𝑖 ~𝑈 (0,1) y la ecuación
generadora exponencial 𝑥𝑖 = −3𝐼𝑛 (1 − 𝑅𝑖) nos permite simular el comportamiento de la
variable aleatoria

Cliente Aleatorio T servicio(min)


1 0.13498128 0.435
2 0.78029698 4.546
3 0.59452072 2.708
4 0.44125147 1.746
5 0.94712341 8.819
6 0.69025104 3.516
7 0.91437197 7.373
8 0.9660856 10.152
9 0.87115293 6.147
10 0.58708028 2.654
11 0.58706789 2.653
12 0.08833466 0.277
Distribución de Bernoulli

A partir de la distribución de probabilidad de las variables aleatorias de Bernoulli con media

𝑝(𝑥) = 𝑝 𝑥 (1 − 𝑝)1−𝑥 𝑝𝑎𝑟𝑎 𝑥 = 0,1

Se calculan las probabilidades para 𝑥 = 0, , 𝑥 = 1, para obtener

x 0 1
𝑝(𝑥) 1-p p

Para calcular el valor acumulado


x 0 1
𝑝(𝑥) 1-p 1

Generando números Pseudoaleatorios 𝑟𝑖 ~𝑈(0,1) se aplica la regla

𝑠𝑖 𝑟𝑖 ∈ (0,1 − 𝑝) 𝑥 = 0
𝑥𝑖 = {
𝑠𝑖 𝑟𝑖 ∈ (1 − 𝑝, 0) 𝑥 = 1

61
Ejemplo. Los datos históricos sobre la frecuencia de cierta maquina muestra que existe una
probabilidad de 0.20 de que la maquina falle (x=1), y una probabilidad de 0.80 de que siga
funcionando (x=0) en un tiempo determinado. Genere una secuencia aleatoria y simule el
comportamiento

x 0 1
𝑝(𝑥) 0.8 0.2
𝑃(𝑥) 0.8 1.0

La regla para generar las variables aleatorias está dada por la siguiente función.

𝑠𝑖 𝑟𝑖 ∈ (0, −0,80) 𝑥 = 0
𝑥𝑖 = {
𝑠𝑖 𝑟𝑖 ∈ (0.80 − 1) 𝑥 = 1

Evaluando para 10 días se obtiene un comportamiento favorable

Día Ri Xj Suceso
1 0.67236364 0 En servicio
2 0.61566166 0 En servicio
3 0.9446116 1 fallo
4 0.45160881 0 En servicio
5 0.78865119 0 En servicio
6 0.58441702 0 En servicio
7 0.60997286 0 En servicio
8 0.8116595 1 fallo
9 0.24880213 0 En servicio
10 0.36531886 0 En servicio

Distribución Poisson

El número de piezas que entran a un sistema de producción sigue una distribución de Poisson
con media de 2 piezas por hora. Simular el comportamiento de la llegada de las piezas al
sistema

𝜆𝑥 𝑒 −𝜆
𝑝(𝑥) = , 𝑝𝑎𝑟𝑎 𝑥 = 0,1,2,3, , ,,
𝑥!

62
Sustituyendo valores en la ecuación se tiene

2𝑥 𝑒 −2
𝑝(𝑥) = 𝑝𝑎𝑟𝑎 𝑥 = 0,1,2,3, , ,,
𝑥!

Evaluando la ecuación con respecto a 𝑥 se tiene:


x p(x) P(x) acumulada Intervalos
0 0.13534 0.13534 0.00000- 0.13534
1 0.27067 0.40601 0.13534- 0.40601
2 0.27067 0.67668 0.40601- 0.67668
3 0.18045 0.85712 0.67668- 0.85712
4 0.09022 0.94735 0.85712- 0.94735
5 0.03609 0.98344 0.94735- 0.98344
6 0.01203 0.99547 0.98344- 0.99547
7 0.00344 0.99890 0.99547- 0.99890
8 0.00086 0.99976 0.99890- 0.99976
9 0.00019 0.99995 0.99976- 0.99995
10 0.00004 0.99999 0.99995- 0.99999
11 0.00001 1.00000 0.99999- 1.00000

Al general números aleatorios y buscar en el rango de intervalos se tiene en número de piezas


que llegan por hora.

Hora Aleatorio Piezas/hora


1 0.01879799 0
2 0.43158529 2
3 0.51428224 2
4 0.73651129 3
5 0.19912868 2

Por lo tanto la gráfica de distribución de probabilidad tiene el siguiente comportamiento.

Dist. Prob.de Poisson


0.30000

0.20000

0.10000

0.00000
1 2 3 4 5 6 7 8 9 10 11 12

Grafica No.1
63
Grafica de datos acumulados

Dist. prob Acum Poisson


1.20000

1.00000

0.80000

0.60000

0.40000

0.20000

0.00000
0 2 4 6 8 10 12 14

Grafica No.2
3.4.2 Método de convolución.
𝑡

𝑇𝐿−1 {𝐹, 𝐺} → 𝑓, 𝑔 = ∫ 𝑓(𝑢)𝑔(𝑡 − 𝑢)𝑑𝑢


0

Suponiendo que es el producto de dos transformada son, y aplicando el teorema de convolución

𝑡
1
𝑇𝐿−1 { } → ∫ 𝜀 3𝑢 𝜖 2(𝑡−𝑢) 𝑑𝑢
(𝑠 − 3)(𝑠 − 2
0

Integrando la transformada y aplicando algebra

𝑡 𝑡
3𝑢 2𝑡 −2𝑢
∫𝑒 𝑒 𝑒 =𝑒 2𝑡
∫ 𝑒 𝑢 𝑑𝑢 = 𝑒 2𝑡 [𝑒 𝑢 ]𝑡0 = 𝑒 2𝑡 [𝑒 𝑡 − 1] = 𝑒 3𝑡 − 𝑒 2𝑡
0 0

Igualando a R la función de densidad y despejando a t.

En algunas distribuciones de probabilidad la variable aleatoria a simular Y, puede generarse


mediante la suma de otras variables aleatorias X de manera más rápida que a través de otros
métodos como se muestra a continuación.

𝑌 = 𝑋1 + 𝑋2 + ⋯ … + 𝑋𝑛

64
Para este ejemplo se utilizara de distribución de probabilidad Erlang

𝑌 = 𝑋1 + 𝑋2 + ⋯ … + 𝑋𝑛
1 1 1
𝑌=− ln(1 − 𝑟𝑖 ) − ln(1 − 𝑟2 ) − ⋯ − ln(1 − 𝑟𝑘 )
𝑘𝜆 𝑘𝜆 𝑘𝜆
Factorizando la ecuación
1
𝑌=− [ln(1 − 𝑟𝑖 ) + ln(1 − 𝑟2 ) + ⋯ + ln(1 − 𝑟𝑘 )]
𝑘𝜆
Aplicando propiedad de logaritmo natural
1
𝑌=− [ln((1 − 𝑟𝑖 ) (1 − 𝑟2 ) … (1 − 𝑟𝑘 ))]
𝑘𝜆
1
Simplificando ecuación 𝑌 = 𝐸𝑅 = − 𝑘𝜆 [ln ∏𝑘𝑖=1(1 − 𝑟𝑖 )]

Ejemplo

1
El tiempo de proceso de una pieza sigue una distribución 3-erlang con media 𝜆 = 8 𝑚𝑖𝑛/𝑝𝑧𝑎.

Realice una Simulación para ver el comportamiento.

Sustituyen valores en la ecuación se tiene la siguiente expresión

8
𝑌 = − [ln((1 − 𝑟𝑖 ) (1 − 𝑟2 ) … (1 − 𝑟𝑘 ))]
3

Tabla de No. 3.4.2 Simulación del tiempo de proceso

Tiempo de proceso
Pieza 1-ri 1-ri 1-ri min/pza
1 0.7095 0.1182 0.7671 7.52
2 0.1839 0.4395 0.8532 7.20
3 0.1368 0.6144 0.6321 5.60
4 0.3338 0.0294 0.0666 1.35
5 0.3497 0.4844 0.7250 6.36
6 0.5914 0.0989 0.1370 3.06
7 0.1273 0.7429 0.5826 6.32
8 0.9980 0.4340 0.2236 18.71
9 0.6312 0.7757 0.1438 7.06
10 0.6307 0.5769 0.8005 9.25

65
3.4.3 Método de composición.

Otro método para generar valores de variables aleatorias no uniforme es el método de


composición. Mediante el método de la distribución de probabilidad 𝑓(𝑥) y se expresa como
una mezcla de varias distribuciones seleccionadas adecuadas.
El procedimiento para la selección de las 𝑓(𝑥) se basa en el objetivo de minimizar el tiempo
de computación requerido para generación de valores de la variable aleatoria analizada.

Los pasos para esta aplicación son los siguientes.

1. Dividir la distribución de probabilidad original en sub-áreas tal como se muestra en la


siguiente figura 3.4.1.
2. Definir una distribución de probabilidad para cada sub-área
3. Expresar la distribución de probabilidad original de la forma siguiente
4. Obtener la distribución acumuladas de las áreas
5. Generar dos números aleatorios
6. Seleccionar la distribución de probabilidad
7. Utilizar el número aleatorio para simular por método de la transformada inversa

𝑓(𝑥) = 𝐴1 𝑓1 (𝑥) + 𝐴2 𝑓2 (𝑥) + ⋯ . +𝐴𝑛 𝑓𝑛 (𝑥) 𝑦 ∑ 𝐴𝑖 = 1

Figura 3.4.1

66
Figura 3.4.2

El método de composición se basa en expresar la densidad de la variable a simular como una


suma ponderada de densidades para las cuales sea sencillo aplicar el método de inversión. El
proceso de simulación se dividirá en dos partes; en primer lugar, se elige de acuerdo con los
pesos de cada densidad, una de ellas, y en segundo lugar, se aplica el método de inversión
utilizando la función de distribución correspondiente a la densidad elegida.

Teorema: Sea 𝑓𝑥/𝑦 (𝑥/𝑦) la función de densidad de una variable X condicionada a otra
variable Y con una distribución 𝐹𝑦(𝑥) y densidad 𝑓𝑦(𝑦). Si simulamos un valor y de Y y luego
simulamos un valor de X utilizando la densidad obtenida a partir de 𝑓𝑥/𝑦 para 𝑌 = 𝑦, entonces
la distribución de los valores de X tienen una densidad de:

𝑓𝑥
= ∫ 𝑓𝑥/𝑦(𝑥⁄𝑦)𝑓𝑦(𝑦)𝑑𝑦
𝑦 −∞

Si Y es discreta con función masa de probabilidad 𝑝𝑦(𝑦), entonces

𝑓𝑥(𝑥) = ∑ 𝑓𝑋/𝑌(𝑥 ⁄ 𝑦) 𝑝(𝑦)


𝑦

67
Ejemplo. Distribución Triangular

A partir de la función de densidad triangular

𝑏−𝑎
𝐴1 =
𝑐−𝑎

𝑐−𝑏
𝐴2 =
𝑐−𝑎

Se determina las distribuciones de probabilidad y la distribución acumuladas

Área 1

2
𝑓1(𝑥) = (𝑥 − 𝑎)
(𝑏 − 𝑎)2

(𝑐 − 𝑎)2
𝐹1 (𝑥) =
(𝑏 − 𝑎)2

68
Área 2

−2
𝑓2(𝑥) = (𝑥 − 𝑐)
(𝑐 − 𝑏)2

(𝑥 − 𝑐)2
𝐹2 (𝑥) = 1 −
(𝑐 − 𝑏)2

2
(𝑥 − 𝑎) 𝑎 ≤ 𝑥 ≤ 𝑏
(𝑏 − 𝑎)2
𝑓(𝑥)𝑖 =
2
(𝑥 − 𝑐) 𝑏 ≤ 𝑥 ≤ 𝑐
{ (𝑐 − 𝑏)2

Sumando las dos funciones de distribución de probabilidad y multiplicando por sus áreas
respectivas se tiene.

𝑏−𝑎 2 𝑐−𝑏 2
𝑓(𝑥) = ( ) 2
(𝑥 − 𝑎 + ( ) (𝑥 − 𝑐)
𝑐 − 𝑎 (𝑏 − 𝑎) 𝑐 − 𝑎 (𝑐 − 𝑏)2

Simplificando la ecuación

2 2
𝑓(𝑥) = (𝑥 − 𝑎) + (𝑥 − 𝑐)
(𝑐 − 𝑎)(𝑏 − 𝑎) (𝑐 − 𝑎)(𝑐 − 𝑏)

Calculo de la función de densidad por integración de cada uno de los segmento

(𝑥 − 𝑎)2
= 𝑟𝑖
(𝑏 − 𝑎)2

69
(𝒄 − 𝒂)
𝒙 = 𝒂 + (𝒃 − 𝒂)√𝒓𝒊 𝒓𝒊 ≤
(𝒃 − 𝒂)

(𝑐 − 𝑥)2
1− = 𝑟𝑖
(𝑐 − 𝑏)2

(𝒄 − 𝒂)
𝒙 = 𝒄 − (𝒄 − 𝒃)√𝟏 − 𝒓𝒊 𝒓𝒊 >
(𝒃 − 𝒂)

Ejemplo. Generar una muestra de 7 variables con distribución triangular a partir de los
parámetros, valor mínimo 5, moda 10y valor máximo 20

Variable 𝒓𝒊 𝒓𝒊 𝒂 + (𝒃 − 𝒂)√𝒓𝒊 𝒄 − (𝒄 − 𝒃)√𝟏 − 𝒓𝒊


1 0.18487676 0.32863419 7.15
2 0.79471215 0.11195084
3 0.10892633 0.77060772 6.65 15.21
4 0.81508469 0.23027449
5 0.03782456 0.26985786 5.97
6 0.24536204 0.94327697 7.48 11.31
7 0.81798245 0.90381079 15.73

3.5 Procedimientos especiales


Existen diferentes tipos de métodos para generar variables aleatorias, pero también existen casos
especiales para generar estas los cuales son:

 La Distribución De Poisson
 La Distribución Binomial
 La Distribución Erlang

La Distribución Erlang es una distribución de probabilidad continua con una amplia


aplicabilidad debido principalmente a su relación con la exponencial y la distribución gamma
dada por la suma de un número de variables aleatorias independientes que poseen la misma
distribución exponencial.

70
3.6 Pruebas estadística. (Pruebas de bondad de ajuste)
Cuando se realizan investigaciones, con frecuencias importantes obtener información a través
de una muestra. Algunos estudios producen resultados sobre los que no podemos afirmar que se
distribuyen.

En estos casos debemos emplear técnicas no paramétricas que se utilizan ampliamente en las
aplicaciones de las ciencias sociales, cuando se pueden asumir a priori que los datos de una
muestra se ajusten a una distribución normal. Ahora nos ocuparemos del problema de verificar
si de un conjunto de datos se pueden afirmar que proviene de un conjunto de datos
uniformemente distribuidos.

Ejemplo

Una moneda fue lanzada al aire 1000 en series de 5 veces cada serie y se observó el número de
caras de cada serie. El número de series en los que se presentaron 0, 1, 1, 3, 4 y 5 caras como se
muestra en la siguiente tabla.

Número de caras Número de series (frecuencia observada)

0 38

1 144

2 342

3 287

4 164

5 25

Total 1000
Ajustar una distribución binomial a los datos con un = 0.05.

Solución:

 H0; Los datos se ajustan a una distribución binomial.


 H1; Los datos no se ajustan a una distribución binomial.

71
Para obtener los valores esperados se tiene que utilizar la fórmula de la distribución binomial
𝑛
( ) 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥 donde n en este ejercicio vale 5, p y q son las probabilidades respectivas
𝑥
de cara y sello en un solo lanzamiento de la moneda. Para calcular el valor de p, se sabe que
𝜇 = 𝑛𝑝 en una distribución binomial, por lo que 𝜇 = 𝑛𝑝 = 5𝑝.

Para la distribución de frecuencias observada, la media del número de caras es:

∑ 𝑓𝑥 2470
𝜇= = = 2.47
∑ 𝑓 𝑛 1000

Tomando la ecuación 𝜇 = 5𝑝 y despejando 𝑝 se determina el valor de p y q

𝜇 2.47
𝑝= = = 0.494
5 5

5
( ) . 494𝑥 (1 − .494)5−𝑥
𝑥

Al seguir esta fórmula se calcula la probabilidad de obtener caras, según el valor de la variable
aleatoria. La probabilidad multiplicada por 1000 nos dará el valor esperado. Se resumen los
resultados en la tabla siguiente. 𝐹𝐸 = 1000𝑝

Número de caras (x) P(x caras) Frecuencia observada Frecuencia esperada

0 0.0332 38 33.2

1 0.1619 144 161.9

2 0.3162 342 316.2

3 0.3087 287 308.7

4 0.1507 164 150.7

5 0.0294 25 29.4
Para los grados de libertad el valor de 𝑚 =1, ya que se tuvo que estimar la media de la población
para poder obtener el valor de p y así poder calcular los valores esperados.

Grados de libertad: 𝑘 − 1 − 𝑚 = 6 − 1 − 1 = 4

72
Regla de decisión:

Si 𝑋𝑟2 ≤ 9.49 no se rechaza Ho.

Si 𝑋𝑟2 > 9.49 se rechaza Ho.

((38 − 33.2)2 + (144 − 161.9)2 + (342 − 316.2)2 + (287 − 308.7)2 + (164 − 150.7)2 + (25 − 29.4)2 )
𝜒𝑟2 =
33.2 + 161.9 + 316.2 + 308.7 + 150.7 + 29.4

𝜒𝑟2 = 7.54

Como el 7.54 no es mayor a 9.49, no se rechaza Ho y se concluye con un

𝛼= 0.05 que el ajuste de los datos a una distribución binomial es bueno.

73
Unidad 4

Lenguajes de simulación
Objetivo.

Conocerá la diferencia entre los lenguajes de propósito general y de propósitos especiales para
aplicarse en simulación.

74
Lenguajes de simulación
4.1 Lenguaje de simulación y simuladores
En un principio, los programas de simulación se elaboraban utilizando algún lenguaje de
propósito general, como ASSEMBLER, FORTRAN, ALGOL o PL/I. A partir de la década de
1960 hacen su aparición los lenguajes específicos para simulación como GPSS, GASP,
SIMSCRIPT, SLAM. En la última década del siglo pasado la aparición de las interfaces gráficas
revolucionaron el campo de las aplicaciones en esta área, y ocasionaron el nacimiento de los
simuladores.

En lo práctico, es importante utilizar la aplicación que mejor se adecúe al tipo de sistema a


simular, ya que de la selección del lenguaje o simulador dependerá el tiempo de desarrollo del
modelo de simulación. Las opciones van desde las hojas de cálculo, lenguajes de tipo general
(como Visual Basic, C++ o Fortan), lenguajes específicos de simulación (como GPSS, SLAM,
SIMAN, SIMSCRIPT, GAS y SSED), hasta simuladores específicamente desarrollados para
diferentes objetivos (como SIMPROCESS, ProModel, Witness, Taylor II y Cristal Ball).

4.2 Aprendizaje y uso lenguaje de simulación o un simulador


Los lenguajes de simulación facilitan enormemente el desarrollo y ejecución de simulaciones
de sistemas complejos del mundo real. Los lenguajes de simulación son similares a los lenguajes
de programación de alto nivel pero están especialmente preparados para determinadas
aplicaciones de la simulación. Así suelen venir acompañados de una metodología de
programación apoyada por un sistema de símbolos propios para la descripción del modelo por
ejemplo mediante diagramas de flujo u otras herramientas que simplifican notablemente la
modelización y facilitan la posterior depuración del modelo.

Características de los lenguajes de simulación:

 Los lenguajes de simulación proporcionan automáticamente las características


necesarias para la programación de un modelo de simulación, lo que redunda en una
reducción significativa del esfuerzo requerido para programar el modelo.

75
 Proporcionan un marco de trabajo natural para el uso de modelos de simulación. Los
bloques básicos de construcción del lenguaje son mucho más afines a los propósitos de
la simulación que los de un lenguaje de tipo general.
 Los modelos de simulación son mucho más fácilmente modificables.
 Proporcionan muchos de ellos una asignación dinámica de memoria durante la
ejecución.
 Facilitan una mejor detección de los errores.
 Los paquetes de software especialmente diseñados para simulación contienen
aplicaciones diversas que facilitan al simulador las tareas de comunicaciones, la
depuración de errores sintácticos y de otro tipo de errores, la generación de escenarios,
la manipulación “on-line” de los modelos, etc.
 Son muy conocidos y en uso actualmente
 Aprendizaje lleva cierto tiempo
 Simuladores de alto nivel
 Muy fáciles de usar por su interface gráfica
 Restringidos a las áreas de manufactura y comunicaciones
 Flexibilidad restringida puede afectar la validez del modelo

4.3 Casos prácticos de simulación


Un caso práctico de una simulación podemos decir en esta parte, la simulación del Método de
Monte Carlo.

Algoritmos

El algoritmo de Simulación Monte Carlo Crudo o Puro está fundamentado en la generación de


números aleatorios por el método de Transformación Inversa, el cual se basa en las
distribuciones acumuladas de frecuencias:

 Determinar las V.A. y sus distribuciones acumuladas (F)


 Generar un número aleatorio uniforme U (0,1).

76
 Determinar el valor de la V.A. para el número aleatorio generado de acuerdo a las clases
que tengamos.
 Calcular media, desviación estándar error y realizar el histograma.
 Analizar resultados para distintos tamaños de muestra

4.3.1 Problemas con líneas de espera.


Parte de nuestra vida diaria es la de esperar algún servicio. Esperamos para entrar a un
restaurante, “hacemos cola” en la caja de algún almacén y “nos formamos” y nos formamos
para recibir un servicio en la oficina de correos. Y el fenómeno de la espera no es una experiencia
que se limite solo a los humanos. Los trabajos esperan a ser procesados en una máquina, los
aviones vuelan en círculo hasta que la torre de control les da permiso de aterrizar y los
automóviles se detienen ante la luz roja de los semáforos.

4.3.2 Problemas con sistemas de inventario.


Las empresas mantienen inventarios de materias primas y de productos terminados. Los
inventarios de materias primas sirven como entradas al proceso de producción y los inventarios
de productos terminados sirven para satisfacer la demanda de los clientes. Puesto que estos
inventarios representan frecuentemente una considerable inversión, las decisiones con respecto
a las cantidades de inventarios son importantes. Los modelos de inventario y la descripción
matemática de los sistemas de inventario constituyen una base para estas decisiones.

4.4 Validación de un simulador


A través de esta etapa es valorar las diferencias entre el funcionamiento del simulador y el
sistema real que se está tratando de simular. Las formas más comunes de validar un modelo son:

 La opinión de expertos sobre los resultados de la simulación.


 La exactitud con que se predicen datos históricos.
 La exactitud en la predicción del futuro.
 La comprobación de falla del modelo de simulación al utilizar datos que hacen fallar al
sistema real.

77
 La aceptación y confianza en el modelo de la persona que hará uso de los resultados que
arroje el experimento de simulación.

4.4.1 Pruebas paramétricas (V. del modelo, pruebas de hipót y pruebas de estimación)3.
Las pruebas estadísticas paramétricas, como la de la “t” de Student o el análisis de la varianza
(ANOVA), se basan en que se supone una forma determinada de la distribución de valores,
generalmente la distribución normal, en la población de la que se obtiene la muestra
experimental.

En contraposición de la técnicas no paramétricas, las técnicas paramétricas si presuponen una


distribución teórica de probabilidad subyacente para la distribución de los datos. Son más
potentes que las no paramétricas.

Dentro de las pruebas paramétricas, las más habituales se basan en la distribución de


probabilidad normal, y al estimar los parámetros del modelo se supone que los datos constituyen
una muestra aleatoria de esa distribución, por lo que la elección del estimador y el cálculo de la
precisión de la estimación, elementos básicos para construir intervalos de confianza y contrastar
hipótesis, dependen del modelo probabilístico supuesto.

Cuando un procedimiento estadístico es poco sensible a alteraciones en el modelo probabilístico


supuesto, es decir que los resultados obtenidos son aproximadamente válidos cuando éste varía,
se dice que es un procedimiento robusto.

4.4.2 Pruebas no paramétricas


Las pruebas estadísticas no paramétricas son las que, a pesar de basarse en determinadas
suposiciones, no parten de la base de que los datos analizados adoptan una distribución normal.

Técnica estadística que no presupone ninguna distribución de probabilidad teórica de la


distribución de nuestros datos.

3
Validación del modelo, pruebas de hipótesis y pruebas de estimación
78
1. Contraste de signos e intervalo de confianza
2. Contraste de signos de muestras pareadas o enlazadas
3. Aproximaci6n normal
4. Contraste de signos de una mediana poblacional
5. Intervalo de confianza de la mediana
6. Contraste de Wilcoxon basado en la ordenaci6n de las diferencias Minitab (contraste de
Wilcoxon)
7. Aproximaci6n normal
8. Contraste U de Mann-Whitney
9. Contraste de la suma de puestos de Wilcoxon
10. Correlaci6n de orden de Spearman

Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de


probabilidad para los datos, por ello se conocen también como de distribución libre (distribución
free).

En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir de


procedimientos de ordenación y recuento, por lo que su base lógica es de fácil comprensión.

Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer
la normalidad de los datos, conviene utilizar pruebas no paramétricas, al menos para corroborar
los resultados obtenidos a partir de la utilización de la teoría basada en la normal.

En estos casos se emplea como parámetro de centralización la mediana, que es aquel punto para
el que el valor de X está el 50% de las veces por debajo y el 50% por encima.

Las pruebas no paramétricas no requieren asumir normalidad de la población y en su mayoría


se basan en el ordenamiento de los datos, la población tiene que ser continua.

El parámetro que se usa para hacer las pruebas estadísticas es la Mediana y no la Media.

Son técnicas estadísticas que no presuponen ningún modelo probabilístico teórico.

79
Son menos potentes que las técnicas paramétricas, aunque tienen la ventaja que se pueden
aplicar más fácilmente.

Ejemplo: Contraste de signos de muestras pareadas o enlazadas

Un restaurante italiano cercano a un campus universitario está considerando la posibilidad de


utilizar una nueva receta para hacer la salsa que utiliza en las pizzas. Se elige una muestra
aleatoria de 8 estudiantes y se pide a cada uno que valore en una escala de 1 a 10 su opinión
sobre la salsa original y sobre la salsa propuesta. La Tabla 4.2.2 muestra las valoraciones
obtenidas en la comparación; los números más altos indican que gusta más el producto. ¿Indican
los datos una tendencia general a preferir la nueva salsa a la original?

La Tabla 4.2.2 también muestra las diferencias de valoración de los estudiantes y los signos de
estas diferencias. As!, se asigna un + si se prefiere la salsa original, un si se prefiere la nueva y
si se valoran los dos productos por igual. En este experimento, dos estudiantes prefieren la salsa
original y cinco la nueva; uno las valora por igual.

Producto Producto Diferencia Signo


Estudiante original nuevo (original-nuevo) de la diferencia
A 6 8 -2 (-)
B 4 9 -5 (-)
C 5 4 1 (+)
D 8 7 1 (+)
E 3 9 -6 (-)
F 6 9 -3 (-)
G 7 7 0 0
H 5 9 -4 (-)

La hipótesis nula de interés es que en la población en general no hay una tendencia general a
preferir un producto al otro. Para evaluar esta hipótesis, comparamos los números que expresan
una preferencia por cada producto, descartando los que valoran los productos por igual.

80
En este ejemplo, los valores del estudiante G se omiten y el tamaño efectivo de la muestra se
reduce a n = 7. La única información muestral en la que se basa nuestro contraste es que dos de
los siete estudiantes prefieren el producto original. Por 10 tanto, el estadístico del contraste es
S= 2

La hipótesis nula puede concebirse como la hipótesis de que la mediana poblacional de las
diferencias es 0. Si la hipótesis nula fuera verdadera, nuestra secuencia de diferencias + y -
podría concebirse como una muestra aleatoria extraída de una población en la que las
probabilidades de + y - son 0,5 cada una.

Ho: P = 0,5 No hay una tendencia general a preferir uno de los productos al otro

Se utiliza un contraste de una cola para averiguar si existe una tendencia general a preferir la
nueva salsa a la original. La alternativa de interés es que la mayoría de la población prefiere el
nuevo producto.

H1: P < 0,5 La mayoría prefiere el nuevo producto (0 menos del 50% prefiere el producto
original).

A continuación, hallamos la probabilidad de observar en la muestra un resultado tan extremo 0


más que el que se obtendría si la hipótesis nula fuera, en realidad, verdadera. Este valor es e! p-
valor del contraste. Si representamos por medio de P(x) la probabilidad de observar x «éxitos»
(+) en n = 7 pruebas binomiales, cada una con una probabilidad de éxito de 0,5, entonces la
probabilidad binomial acumulada de observar dos o menos + puede obtenerse utilizando la
formula binomial, una tabla binomial 0 un programa informático como Microsoft Excel.
𝑃 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃(𝑥 ≤ 2) = 𝑃(𝑥 = 0) + 𝑃(𝑥 = 1) + 𝑃(𝑥 = 2)
𝑃 − 𝑣𝑎𝑙𝑜𝑟 = 0,0078 + 0,0547 + 0,1641 = 0,2266
Con un p-valor tan grande, no podemos rechazar la hipótesis nula y concluimos que los datos
no son suficientes para sugerir que los estudiantes prefieren la nueva salsa. Asimismo,
podríamos haber dicho que si adoptamos la regia de decisión «rechazar Ho si hay dos 0 menos
+ en la muestra», entonces la probabilidad de que la hipótesis nula se rechace cuando en realidad
es verdadera es 0,2266.

81
Unidad 5

Proyecto Integrador

Objetivo.

Aplicará los lenguajes de propósito general y especial para resolver problemas de simulación en
modelos de líneas de espera, inventarios, producción y mantenimiento en las empresas.

82
Proyecto Integrador

5.1 Análisis, modelado y simulación de un sistema o subsistema de


servicios o productivo de una empresa para detectar las mejoras posibles
a realizar.
Metodología del proyecto

I.- EL PROBLEMA.
A. Título descriptivo del proyecto.
B. Formulación del problema.
C. Objetivos de la investigación.
D. Justificación.
E. Limitaciones

II.-MARCO DE REFERENCIA.
A. Fundamentos teóricos.
B. Antecedentes del problema.
C. Elaboración de Hipótesis.
D. Identificación de las variables.

III.-METODOLOGÍA.
A. Diseño de técnicas de recolección de información.
B. Población y muestra.
C. Técnicas de análisis.
D. Índice analítico tentativo del proyecto.
E. Guía de trabajo de campo.

IV. Solución del problema


A. Propuestas de mejora

V.-ASPECTOS ADMINISTRATIVOS.
A. Recursos humanos.
B. Presupuesto.
C. Cronograma.

VI. Conclusión y recomendaciones

Bibliografía

83
Realizar un cronograma de las actividades y el tiempo como será ira entregando los avances del
proyecto.

Actividades Tiempo de realización


Agosto Septiembre Octubre Noviembre Diciembre

84
Cuestionario 1
1. ¿A qué se le llama número(s) Pseudoaleatorios(s)?

A una sucesión determinística de números en el intervalo [0, 1] que tiene las mismas propiedades
estadísticas que una sucesión de números aleatorios.

2. ¿Por qué se les llama números Pseudoaleatorios?

Porque con predecibles y se pueden reproducir, dado el número aleatorio generador que se use.

3. ¿Qué son los números aleatorio?

Son un elemento básico en la simulación de la mayoría de los sistemas discretos.

4. ¿Qué quiere decir ri?

Significa Número aleatorio

5. ¿Qué representa cada número aleatorio ri?

Es una muestra independiente de una distribución uniforme y continua en el intervalo (0, 1).

6. ¿Qué punto en el rango tiene posibilidad de ser elegido?

Todo punto en el rango tiene igual probabilidad de ser elegido.

7. ¿Qué se necesita para empezar a calcular los números aleatorios?

Son calculados a partir de una semilla (Seed) y una fórmula.

8. ¿Cuántas y cuales hipótesis debe de cumplir la secuencia de números generados?

Son 2 hipótesis y son:

 Distribución Uniforme.
 Independencia (No Correlacionados).

9. ¿Cuántos y cuáles aspectos son importantes?

Son 3 aspectos y son:

 Las subsecuencias también deben cumplir las 2 hipótesis.

85
 Deben ser secuencias largas y sin huecos (Densas).
 Algoritmos rápidos y que no ocupen mucha memoria.

10. ¿En cuántas categorías se pueden dividir los números aleatorios?

En 2 categorías principales.

11. ¿Menciona y explica cuáles son las 2 categorías principales en las que se pueden dividir los
números aleatorios?

 NÚMEROS ALEATORIOS ENTEROS: Es una observación aleatoria de una


distribución uniforme discretizada en el intervalo n, n + 1…
 Por lo general, n = 0 ó 1 donde estos son valores convenientes para la mayoría de las
aplicaciones.
 NÚMERO ALEATORIOS UNIFORMES: Es una observación aleatoria a partir de una
distribución uniforme (Continua) en un intervalo [a, b].

12. ¿Cuántas propiedades mínimas deben satisfacer los números Pseudoaleatorios?

Son 6 propiedades mínimas las que tienen que cumplir.

13. ¿Menciona 4 propiedades mínimas que deben cumplir los números Pseudoaleatorios?

 Ajustarse a una distribución del intervalo (0, 1).


 Ser estadísticamente independientes (no debe deducirse un número conociendo otros ya
generados).
 Ser reproducibles (la misma semilla debe dar la misma sucesión).
 Ciclo repetitivo muy largo.
 Facilidad de obtención.
 Ocupar poca memoria.

14. ¿Cuántas y cuáles son las condiciones que deben satisfacer los números Pseudoaleatorios?

Son 6 condiciones y son:

 Uniformemente distribuidos.
 Estadísticamente independientes.

86
 Reproducibles.
 Sin repetición dentro de una longitud determinada de la sucesión.
 Generación a grandes velocidades.
 Requerir el mínimo de capacidad de almacenamiento.

15. ¿Cómo se encuentra el primer número aleatorio?

La mayoría de los métodos (Generadores) comienzan con un número inicial (Semilla o Seed),
al cual se le aplica un determinado procedimiento para así obtener el primer número aleatorio.

16. ¿Cómo funciona el método del cuadrado medio?

Se comienza con un número inicial (Semilla), el cual se eleva al cuadrado, después de elevarlo
al cuadrado se seleccionan los números del centro (los dígitos que se deseen), los cuales se
pondrán después de un punto decimal y este será el número que conformara el primer número
aleatorio.

Unidad 2

1.-Por ejemplo, compruebe con valores 𝑚 = 25 = 32, 𝑎 = 5, 𝑋𝑜 = 1 𝑦 𝑐 = 3 obtiene la


siguiente secuencia de números, de longitud máxima:

𝑥𝑛+1 = (𝑎𝑥𝑛 + 𝑐)𝑚𝑜𝑑 𝑚

1 8 11 26 5 28 15 14 9 16
19 2 13 4 23 22 17 24 27 10
21 12 31 30 25 0 3 18 29 20
7 6

2.- El standard define para la función de generación de números Pseudoaleatorios los valores
de 𝑐 = 12345, 𝑚 = 32768 𝑦 𝑎 = 1103515245 . Calcule los 10 primeros números
Pseudoaleatorio.

87
FUENTE DE INFORMACIÓN

Bibliografía
Eduardo García Dunna, Heriberto García Reyes, Leopoldo E Cárdenas. Simulación y análisis
de sistemas con ProModel. México. Editorial Pearson.

Charles Harrell, Birman K. Ghosh, Royce Bowden. Uso de simulación ProModel. México.
McGraw-Hill College.

Diaz Redondo, Rebeca; Pazos Arias, José Juan; Suárez González, Andrés. Teoría de Colas y
Simulación de Eventos Discretos. España: Pearson Publicación. 2004

(ISBN: 842053675x).

Guasch, Antoni; Piera, Miguel Ángel; Figueras, Jaime; Casanovas, Joseph. Modelado y
Simulación. Aplicación a Procesos Logísticos de Fabricación y Servicios. España. Ediciones
UPC. 2003.

Banks, Jerry; Carson, John; Nelson, Barry L; Nicol, David. Discrete Event System Simulation.
Estados Unidos de América. Prentice Hall. 2004.

Banks, Jerry; Carson, John; Discrete Event System Simulation. Estados Unidos de América.
Prentice Hall. 1984.

Banks, Jerry; Carson, John; Ngo Sy, John. Getting Started With GPSS/H. Estados Unidos de
América. Wolverine Software Corporation. 1995.

Scheaffer, Richard; McClave, James. Probability and Statistics for Engineers. Estados Unidos
de América. Duxbury Press. 1995.

Banks, Jerry. Principles of Quality Control. Estados Unidos de América. Editorial Wiley. 1989.

Spiegel, Murria. Estadística. España. McGraw Hill. 1991.

Hillier, Frederick; Lieberman, Gerald. Introducción a la Investigación de Operaciones. México.


McGraw Hill. 1992.

88
D. MATHO - R. KARBA - B. ZUPANCIC. Simulation and Modelling of Continuous Systems.
A Case Study Approach. Prentice Hall, Inc., 1992

J. Banks, J.S. Carson, B.L. Nelson, D.M. Nicol. Discrete-event system simulation. Prentice Hall,
3ª Edición, 2001

S.M. Ross. Simulación. 2ª Edición. Prentice Hall, 1999

ARACIL, J.: Introducción a la dinámica de sistemas. Alianza Editorial, 1986.

MARTÍN, J.: Teoría y ejercicios prácticos de Dinámica de Sistemas. , 2003.

MARTÍNEZ, S. y REQUENA, A.: Dinámica de sistemas. Vol. 1. Simulación por ordenador.


Vol. 2. Modelos. Alianza Editorial, 1986.

ALFONSO URQUÍA (2007): "Modelado de Sistemas mediante DEVS - Teoría y Práctica".

B.P. ZEIGLER y H. S. SARJOUGHIAN (2005): Introduction to DEVS Modeling and


Simulation with JAVA: Developing Component-Based Simulation Models.

J.M González Rodríguez. Teoría General de Sistemas. Simulación dinámica de sistemas socio-
económico. Consejería de Educación, Cultura y Deportes. Dirección General de Universidades
e Investigación. Colección Textos Universitarios, 1997

D. Ríos Insua y S. Ríos Insua. Simulación. Métodos y aplicaciones. RA-MA, 1997

Mohammad R. Azarang y E. García Dunna. Simulación y análisis de modelos estocásticos.


McGraw-Hill, 1996

Modelling of dynamical Systems, Ljung, L., Glad J. , Prentice Hall 1994

Fundamentos de simulación de procesos. Cesar de Prada. (en prensa)

Martín Jiménez, Jacinto. "Simulación Métodos y Aplicaciones". Ra-Ma.

Pardo, Leandro Valdés, Teófilo. "Simulación. Aplicaciones prácticas en la Empresa". Díaz de


Santos, 1987.

89
90

You might also like