Professional Documents
Culture Documents
Actualmente se reconoce la importancia de la estad stica aplicada en el desarrollo de investigaciones en muy diversos campos; cada vez son m as los profesionales de diferentes disciplinas que requieren de m etodos estad sticos como muestreo, simulaci on, dise no de experimentos, modelamiento estad stico e inferencia, para llevar a cabo recolecci on, compendio y an alisis de datos y para su posterior interpretaci on. En sismolog a, los m etodos estad sticos son de amplio uso; por ejemplo en la estimaci on del riesgo s smico, predicci on s smica, localizaci on de sismos, determinaci on de magnitudes y cuanticaci on de incertidumbres. Los principales modelos estoc asticos usados para describir los procesos relacionados con los sismos se basan en series de tiempo y procesos puntuales. Los modelos de series de tiempo se usan generalmente para describir procesos que son muestreados en puntos de tiempo discretos, mientras que procesos puntuales se usan para modelar fen omenos que se presentan de manera irregular, sin un patr on temporal, y que pueden ocurrir en cualquier momento o espacio. Por otro lado, y an alogo al proceso de experimentaci on llevado a cabo en laboratorios con el objetivo de aumentar la comprensi on de alguna teor a para su validaci on y empleo posterior, la simulaci on, considerada como un m etodo de experimentaci on controlada, es el proceso de imitaci on de aspectos importantes del comportamiento de un sistema, mediante la construcci on de un modelo implementado en un computador de tal forma que permita generar observaciones dadas ciertas entradas. Con el an alisis estad stico de tales observaciones se estiman medidas del comportamiento del sistema de inter es. Sin embargo, de esta manera no ptimos, sino mas bien, resultados satisfactorios a problemas es posible encontrar resultados o de dif cil, costosa o imposible resoluci on mediante otros m etodos.
Un sistema es una fuente de datos del comportamiento de alguna parte del mundo real. Est a formado por elementos que interactuan para lograr un objetivo, los cuales poseen caracter sticas o atributos, par ametros y variables, que toman valores num ericos o l ogicos. Un sistema puede ser natural o articial, din amico o est atico, estable o inestable, adaptativo o no adaptativo, lineal o no lineal; puede tener variables independientes o dependientes, no controlables o controlables, continuas, discretas o mixtas, no observables u observables. Las reglas que especican la interacci on entre los elementos de un sistema, determinan la forma
19
en que las variables descriptivas cambian con el tiempo. Las variables que describen las entidades, los atributos y las actividades de un sistema en un instante particular de tiempo, que permiten predecir su comportamiento futuro, se denominan variables de estado y sus valores proporcionan el estado del sistema en ese instante, adem as relacionan el futuro del sistema con el pasado a trav es del presente. Si el comportamiento de los elementos del sistema puede predecirse con seguridad, el sistema es determin stico, de lo contrario es estoc astico. Si la probabilidad de encontrarse en alguno de los estados no cambia con el tiempo el sistema es est atico, de lo contrario es un sistema din amico. Si el estado de un sistema cambia s olo en ciertos instantes de tiempo se trata de un suceso discreto, de lo contrario de un suceso continuo. Sea un sistema f sico como por ejemplo la Tierra; o una estructura denida, como por ejemplo la corteza; o un estado de ella, por ejemplo la liberaci on de energ a y reacomodamiento de esfuerzos producidos en un punto determinado (sismo). El inter es puede ser la composici on qu mica en el interior de la Tierra; o un modelo de velocidades asociado a la corteza; o la identicaci on del punto en el interior de la Tierra a partir del cual se produjo la liberaci on de energ a, es decir la identicaci on del foco s smico, planteado como el problema de loca ltimo caso, el cual es el tema de inter lizaci on hipocentral. Para el u es de este proyecto, las observaciones de las cuales se dispone son mediciones indirectas logradas a trav es de sismogramas obtenidos en la supercie de la Tierra, que permitir an analizar lo sucedido en alg un punto en el interior de la Tierra. 3.1.1.2. Modelos
Un modelo es una representaci on formal de un sistema real, con el que se pretende aumentar su comprensi on, hacer predicciones y ayudar a su control. Los modelos pueden ser f sicos (descritos por variables medibles), an alogos (diagrama de ujo) y simb olicos (matem aticos, ling u sticos, esquem aticos). Los modelos matem aticos o cuantitativos son descritos por un conjunto de s mbolos y relaciones l ogicomatem aticas. Para la construcci on de un buen modelo es necesario contar con leyes (por ejemplo, f sicas) que describan el comportamiento del sistema. Tambi en es importante la experiencia, la intuici on, la imaginaci on, la simplicidad y la habilidad para seleccionar el subconjunto mas peque no de variables. El primer paso es establecer el problema en forma clara y l ogica delimitando sus fronteras; luego viene la recogida y depuraci on de datos; el dise no del experimento; las pruebas de contrastes; la vericaci on del modelo y la validaci on de las hip otesis. Por ejemplo, un an alisis de sensibilidad determinar a el grado de inuencia en la soluci on del modelo debida a variaciones en los par ametros (robustez de un modelo). Un modelo debe ser una buena aproximaci on al sistema real, debe incorporar los aspectos importantes del sistema y debe resultar f acil de comprender y manejar. Un factor muy importante es que haya una alta correlaci on entre lo que predice el modelo y lo que actualmente ocurre en el sistema real.
20
Figura 3.1: Relaci on entre sistemas y modelos 3.1.1.3. Relaci on entre sistemas y modelos
Un sistema puede ser descrito mediante una funci on que relaciona un conjunto de datos u observaciones (d, variables de respuesta) con un grupo de par ametros P (m1 , m2 ..); cada grupo de valores espec cos de este grupo de par ametros proporciona un modelo (m) diferente. Si se dispone de un modelo f sico (G) que obtenido a partir de la teor a relaciona los datos observados con los par ametros conocidos variables, se tiene entonces una relaci on funcional G F (d, m) que describe el fen omeno; si esta relaci on es lineal, se dene entonces como Gm = d. Aqu se pueden tener dos situaciones diferentes: se conocen los par ametros del modelo pero es necesario conocer la respuesta de ese sistema, esta situaci on es conocida como el problema directo; o de lo contrario, se dispone de observaciones de las variables de predicci on y de respuesta, pero se desconocen los par ametros del modelo que expliquen mejor la relaci on entre esas variables, aqu se habla del problema inverso, el cual se resuelve mediante regresi on estad stica. Resolver el problema inverso consiste en estimar los valores del modelo (m) que expliquen mejor las observaciones. (Menke, 1984; Tarantola and Valette, 1982b). En el problema espec co de estimar las coordenadas hipocentrales de un sismo, d son los tiempos de arribo de ondas s smicas registradas en las diferentes estaciones sismol ogicas; G est a conformado por una estimaci on inicial de las coordenadas hipocentrales, las coordenadas que denen las posiciones de las diferentes estaciones y un estructura de velocidades entre la supercie y el hipocentro; m son los par ametros del modelo planteado a partir de la 21
teor a f sica, los cuales al ser usados para calcular los tiempos de recorrido te oricos de las stos y los tiempos ondas desde diferentes estaciones producir an la menor diferencia entre e observados en el sismograma. Tarantola and Valette (1982b) proponen que antes de formular la soluci on a un problema inverso es necesario que sea; v alida tanto para problemas lineales como para problemas no lineales, tanto para problemas bien determinados (sucientes datos para la estimaci on, matrices invertibles) como para problemas mal determinados (informaci on insuciente o inconsistente) consistente con respecto a un cambio de variables el cual no es el caso con aproximaciones ordinarias sucientemente general para permitir diferentes distribuciones para el error en los datos (gaussiana, no gaussiana, sim etrica, asim etrica, etc.), para permitir la incorporaci on formal de cada supuesto y para incorporar errores te oricos en una forma natural. Arman tambi en, que estas restricciones pueden cumplirse si se formula el problema usando teor a de probabilidades y toda la informaci on disponible (Inferencia bayesiana), estudiando sistemas que puedan ser descritos con un nito grupo de par ametros donde las caracter sticas cuantitativas del sistema sean denidas como funciones de probabilidad (para datos y par ametros) mas que como par ametros discretos (p.e. medias). Sin embargo, existen diversos m etodos estad sticos de estimaci on que, aunque no cumplen todas las restricciones anteriores, de igual manera y para problemas espec cos proporcionan estimadores con propiedades deseables. Adem as debido a la complejidad de algunos problemas y al exhaustivo requerimiento computacional de los m etodos bayesianos, estimadores de esta clase son poco comunes en la pr actica.
3.1.2.
Estimaciones y estimadores
La estimaci on involucra el uso de datos muestrales en conjunci on con alguna t ecnica estad stica, y se puede llevar a cabo mediante estimaci on puntual o por intervalo: estimaci on puntual es la asignaci on de un valor al par ametro desconocido, estimaci on por intervalo es una f ormula que dice c omo utilizar los datos de una muestra para calcular un intervalo en el cual con cierto nivel de conanza se encuentra el valor del par ametro. La t ecnica para estimar los par ametros que denan un modelo te orico que no est a disponible, pretendiendo una asociaci on entre variables de respuesta y variables de predicci on no causal, debe proporcionar estimadores con cierta propiedades.
22
3.1.2.1.
Estimadores
Sea un grupo de caracter sticas del sistema que se desean conocer a partir de la observaci on de la variables x1 , . . . , xn , con funci on de densidad de probabilidad f (x; ) y y1 , . . . , yn con funci on de densidad de probabilidad f (y ; ) observadas en una muestra aleatoria de tama no n; la estimaci on de a partir de esta muestra se denotar a como . Las propiedades mas deseables de un estimador son que la distribuci on de muestreo est e concentrada alrededor del valor del par ametro y que la varianza del estimador sea lo menor posible. El error cuadr atico medio resume estas propiedades y es denido como ) + [ E ( )]2 ECM ( ) = V ar( (3.1)
La calidad de las estimaciones puede medirse en funci on de exactitud, precisi on y consistencia. La exactitud es el grado en que un valor promedio coincide con el valor verdadero de la cantidad de inter es; una estimaci on es exacta cuando no tiene desviaciones positivas o negativas del valor verdadero, es decir se han reducido los errores sistem aticos. La precisi on est a relacionada con la variabilidad de los datos, mientras exista mayor variabilidad, habr a menor precisi on; buena precisi on signica que se han eliminado los errores aleatorios en el procedimiento de medici on. Un estimador es consistente si converge probabil sticamente al valor del par ametro que est a estimando, es decir, la estimaci on se aproxima mas al valor del par ametro cuando el n umero de observaciones tiende a innito (ley de los grandes n umeros). Adem as se habla de estimadores insesgados cuando el valor promedio toma valores muy cercanos al valor real, es decir el sesgo que puede evaluarse mediante el error cuadr atico medio es cero. El estimador m as eciente es aquel estimador insesgado con varianza m nima y con la propiedad de que no existe otro estimador insesgado con menor varianza. As el ECM que es la suma de la varianza y el sesgo describe las propiedades deseables de una estimaci on. Los siguientes m etodos de estimaci on puntual (a excepci on del (3) y (6)) han sido utilizados, entre otros, para resolver el problema de estimaci on de los par ametros hipocentrales. Una descripci on mas completa de m etodos de estimaci on se encuentra en Draper and Smith (1981). 3.1.2.2. M etodos de estimaci on puntual
1. M nimos cuadrados, obtiene la estimaci on del par ametro que minimiza el error cuai )2 , donde d i son los vadr atico medio (Norma L2). El objetivo es minimizar (di d lores estimados a partir del modelo y di son los datos observados, los cuales se asume que tienen asociado un error de medida que es independiente y distribuido normalmente con media y varianza 2 . La varianza del error es constante entre observaciones, de lo contrario es necesario usar m nimos cuadrados con factores de peso. Se supone
23
que la variabilidad en los datos que no pueda explicarse mediante la ecuaci on de regresi on se debe al error aleatorio, por tanto si la selecci on de la ecuaci on es correcta, esta ltima debe ser m u nima. El sistema lineal a resolver es de la forma Gm + e = d; para lo cual es necesario plantear el sistema de ecuaciones normales que toman la forma, (GT G)m = GT d si GT G tiene inversa, la soluci on para m es m = (GT G)1 GT d (3.3) (3.2)
Existen diversos m etodos para resolver el anterior sistema de ecuaciones, entre ellos m etodos de descomposici on de la matriz G en una suma de vectores, bas andose en el hecho que un objeto de gran dimensi on puede ser representado como la suma de productos de bajas dimensiones, lo cual hace mas f acil su an alisis. Algunos m etodos de descomposici on son el m etodo QR que consiste en la descomposici on de la matriz G T en una matriz triangular superior R y una matriz ortogonal Q, (Q Q = 1), se resuelve el sistema RG = QT m, este m etodo involucra reducir la matriz sim etrica a una matriz tridiagonal haciendo n2 transformaciones ortogonales. Otros m etodos son descompoT sici on Cholesky -descompone G = R R donde R es una matriz triangular superior, el sistema a resolver es RT Rm = d-, descomposici on LU - descompone G = LU , donde L es una matriz triangular superior y U es una matriz triangular inferior- y descomposici on del valor singular SV D. Algunos de estos m etodos requieren mas operaciones tiles cuando el sistema est que otros, y otros son especialmente u a mal condicionado, o en caso de matrices sim etricas, y se encuentran explicados en Press etal. (1997). Adem as, los par ametros pueden ser estimados utilizando diversas t ecnicas de optimizaci on (secci on 3.3). En la secci on 4.1.3.1 (p ag. 48) se retoma este m etodo, como una aproximaci on lineal iterativa, para resolver el problema no lineal de determinaci on de par ametros hipocentrales y tiempo de origen de un sismo. Otro punto de vista sobre el uso del m etodo de m nimos cuadrados para resolver problemas no lineales es expuesto por Tarantola and Valette (1982a). 2. M axima verosimilitud, selecciona como estimador al valor del par ametro que tiene la propiedad de maximizar el valor de la probabilidad de la muestra aleatoria observada, es decir encuentra el valor de los par ametros que maximizan la funci on de verosimilitud. La verosimilitud es la funci on de densidad de probabilidad conjunta de las variables independientes. Una formulaci on te orica de este m etodo para estimaci on de par ametros hipocentrales es dada en Rodi and Toksoz (2001). 3. M etodo de Momentos, consiste en igualar los momentos apropiados de la distribuci on de la poblaci on con los correspondientes momentos muestrales, para estimar un par ametro desconocido de la poblaci on. El r esimo momento se dene como 1 r = n 24
n
xr
i=1
(3.4)
as , los cuatro primeros momentos de una variable con funci on de densidad de probabilidad normal son la media, la varianza, la curtosis y el sesgo, en ese orden. 4. Estimaci on bayesiana, es la conjunci on de tres estados de informaci on: informaci on a priori, una funci on de m axima verosimilitud e informaci on a posteriori. En la secci on 4.1.3.2 (p ag. 51) se describe el uso de este m etodo aplicado a la determinaci on de los par ametros hipocentrales y tiempo de origen. Una visi on mas general en soluci on a problemas inversos est a dada en Scales and Tenorio (2001). 5. Estimadores Robustos, funcionan muy bien para una amplia gama de distribuciones de probabilidad. Obtienen la estimaci on del par ametro que minimiza el error absoluto (Norma L1), es apropiado cuando la dispersion es grande o cuando hay presentes valores extremos. til en la estimaci 6. Estimador Jackknife o de punto exacto, especialmente u on de medias y varianzas, se basa en remover datos y volver a calcular la estimaci on. Se obtiene una i omitiendo la i estimaci on esima observaci on y calculando la estimaci on con las n 1 observaciones restantes. Este c alculo se realiza para cada observaci on del conjunto de 1 , . . . , n ; de la muestra completa se datos, por lo tanto se producen n estimaciones ) se determina de obtiene . Un pseudovalor o estad stico de inuencia Ji ( ) = n (n 1) i Ji ( (3.5)
) es alguna combinaci El estimador Jackknife J ( on lineal de todas las estimaciones, por ejemplo el promedio de los pseudovalores, ) = 1 J ( n con varianza,
2 j = n i=1 (Ji ( ) n
) Ji (
i=1
(3.6)
))2 J ( n1
(3.7) (3.8)
y sesgo, ) bi = J (
3.1.2.3.
Una ventaja de estimaci on por intervalo es que muestra la exactitud con que estima el par ametro, a menor longitud del intervalo mayor exactitud en la estimaci on.Un intervalo de conanza , dentro del cual se espera que con es un rango de valores, centrado en una media muestral X un nivel de conanza (1 ) se encuentre el valor del par ametro en cuesti on. Los m etodos de estimaci on por intervalo son el m etodo pivotal y el m etodo general (ver Canavos (1988); Mendenhall and Sincich (1997)). 25
Al establecer un modelo se tienen dos diferentes fuentes de variaci on, una fuente de variaci on debida a la regresi on (SCR) y una fuente de variaci on debida al error (SCE ), la variaci on total (SCT ) es la suma de estas dos. La variaci on se determina de la siguiente manera, SCR = m G d ( di )2 n (3.9) (3.10) (3.11)
SCE = d d m G d ( di )2 SCT = d d n
El coeciente de correlaci on o coeciente de determinaci on R2 mide la proporci on de variaci on total de las observaciones con respecto a su media que puede ser atribuida a la recta de regresi on estimada y es denido como, R2 = SCR SCE =1 ST C SCT 26 (3.12)
donde ST C representa la variaci on total con respecto a la media y SCR la porci on de variaci on que es atribuible a un efecto lineal de las variables predictoras sobre las variables de respuesta. Si R2 = 1 puede armarse que toda la variaci on presente en las observaciones es explicada por la presencia de las variables predictoras G en la ecuaci on de regresi on. Una hip otesis estad stica es una armaci on con respecto a alguna caracter stica desconocida del sistema que interesa analizar. Pruebas estad sticas como la prueba F se realizan para probar la hip otesis nula sobre los par ametros Ho : mj = 0 para todo j . F = SCR/(l 1) SCE/(n l) (3.13)
es la estad stica F(l1,nl) con l 1 grados de libertad en el numerador y n l grados de libertad en el denominador, n es el n umero de observaciones y l es el n umero de par ametros. Si F es grande la mayor proporci on de variaci on en los datos es debida a la regresi on, la regi on de rechazo es F > F , para un determinado. La prueba F es una prueba de idoneidad general del modelo, que dice si los datos proporcionan o no pruebas sucientes que indiquen que el modelo global contribuye con informaci on a la predicci on de d. 3.1.3.2. Pruebas de bondad de ajuste
La validaci on de modelos busca detectar si una distribuci on de probabilidades supuesta es congruente con un conjunto de datos dado. Para esto se utilizan pruebas de bondad de ajuste tales como la prueba chicuadrado o la prueba de KolmogorovSmirnov. Sea X1 , . . . , Xn los resultados obtenidos a partir de una muestra aleatoria de la cual se ha asumido que su distribuci on de probabilidades est a determinada por la funci on de probabilidad Po (X ) o la funci on de densidad de probabilidad Fo (X ), se plantea la hip otesis nula Ho : F (X ) = Fo (X ), especicada de manera completa con respecto a todos los par ametros. La evaluaci on de este supuesto se hace sobre los datos obtenidos a partir de una muestra de tama no n los cuales se clasican en k categor as (en caso discreto, en caso continuo los datos deben ser discretizados), el n umero de datos que caen en la i esima categor a es fi , fi = n; la frecuencia observada en la i esima categor a se compara con ei , el n umero de datos que se espera observar en la i esima categor a si la hip otesis nula es correcta. Ho es rechazada si existe una diferencia signicativa entre lo observado y lo esperado. La prueba de bondad de ajuste Chicuadrado (2 ) es calculada de,
k
=
i=1
(fi ei )2 ei
(3.14)
y tiene k 1 grados de libertad. 2 tiende a cero si Ho es cierta. La potencia de la prueba aumenta si el n umero (k ) de categor as aumenta. La prueba de bondad de ajuste JarqueBera (JB ) usada para determinar si una muestra tiene 27
distribuci on normal con media y varianza no especicadas, corresponde a una prueba Chi cuadrado con dos grados de libertad y es denida como, JB = n 2 (C 3)2 [S + ] 6 4 (3.15)
3.2.
La simulaci on es una t ecnica de muestreo estad stico controlado (experimentaci on) que se emplea conjuntamente con un modelo, para obtener respuestas aproximadas a problemas probabil sticos complejos; debe seguir las normas del dise no de experimentos para que los resultados obtenidos puedan conducir a interpretaciones signicativas de las relaciones de inter es. La construcci on y operaci on de un modelo de simulaci on permite la observaci on del comportamiento din amico de un sistema en condiciones controladas, pudi endose efectuar experimentos para comprobar alguna hip otesis acerca del sistema bajo estudio. B asicamente se relacionan tres elementos: sistema (parte del mundo real que interesa estudiar), modelo (representaci on simplicada de un sistema) y computador. Generalidades sobre el tema puede consultarse en Rios etal. (2000); Calder on (1980); Luthe etal. (1982); Ross (1999). La simulaci on como cualquier otra t ecnica, tiene algunas desventajas, Los modelos de simulaci on para computador son costosos y dif ciles de construir y validar. En general debe construirse un programa para cada sistema o problema. La ejecuci on del programa de simulaci on, una vez construido, puede necesitar una gran cantidad de recursos. La gente tiende a usar la simulaci on cuando no es el mejor m etodo de an alisis; una vez las personas se familiarizan con la metodolog a, intentan emplearla en situaciones en que otras t ecnicas anal ticas son m as apropiadas. En general, un estudio de simulaci on puede dividirse en las siguientes etapas, 1. Denici on del problema y planicaci on del estudio, incluye una denici on precisa del problema a resolver y de los objetivos del estudio. 2. Toma de datos. 3. Establecimiento del modelo de simulaci on, incluye establecer las suposiciones que se deben hacer, y denir el modelo a emplear. 28
4. Ejecuci on de la simulaci on. Consideraci on de las t ecnicas y metodolog as simples y avanzadas requeridas para obtener los resultados de programaci on. Esto incluye aspectos tales como generaci on de variables aleatorias, m etodos para manejo de variables, precisi on de los estimadores, etc. 5. Ejecuciones de prueba del modelo. 6. Validaci on del modelo. 7. Dise no del experimento de simulaci on. 8. Ejecuci on del experimento. 9. An alisis de los resultados. Uso de t ecnicas estad sticas y gr acas para interpretar los resultados. La validaci on del modelo de simulaci on se puede llevar a cabo siguiendo las t ecnicas est andares de los depuradores; una de ellas puede ser depuraci on por m odulos o subrutinas, es decir, descomponer el programa en partes peque nas y controlables, donde cada una tenga una se til es el seguimiento o cuencia l ogica, vericando por separado cada parte. Otra t ecnica u rastreo, en la cual las salidas se imprimen despu es de la ocurrencia de cada evento, esto permite un seguimiento para determinar si la simulaci on est a funcionando como se esperaba (Ross, 1999). Los problemas que pueden resolverse mediante simulaci on se clasican en probabil sticos y determin sticos. Algunas aplicaciones de la simulaci on estad stica son, T ecnicas de remuestreo como el Bootstrap y Jackknife permiten comparar las estimaciones usando diferentes tama nos de muestras y poco an alisis, pero requieren un gran esfuerzo computacional, por lo cual son mas ecientes si se llevan a cabo mediante simulaci on. En Inferencia bayesiana se requieren m etodos ecientes de integraci on, y cuando los problemas son de alta dimensi on, los m etodos m as ecientes de integraci on son los basados en simulaci on. Un algoritmo probabil stico es un algoritmo que recibe entre los datos de entrada n umeros aleatorios; as puede producir diferentes resultados con distintos tiempos de ejecuci on. La simulaci on permite, por una lado la implementaci on de algoritmos probabil sticos, y por otro lado el an alisis probabil stico de algoritmos. Muchos de los problemas tratados con inteligencia articial son de inferencia y decisi on. Por ejemplo la simulaci on en sistemas expertos probabil sticos en el cual el conocimiento se representa sobre un dominio en el que hay incertidumbre, mediante 29
una red probabil stica cuyos nodos se asocian a variables aleatorias y cuyos arcos sugieren inuencia, asociando a cada nodo una tabla de probabilidades condicionadas (Rich and Knight, 1994), o la inferencia y predicci on en redes neuronales, mediante m etodos monte carlo basados en cadenas de Markov modelos de caja negra que permiten modelar rasgos no lineales en problemas de aproximaci on, regresi on, suavizado, predicci on y clasicaci on (Hilera and Martinez, 1995). Aunque los or genes de la simulaci on cient ca se remontan a los trabajos de Student para determinar la distribuci on de la variable t que lleva su nombre, esta disciplina apareci o mas tarde como una t ecnica num erica llamada m etodos de Monte Carlo (Rios etal., 2000). A continuaci on se presentaran algunas caracter sticas, propiedades y utilidades de este m etodo.
3.2.1.
El nombre y desarrollo del m etodo se remontan al a no 1944; su primera aplicaci on como herramienta de investigaci on se dio en el desarrollo de la bomba at omica (estudios de reacci on nuclear) durante la II guerra mundial. Sin embargo, el desarrollo sistem atico del m etodo como herramienta tuvo que esperar a los trabajos de Harris y H. Kahn, en el a no 1948 y de Fermi, N. Metropolis y S. Ulam en ese mismo a no. En 1953 N. Metr opolis introdujo el algoritmo Metr opolis, que consiste en una caminata aleatoria sesgada cuyas iteracciones individuales se basan en reglas probabil sticas. Los primeros usos de los m etodos Monte Carlo para obtener modelos de la Tierra fueron realizados por KeilisBorok y Yanovskaya en 1967 y por Press en 1968 (Mosegaard and Tarantola, 2000). Sobre el m etodo Monte Carlo puede consultarse Drakos (1995),Rubinstein (1981), y sobre aplicaciones en geof sica los trabajos de Mosegaard and Tarantola (1995) y Mosegaard etal. (1997). Los m etodos Monte Carlo son c alculos num ericos que utilizan una secuencia de n umeros aleatorios para llevar a cabo una simulaci on estad stica, con el n de conocer algunas propiedades estad sticas del sistema. Estos m etodos de simulaci on est an en contraste con los m etodos num ericos de discretizaci on aplicados para resolver ecuaciones diferenciales parciales que describen el comportamiento de alg un sistema f sico o matem atico. La caracter stica esencial de Monte Carlo es el uso de t ecnicas de toma de muestras aleatorias para llegar a una soluci on del problema f sico, mientras una soluci on num erica convencional inicia con un modelo matem atico del sistema f sico, discretizando las ecuaciones diferenciales para luego resolver un grupo de ecuaciones algebraicas. Con estos m etodos s olo se requiere que el sistema f sico o matem atico pueda ser descrito mediante una funci on de densidad de probabilidad, la cual una vez sea postulada o conocida, se requiere una forma r apida y efectiva para generar numeros aleatorios con esa distribuci on, y as se inicia la simulaci on haciendo muestreos aleatorios de la misma. Despu es de m ultiples simulaciones, el resultado deseado se toma como el valor promedio de los resultados obtenidos en cada simulaci on (Fig. 3.2). En muchas aplicaciones pr acticas se puede predecir 30
un error estad stico (varianza) para este promedio y por tanto una estimaci on del n umero de simulaciones necesarias para conseguir un error dado. De entre todos los m etodos num ericos basados en evaluaci on de n organismos en espacios de dimensi on r, los m etodos de Monte Carlo tienen asociado un error absoluto de estimaci on que decrece como n mientras que para el resto de m etodos tal error decrece en el mejor de los casos como r n (Drakos, 1995). Los m etodos Monte Carlo se usan para simular procesos aleatorios o estoc asticos, dado que ellos pueden ser descritos como funciones de densidad de probabilidad, aunque con algunas restricciones, ya que muchas aplicaciones no tienen aparente contenido estoc astico, tal como la inversi on de un sistema de ecuaciones lineales. Rubinstein (1981) resalta las siguientes diferencias entre simulaci on y simulaci on mediante m etodos Monte Carlo, En el m etodo Monte Carlo el tiempo no es importante, como si lo es es una simulaci on estoc astica. Las observaciones en el m etodo Monte Carlo son independientes. En simulaci on los experimentos dependen del tiempo, de tal manera que las observaciones son correlacionadas. En el m etodo Monte Carlo la respuesta se puede expresar como una simple funci on de las variables aleatorias de entrada, mientras que en simulaci on la respuesta solo puede ser expresada expl citamente por el propio programa. En la secci on 3.1.1.1 (p ag. 19), se describi o ampliamente lo que es un sistema. Ahora bien, la respuesta de un sistema puede estar determinada por la sucesi on o combinaci on de estados, los estados pueden cambiar en ciertos instantes de tiempos (de lo contrario es necesario discretizar el tiempo, para llevar a cabo la simulaci on), los cuales pueden ser s ncronos el paso de un estado a otro depende de un tiempo jo, o as ncronos el cambio de estado depende de la obtenci on de un suceso, el tiempo es insignicante. Los m etodos de simulaci on Monte ltimos, y dependiendo de la manera como pasan de un estado a Carlo son aplicados a estos u otro se clasican en: 1. M etodos basados en cadenas de Markov (el algoritmo HastingsMetr opolis, el muestreador de Gibbs, temple simulado, muestreo con remuestreo de importancia y Monte Carlo h brido) 2. M etodos independientes (muestreo de importancia y muestreo de rechazo) Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediatamente anterior, es decir son cadenas con memoria lo cual condiciona las probabilidades de los eventos futuros (probabilidad de transici on). 31
3.2.2.
La determinaci on del tama no muestral del experimento de simulaci on (n), es decir el n umero de veces que se observa el proceso, inuye esencialmente en la precisi on de la estimaci on (ver sec. 3.1.2.1), y dado que la precisi o n de las estimaciones aumenta en proporci o n directa a n, es necesario tomar un tama no de muestra sucientemente grande si se quiere obtener cierta precisi on.
32
En principio, si en un proceso la variable xi se puede observar n veces (n > 30), los estima y la varianza S 2 se pueden obtener de dores muestrales de la media X = 1 X n y S2 = 1 n1
n n
Xi
i=1
(3.16)
)2 (Xi X
i=1
(3.17)
S . n
Por el teorema del l mite central, se tiene que la distribuci on muestral de una variable aleatoria tiende a una distribuci on normal (Z ) para una muestra sucientemente grande y la desigualdad de Tchebychev proporciona una cota para la probabilidad de que una variable aleatoria X asuma un valor dentro de k desviaciones est andar alrededor de la media (k > 1). Las k desviaciones son entonces denidas por la distribuci on de probabilidades normal para un determinado. Por lo tanto, en el intervalo de conanza S S + z/2 z/2 [X , X ] n n (3.18)
Ahora bien, jando un valor aceptable como nivel de conanza (1 ), y determinando un valor m aximo para , la amplitud del intervalo, se tiene S 2z/2 n (3.19)
Despejando n de la ecuaci on anterior se puede obtener una estimaci on del m nimo tama no de muestra necesario para obtener estimaciones con un error aceptable d y un nivel de conanza 1 , S (3.20) (2z/2 )2 n De esta manera, a partir de una muestra piloto sucientemente grande (n > 30) se obtiene una estimaci on de la varianza de los datos, y de esta forma se puede obtener el tama no de muestra necesaria para obtener estimadores precisos, dados un nivel de conanza y un error . permisible para X
33
Figura 3.3: N umeros aleatorios distribuidos uniformemente en (0,1), generados con la funci on rand de M atlab. no lineales, para introducir no linealidad se usa un generador con funci on de transici on lineal, produciendo la salida mediante una transformaci on no lineal del estado, o usando un generador con funci on de transici on no lineal. No producen estructura reticular, sino una estructura altamente no lineal. combinaci on de generadores (emp ricos); por ejemplo, si se tienen dos sucesiones aleatorias se puede generar una nueva sucesi on combinando los elementos correspondientes de ambas mediante una operaci on binaria. Los n umeros aleatorios as generados tienen la forma un = xn /m, con distribuci on uniforme en el intervalo (0, m). Estas series pueden ser escaladas dividiendo cada t ermino entre m para obtener n umeros uniformemente distribuidos en el intervalo (0,1) (Fig. 3.3). A partir de esta distribuci on se pueden generar series de n umeros aleatorios con la distribuci on deseada. 3.2.3.1. Generaci on de numeros aleatorios con distribuci on normal
Sean U1 y U2 dos series de n umeros aleatorios con distribuci on uniforme en (0,1). Los siguientes m etodos permiten su transformaci on para obtener series de n umeros aleatorios Z1 y Z2 distribuidas normalmente (Fig. 3.4).
0,135 U1 (1U1 )0,135 0,1975
Inversi on aproximada: Z1 =
35
Figura 3.4: N umeros aleatorios con distribuci on normal con media 0 y desviaci on est andar 0.1, generados con la funci on normrnd de M atlab. Box Muller, haciendo r = 2lnU1 , y = 2U2 se generan las variables con distribuci on normal est andar Z1 = r cos y Z2 = rsen. Variante de Marsaglia. Es una variante del m etodo Box Muller, que evita las operacio2 2 nes de senos y cosenos. Se tiene v1 = 2U1 1, v2 = 2U2 1, w = v1 + v2 , se hace mientras w 1, c = (2lnw)/w, y se obtienen las variables con distribuci on normal est andar Z1 = cv1 y Z2 = cv2
3.2.3.2.
La funci on para generaci on de n umeros aleatorios con distribuci on uniforme en Matlab es rand, un generador congruencial multiplicativo con par ametros m = 231 1 = 2147483647 por la facilidad de implementaci on y por que es un n umero primo, a = 75 = 16807 ya que 7 31 es una ra z primitiva de 2 1, se obtiene el m aximo periodo y b = 0, valores recomendados por S. K. Park y K.W. Miller en 1988 en Random number generators: good ones are hard to nd (Cleve, 1995; Rios etal., 2000). La funci on rand genera todos los n umeros reales de la forma n/m para n = 1, . . . , m 1, la serie se repite despu es de generar m 1 valores, lo cual es un poco mas de dos billones de n umeros. En un computador Pentium a 75 MHz se puede agotar el per odo en poco m as de 4 horas. A partir de una serie de n umeros generados aleatoriamente con distribuci on uniforme en (0, 1) se pueden generar series de n umeros aleatorios con distribuci on normal. La funci on de 36
3.3.
La optimizaci on involucra la b usqueda del m nimo o del m aximo de una funci on, y est a re ptima soluci lacionada con la determinaci on del mejor resultado u o on al problema. Optimo es el punto donde la curva es plana, es decir el valor de x donde la primera derivada f (x) ptimo es m es cero; para determinar si el o aximo o m nimo se eval ua la segunda derivada, si f (x) < 0 el punto es un m aximo, de lo contrario es un m nimo. En un problema de optimizaci on se requiere la denici on de una funci on objetivo identicaci on de las variables de dise no o de predicci on restricciones o limitaciones reales, es decir bajo las cuales se trabaja (optimizaci on restringida). Los m etodos de optimizaci on pueden ser unidimensionales (una sola variable) o multidimensionales (mas de una variable); restringidos o no restringidos; lineales, no lineales o cuadr aticos. A continuaci on se resumen algunos de los m etodos mas com unmente usados. Estos m etodos y otros adicionales pueden ser consultados en Press etal. (1997); Gerald (1991); Chapra and Canale (1999).
37
Algunos m etodos directos son aplicaciones de los m etodos de Simulaci on Monte Carlo al problema de optimizaci on, 1. B usqueda aleatoria pura o fuerza bruta. Eval ua en forma repetida la funci on mediante la selecci on aleatoria de valores de la variable independiente. Si un n umero suciente ptimo ser de muestras es evaluado, el o a eventualmente localizado. Trabaja en discon ptimo global, pero no tinuidades y funciones no diferenciables. Siempre encuentra el o es eciente ya que requiere mucho esfuerzo de implementaci on dado que no toma en cuenta el comportamiento de la funci on, ni los resultados de las iteraciones previas para mejorar la velocidad de convergencia. Un ejemplo es la b usqueda por malla (Grid Search), donde las dimensiones de x y y se dividen en peque nos incrementos para crear una malla, la funci on se eval ua en cada nodo: entre mas densa es la malla la probabilidad ptimo es mayor (Lomax etal., 2000). de localizar el punto o 2. Multicomienzo, Es una mejora de la b usqueda aleatoria pura. Se genera un n umero ptimo local obtenido de puntos desde los que se inicia una optimizaci on local, el o es propuesto como soluci on inicial para la optimizaci on global. Un ejemplo de este m etodo es el Neighborhood Algorithm (Sambridge and Kennett, 2001) utilizado para resolver el problema de la determinaci on de los par ametros de un sismo. 3. Univariabilidad y b usquedas patr on. Cambia una variable a la vez para mejorar la aproximaci on, mientras las otras variables se mantienen constantes, as el problema se reduce a una b usqueda unidimensional que se puede resolver por medio de diversos m etodos (Newton, de Powell, interpolaci on cuadr atica). 4. Otras b usquedas aleatorias son de origen heur stico. Las dos primeras buscan evitar que ptimo local, el algoritmo quede atrapado en un o Recocido simulado. Al principio se aceptan todas las transiciones entre soluciones, lo que permite explorar todo el conjunto factible; gradualmente la aceptaci on de movimientos se hace mas selectiva; nalmente solo se aceptan los movimientos que mejoran la soluci on actual. Este m etodo permite empeoramiento en la soluci on mediante reglas probabil sticas. Aplicaci on de este m etodo al problema de localizaci on hipocentral se encuentra en Billings (1994).
38
sta empeore B usqueda tab u. Permite el paso de una soluci on a otra, a un cuando e la soluci on. Para evitar el ciclado se genera una lista en la cual se guarda durante cierto tiempo un atributo que permite identicar la soluci on o el movimiento realizado, para de esta forma no permitir su realizaci on. Dado que la lista est a consti ptimas tuida por atributos y por soluciones o movimientos, el paso a soluciones o podr a verse restringido, para evitar esto se utilizan niveles de aspiraci on, si una soluci on o movimiento de la lista supera los niveles de aspiraci on, se permite el movimiento a ella. Algoritmos gen eticos. Es una variante del m etodo de multicomienzo. Por medio de operaciones que se derivan de los principios de la evoluci on natural se identican soluciones prometedoras, a partir de las cuales se puede realizar una ptimas, aunque optimizaci on local. Son buenos s olo para identicar regiones o pticombinados con m etodos de b usqueda local pueden encontrar la soluci on o ma. Billings etal. (1994a) presenta una aplicaci on de algoritmos gen eticos en la estimaci on hipocentral. Redes neuronales articiales. 3.3.1.2. M etodos indirectos
Algunos m etodos indirectos son 1. M etodo de pasos ascendente (maximizaci on) o descendente (minimizaci on), determina la mejor direcci on de b usqueda (mediante el gradiente) y establece el mejor valor a lo largo de esa direcci on. 2. Gradiente avanzado, tales como gradiente conjugado, Newton, Marquardt, quasiNewton o variable m etrica. El m etodo de Newton por ejemplo usa c alculo del gradiente a partir de la expansi on de la serie de Taylor e inversi on de la matriz; converge si el punto inicial ptimo. El m est a cerca del o etodo Marquardt usa pasos ascendentes mientras est a lejos ptimo, y Newton cuando est ptimo. El m del o a cerca del o etodo de localizaci on hipocentral implementado por Geiger en 1910 (Lee and Lahr, 1975) expuesto en la secci on 4.1.3.1 utiliza el m etodo indirecto de gradiente conjugado de Newton. A continuaci on se muestra un ejemplo que trae Matlab en su toolbox de optimizaci on (Fig. 2 2 3.5). Consiste en la minimizaci on de la funci on de Rosenbrock f (x) = 100 (x2 x1 ) +(1 x1 )2 . Es usada como ejemplo por la lenta convergencia que presenta con algunos m etodos. nico m La funci on tiene un u nimo en el punto x = [1, 1] donde f (x) = 0. El ejemplo inicia en el punto x = [1,9, 2]. El n umero de evaluaciones de la funci on y de iteraciones son las siguientes: a. N umero de iteraciones 13, evaluaciones de la funci on 55, b. N umero de iteraciones 21, evaluaciones de la funci on 92, c. N umero de iteraciones 68, evaluaciones de la funci on 302, d. N umero de iteraciones 109, evaluaciones de la funci on 201. 39
a
Inicio fin
b
Inicio fin
c
Inicio fin
d
Inicio fin
Figura 3.5: Minimizaci on de la funci on Rosenbrock. a. M nimos cuadrados mediante Gauss Newton, b. LevenbergMarquardt, c. Pasos Descendentes, d. M etodo Simplex
ser a aceptada por violar las restricciones. Para problemas directos se utiliza el m etodo del gradiente reducido generalizado, el cual reduce el problema a uno de optimizaci on no restringida, para ser resuelto con uno de los m etodos descritos anteriormente.
3.4.2.
Los errores sistem aticos se deben a causas identicables. Estos pueden ser corregidos, permanecer constantes o variar en forma previsible y pueden ser clasicados como; Instrumentales. debidos a problemas de calibraci on, da no en los equipos, p erdida de se nales durante su transmisi on, etc. Observacionales, como la mala selecci on del instrumento, baja calidad de la respuesta instrumental, ajuste incorrecto del cero, etc. Naturales. Efecto de campos el ectricos y magn eticos. Te oricos. Simplicaci on de los modelos o aproximaciones en las ecuaciones Los errores en la determinaci on de los tiempos de viaje de las ondas s smicas debidos a un inadecuado modelo de velocidades, por ejemplo, incluyen componentes sistem aticas y aleatorias. Los errores sistem aticos aparecen generalmente cuando la estructura de velocidades no corresponde con las velocidades medias de la estructura real, en una escala comparable a la del modelo; mientras que peque nas variaciones locales de la estructura, alrededor de los valores del modelo, generan diferencias que pueden ser tratadas como errores aleatorios en la mayor a de los casos.
42
43