You are on page 1of 11

Red bayesiana

Red bayesiana
Una red bayesiana, red de Bayes, red de creencia, modelo bayesiano (de Bayes) o modelo probabilstico en un grfico acclico dirigido es un modelo grfico probabilstico (un tipo de modelo esttico) que representa un conjunto de variables aleatorias y sus dependencias condicionales a travs de un grfico acclico dirigido (DAG por sus siglas en ingls). Por ejemplo, una red bayesiana puede representar las Una red Bayesiana simple. Influencia de la lluvia si el rociador est activado e influencia relaciones probabilsticas entre de la lluvia y el rociador si la hierba se encuentra hmeda. enfermedades y sntomas. Dados los sntomas, la red puede ser usada para computar las probabilidad de la presencia de varias enfermedades. Formalmente, las redes bayesianas son grafos dirigidos acclicos cuyos nodos representan variables aleatorias en el sentido de Bayes: las mismas pueden ser cantidades observables, variables latentes, parmetros desconocidos o hiptesis. Las aristas representan dependencias condicionales; los nodos que no se encuentran conectados representan variables las cuales son condicionalmente independientes de las otras. Cada nodo tiene asociado una funcin de probabilidad que toma como entrada un conjunto particular de valores de las variables padres del nodo y devuelve la probabilidad de la variable representada por el nodo. Por ejemplo, si por padres son variables booleanas entonces la funcin de probabilidad puede ser representada por una tabla de entradas, una entrada para cada una de las posibles combinaciones de los padres siendo verdadero o falso. Ideas similares pueden ser aplicadas a grafos no dirigidos, y posiblemente cclicos; como son las llamadas redes de Markov. Existen algoritmos eficientes que llevan a cabo la inferencia y el aprendizaje en redes bayesianas. Las redes bayesianas que modelan secuencias de variables (ej seales del habla o secuencias de protenas) son llamadas redes bayesianas dinmicas. Las generalizaciones de las redes bayesianas que pueden representar y resolver problemas de decisin bajo incertidumbre son llamados diagramas de influencia.

Ejemplo
Supongamos que hay dos eventos los cuales pueden causar que la hierba est hmeda: que el rociador est activado o que est lloviendo. Tambin supongamos que la lluvia tiene un efecto directo sobre el uso del rociador (usualmente cuando llueve el rociador se encuentra apagado). Entonces la situacin puede ser modelada con una red Bayesiana (como hemos visto). Las tres variables tienen dos posibles valores, T (para verdadero) y F (para falso). La funcin de probabilidad conjunta es:

Ejemplo de una red bayesiana simple.

Red bayesiana

donde los nombres de las variables han sido abreviados a G = Hierba hmeda, S = Rociador activado, y R = Lloviendo. El modelo puede responder preguntas como "Cul es la probabilidad de que est lloviendo dado que la hierba est hmeda?" usando la frmula de probalididad condicional y sumando sobre todas las variables incordias:

Como est sealado explcitamente en el numerador del ejemplo, la funcin de probabilidad conjunta es usada para calcular cada iteracin de la funcin de sumatoria, marginalizando sobre en el numerador y sobre y en el denominador. Si, por otra parte, deseamos responder una pregunta intermedia: "Cul es la probabilidad de que llueva dado que la hierba est hmeda?" la respuesta puede ser dada por la post-intervencin de la funcin de distribucin conjunta obtenida removiendo el factor de la distribucin de pre-intervencin. Como era de esperarse, la probabilidad de que llueva no es afectada por la accin: . Si por otra aorte queremos predecir el impacto que tendr encender el rociador, tenemos entoncs con el trmino eliminado, mostrando que la accin tiene efecto sobre la hierba pero no sobre la lluvia. Estas predicciones no son factibles cuando alguna de las variables no son observadas, como en la mayora de los problemas de evaluacin. El efecto de la accin puede mantenerce predictivo, sin embargo, cada vez un criterio llamado "puerta trasera" es satisfecho. Los estados que, si un conjunto Z de nodos puede ser onservado que d-separa (o bloquea) todos los caminos de "puestra trasera" desde X hasta Y entonces . Un camino de puestra trasera es uno que termina con una flecha hacia X. Los conjuntos que satisfacen el criterio de puerta trasera son llamados "suficientes" o "admisibles". Por ejemplo, el conjunto Z=R es admisible para predecir el efecto de S=T sobre G, porque R d-separa el (nico) camino de puerta trasera S?R?G. Sin embargo, si S no es observado, no hay otro conjunto que d-separe este camino y el efecto de encender los rociadores (S=T) sobre la hierba (G) no puede ser predecido desde observaciones pasivas. Nosotros entonces decimos que no est identificado. Esto refleja el hecho de que, careciendo de datos intervencionales, no podemos determinar si la dependencia observada entre S y G es debido a una conexin casual o debido a una artificial creada por una causa comn, R. (ver paradoja de Simpson) Para determinar si una relacin casual es identificada desde una red Bayesiana arbitraria con variables no obervadas, uno puede usar las tres reglas de "do-calculus" y probar si todos los trminos do pueden ser eliminados de la expresin de la relacin, as conforme que la cantidad deseada es estimable desde la frecuencia de datos.[1] Usar una red de bayesian puede salvar las cantidades considerables de la memoria, si las dependencias en el reparto conjunto estn escasas. Por ejemplo, una manera ingenua de guardar las probabilidades condicionales de 10 variables con dos valores como una tabla requiere el espacio de almacenamiento para valores. Si las distribuciones locales de ninguna variable depende de ms de 3 variables padre, la representacin de la red de bayesiana solamente tiene que almacenar a lo sumo valores. Una ventaja de las redes bayesianas es que es intuitivamente ms fcil para un ser humano comprender (un conjunto escaso de) dependencias directas y distribuciones locales que la distribucin conjunta completa.

Red bayesiana

Inferencia de y aprendizaje
Hay tres tareas principales de inferencia para las redes bayesianas.

Deduccin de variables no observadas


Debido a que una red bayesiana es un modelo completo de las variables y sus relaciones, se puede utilizar para responder a las consultas de probabilidad acerca de ellos. Por ejemplo, la red se puede utilizar para averiguar el conocimiento actualizado del estado de un subconjunto de variables cuando otras variables (las variables de evidencia) se observan. Este proceso de clculo de la distribucin posterior de las variables dada la evidencia que se llama inferencia probabilstica. La posterior da un suficiente estadstico universal para aplicaciones de deteccin, cuando se quiere elegir los valores para la variable de un subconjunto que minimizan alguna funcin de prdida esperada, por ejemplo, la probabilidad de error de decisin. Una red bayesiana de esta manera, puede considerarse como un mecanismo para aplicar automticamente el teorema de Bayes a problemas complejos. Los mtodos ms comunes de inferencia exactas son: eliminacin de variables, el cual elimina (mediante integracin o suma) las variables no observadas y no consultadas una por una mediante la distribucin de la suma sobre el producto; propagacin en un rbol clique, que almacena en cach el clculo de modo que muchas variables se pueden consultar en una vez y nueva evidencia se puede propagar rpidamente; y condicionamiento recursivo y bsqueda AND/OR, que permiten un equilibrio espacio-tiempo y realiza eficientemente la eliminacin de variables cuando se usa suficiente espacio. Todos estos mtodos tienen una complejidad que es exponencial con respecto al ancho del rbol. Los algoritmos de inferencia aproximada ms comunes son muestreo de importancia, simulacin estocstica MCMC (Markov Chain Monte Carlo), eliminacin mini-cubo, LBP (Loopy Belief Propagation), GBP (Generalized Belief Propagation), y los mtodos variacionales.

Aprendizaje de Parmetros
Para especificar completamente la red bayesiana y por lo tanto representar plenamente a la distribucin de probabilidad conjunta , es necesario especificar para cada nodo X la distribucin de probabilidad de X condicionada dado sus padres. La distribucin de X condicionada dado sus padres puede tener cualquier forma. Es comn trabajar con distribuciones discretas o gaussianas ya que simplifica los clculos. A veces slo restricciones sobre una distribucin son conocidas; uno puede entonces utilizar el principio de mxima entropa para determinar una distribucin nica. (Anlogamente, en el contexto especfico de una red bayesiana dinmica, una que comnmente especifica la distribucin condicional para la evolucin temporal del estado ocultos para maximizar la tasa de entropa del proceso estocstico implcito) A menudo, estas distribuciones condicionales incluyen parmetros que son desconocidos y deben estimarse a partir de los datos, a veces utilizando el enfoque de mxima probabilidad. La maximizacin directa de la probabilidad (o de la probabilidad posterior) es a menudo compleja cuando hay variables no observadas. Un mtodo clsico de este problema es el algoritmo de expectacin-maximizacin el cual alterna los valores esperados computados de las variables condicionales no observadas a datos observados, con la maximizacin de la probabilidad total (o posterior) suponiendo que previamente calculados los valores esperados son correctas. Bajo condiciones de regularidad leves este proceso converge en valores de probabilidad mxima (o mximo posterior) para los parmetros. Un enfoque ms Bayesiano es tratar a los parmetros como variables no observadas adicionales y para calcular la distribucin posterior completa sobre todos los nodos condicionales de los datos observados, despus, integrar los parmetros. Este enfoque puede ser costoso y llevar a modelos de grandes dimensiones, por lo que en la prctica enfoques de ajuste de parmetros clsicos son ms comunes.

Red bayesiana

Aprendizaje de Estructuras
En el caso ms simple, una red bayesiana se especifica por un experto y se utiliza entonces para realizar inferencia. En otras aplicaciones, la tarea de definir la red es demasiado compleja para los seres humanos. En este caso la estructura de la red y los parmetros de las distribuciones locales debe ser aprendido de datos. El aprendizaje automtico de la estructura grfica de una red bayesiana es un reto dentro del aprendizaje de mquina. La idea bsica se remonta a un algoritmo de recuperacin desarrollado por Rebane y Pearl (1987)[2] y se basa en la distincin entre los tres tipos posibles de triplos adyacentes permitidos en un grfico acclico dirigido (DAG): 1. 2. 3. Tipo 1 y tipo 2 representan las mismas dependencias ( y son independientes dada y ) y son, por tanto, son marginalmente indistinguibles. Tipo 3, sin embargo, puede ser identificado de forma nica, ya que

independientes y todos los otros pares son dependientes. As, mientras que los esqueletos (los grafos despojados de flechas) de estos tres triplos son idnticos, la direccionalidad de las flechas es parcialmente identificable. La misma distincin se aplica cuando y tienen padres comunes, excepto que uno debe condicionar primero en esos padres. Se han desarrollado algoritmos para determinar sistemticamente el esqueleto del grafo subyacente y, a continuacin, orientar todas las flechas cuya direccionalidad est dictada por las independencias condicionales observados. Un mtodo alternativo de aprendizaje estructural utiliza la optimizacin basada en bsquedas. Se requiere una funcin de puntuacin y una estrategia de bsqueda. Una funcin de puntuacin comn es la probabilidad posterior de la estructura dado los datos de entrenamiento. El requisito de tiempo de una bsqueda exhaustiva retornando una estructura que maximice la puntuacin es superexponencial en el nmero de variables. Una estrategia de bsqueda local hace cambios incrementales destinados a mejorar la puntuacin de la estructura. Un algoritmo de bsqueda global como la cadena de Markov Monte Carlo puede evitar quedar atrapado en mnimos locales. Friedman et al. habla acerca del uso de la informacin mutua entre las variables y encontrar una estructura que maximiza esto. Lo hacen mediante la restriccin del conjunto de padres candidatos a k nodos y exhaustivamente buscan en el mismo.

Introduccin estadstica
Dados los datos antes en y el parmetro , Un simple anlisis Bayesiano comienza con una probabilidad a priori (antes) . A menudo, el en los parmetros introducidos que no se mencionan en la probabilidad. Por lo tanto, la previa , y un previo y probabilidad para calcular una probabilidad posterior

, depende a su vez de otros parmetros

debe ser sustituido por una probabilidad recientemente

se requiere, lo que resulta en una probabilidad posterior

Este es el ejemplo ms simple de un modelo jerrquico Bayesiano. El proceso se puede repetir, por ejemplo, los parmetros pueden depender a su vez de parmetros adicionales , lo que requerir su propio previo. Finalmente, el proceso debe terminar, con previos que no dependen de otros parmetros no se han mencionado.

Red bayesiana

Ejemplos Introductorios
Supongamos que hemos medido las cantidades conocidos y desviacin estndar , cada una con una distribucin normal de los errores

Supongamos que estamos interesados en estimar la

. Un enfoque sera estimar la

utilizando un enfoque de

mxima verosimilitud; ya que las observaciones son independientes, la probabilidad factoriza y la estimacin de mxima probabilidad es simplemente Sin embargo, si las cantidades estn relacionados, de modo que por ejemplo se puede pensar que los individuales

han sido extrados de una distribucin subyacente, a continuacin, esta relacin destruye la independencia y sugiere un modelo ms complejo, por ejemplo,

con previos inapropiados

plana,

plano

. Cundo

, este es un modelo identificado individual

(es decir, existe una nica solucin para los parmetros del modelo), y la distribucin posterior de la

tender a moverse o reducir la distancia de mxima verosimilitud estimada hacia su media comn. Esta contraccin es un comportamiento tpico de los modelos jerrquicos bayesianos.

Restricciones a los previos


Hay que tener algn cuidado al elegir los previos en un modelo jerrquico, en particular sobre las variables de escala en los niveles superiores de la jerarqua, como la variable en el ejemplo. Los previos habituales, tales como los previos de Jeffrey a menudo no funcionan, debido a que la distribucin posterior ser incorrecta (no normalizable), y estimaciones realizadas por reducir al mnimo la prdida esperada ser inadmisible .

Definiciones y conceptos
Hay varias definiciones equivalentes de una red bayesiana. Por todo lo siguiente, sea G = (V, E) un grfico acclico dirigido (o DAG), y sea X = (Xv)v ? V un conjunto de variables aleatorias indexadas por V.

Definicin de factorizacin
X es una red bayesiana con respecto a G si su funcin de densidad de probabilidad conjunta (con respecto a una medida de producto) se puede escribir como un producto de las funciones de densidad individuales, condicionadas a las variables de sus padres:[3] donde pa(v) es el conjunto de padres de v (es decir, los vrtices apuntando directamente a v a travs de una sola arista). Para cualquier conjunto de variables aleatorias, la probabilidad de cualquier miembro de una distribucin conjunta se puede calcular a partir de las probabilidades condicionales utilizando la regla de la cadena (dado un ordenamiento topolgico de X) como sigue:[3]

Comprese

esto

con

la

definicin

anterior,

que por cada

puede

ser

escrita

como:

el cual es padre de

Red bayesiana La diferencia entre las dos expresiones es la independencia condicional de las variables de cualquiera de sus no-descendientes, dados los valores de las variables de sus padres.

Propiedad local de Markov


X es una red bayesiana con respecto a V si satisface la propiedad local de Markov: cada variable es condicionalmente independiente de sus no-descendientes dado sus variables padres:[4]

donde de(v) es el conjunto de descendientes de v. Esto tambin se puede expresar en trminos similares a la primera definicin, como para cada la cual no es descendiente de

para cada que es padre de Tenga en cuenta que el conjunto de los padres es un subconjunto del conjunto de los no descendientes porque el grafo es acclico.

Desarrollo de redes bayesianas


Desarrollar una red bayesiana, que a menudo se desarrolla primero un DAG G tal que creemos que X satisface la propiedad local de Markov con respecto a G. A veces esto se hace creando un DAG casual. A continuacin, determinar las distribuciones de probabilidad condicional de cada variable dados sus padres en G. En muchos casos, en particular en el caso donde las variables son discretas, si se define la distribucin conjunta de X como el producto de las distribuciones condicionales, entonces X es una red bayesiana con respecto a G.

Manta de Markov
La manta de Markov de un nodo es el conjunto de nodos vecinos: sus padres, sus hijos y otros padres de sus hijos. X es una red bayesiana con respecto a G si cada nodo es condicionalmente independiente de todos los dems nodos de la red, dada su manta Markov.[4]

d-separacin
Esta definicin puede ser ms general mediante la definicin de la "d" de separacin de dos nodos, donde d es direccional. Sea P un camino (es decir, una coleccin de aristas, que es como un camino, pero cada una de cuyas aristas pueden tener cualquier direccin) de un nodo de u a v. Entonces P se dice que es d-separado por un conjunto de nodos Z si y slo si (al menos) uno de cumple lo siguiente: 1. 2. 3. 4. P contiene una cadena, x -> m -> y, de manera tal que el nodo medio de m est en Z, P contiene una cadena, x <- m <- y, de manera tal que el nodo medio de m est en Z, P contiene una divergencia de m, x <- m -> y, de manera tal que el nodo medio de m est en Z, o P contiene una convergencia a m, x -> m <- y, de manera tal que el nodo medio de m no est en Z y el no descendiente de m est en Z.

As, u y v se dice que estn d-separados por Z si todas las rutas entre ellos son d-separados. Si U y V no son d-separados, se les llama d-conectado. X es una red bayesiana con respecto a G si, para cualquier par de nodos u, v:

donde Z es un conjunto que d-separa u y v. (La manta de Markov es el conjunto mnimo de nodos que d-separa al nodo v de todos los dems nodos)

Red bayesiana

Modelos Jerrquicos
El trmino modelo jerrquico a veces se considera un tipo particular de red Bayesiana, pero no tiene una definicin formal. A veces el trmino se reserva para los modelos con tres o ms niveles de las variables aleatorias, en otras ocasiones, se reserva para los modelos con variables latentes. En general, sin embargo, cualquier red Bayesiana moderadamente compleja suele llamarse "jerrquica".

Redes Causales
Aunque las redes Bayesianas se utilizan a menudo para representar relaciones causales, esto no tiene por qu ser el caso: una arista dirigida de u a v no requiere que Xv sea causalmente dependiente de Xu. Esto se demuestra por el hecho de que las redes Bayesianas en los grafos:

son equivalentes, es decir imponen exactamente los mismos requisitos de independencia condicional. Una red causal es una red Bayesiana con un requisito explcito de que la relacin sea causal. Las semnticas adicionales de las redes causales especifican que si un nodo X est activamente causado a estar en un estado dado x (una accin escrita como lo hacen (X=x)), entonces la probabilidad de cambios de la funcin de densidad a la de la red obtenida por cortar los vnculos de los padres de X a X, y el seteando X al valor causada x. El uso de estas semnticas, se puede predecir el impacto de las intervenciones externas de los datos obtenidos antes de la intervencin.

Aplicaciones
Las redes Bayesianas se utilizan para el modelado del conocimiento en biologa computacional y bioinformtica (redes reguladoras de genes, la estructura de la protena, la expresin de genes de anlisis, el aprendizaje de epistasis a partir de los conjuntos de datos de GWAS), la medicina, biomonitoreo, la clasificacin de documentos, recuperacin de informacin, la bsqueda semntica,[5] el procesamiento de imgenes, fusin de datos, sistemas de soporte de decisiones, la ingeniera, los juegos y la ley.

Software
WinBUGS OpenBUGS (website [6]), (cdigo abierto) desarrollo adicional de WinBUGS. Just another Gibbs sampler (JAGS) (website [7]). GeNIe&Smile (website [8]) SMILE es una librera de C++ para BN e ID, y GeNIe es una GUI para ella. SamIam (website [9]), otra GUI usando la librera SMILE. Redes de creencia y de decisin en AIspace [10]. Hugin [11]. Netica [12] por Norsys. dVelox [13] por Apara Software.

Red bayesiana

Historia
El trmino "redes bayesianas" fue acuado por Judea Pearl en 1985 para hacer hincapi en tres aspectos: 1. El carcter a menudo subjetivo de la informacin de entrada. 2. La dependencia de acondicionamiento de Bayes como base para la actualizacin de la informacin. 3. La distincin entre los modos causales y probatorio de razonamiento, lo que subraya Thomas Bayes en un documento publicado pstumamente en 1763. A finales de 1980 los textos seminales Razonamiento Probabilstico en Sistemas Inteligentes y Razonamiento Probabilstico en Sistemas Expertos resume las propiedades de las redes Bayesianas y ayud a establecer las mismas como un campo de estudio. Variantes informales de este tipo de redes se utilizaron por primera vez por el jurista John Henry Wigmore, en forma de grafos de Wigmore, para analizar la evidencia en un juicio en 1913.:6676 Otra variante, llamada diagrama de rutas, fue desarrollada por el genetista Sewall Wright y utilizado en ciencias de la conducta y sociales (en su mayora con modelos paramtricos lineales).

Referencias
[1] I. Shpitser, J. Pearl, "Identification of Conditional Interventional Distributions" In R. Dechter and T.S. Richardson (Eds.), Proceedings of the Twenty-Second Conference on Uncertainty in Artificial Intelligence, 437-444, Corvallis, OR: AUAI Press, 2006. [2] Rebane, G. and Pearl, J., "The Recovery of Causal Poly-trees from Statistical Data," Proceedings, 3rd Workshop on Uncertainty in AI, (Seattle, WA) pages 222228, 1987 [3] Russell y Norvig, 2003, p.496. [4] Russell y Norvig, 2003, p.499. [5] Christos L. Koumenides and Nigel R. Shadbolt. 2012. Combining link and content-based information in a Bayesian inference model for entity search. (http:/ / eprints. soton. ac. uk/ 342220) In Proceedings of the 1st Joint International Workshop on Entity-Oriented and Semantic Search (JIWES '12). ACM, Nueva York, NY, EE.UU., , Article 3 , 6 pages. DOI=10.1145/2379307.2379310 (http:/ / doi. acm. org/ 10. 1145/ 2379307. 2379310) [6] http:/ / www. openbugs. info/ w/ FrontPage [7] http:/ / www-fis. iarc. fr/ ~martyn/ software/ jags/ [8] http:/ / genie. sis. pitt. edu/ [9] http:/ / reasoning. cs. ucla. edu/ samiam/ [10] http:/ / www. aispace. org/ bayes/ index. shtml [11] http:/ / www. hugin. com/ [12] http:/ / www. norsys. com/ netica. html [13] http:/ / www. aparasw. com/ index. php/ en

Para saber ms
Ben-Gal, Irad (2007), Encyclopedia of Statistics in Quality and Reliability (http://www.eng.tau.ac.il/ ~bengal/BN.pdf), en Ruggeri, Fabrizio; Kennett, Ron S.; Faltin, Frederick W (PDF), Encyclopedia of Statistics in Quality and Reliability, John Wiley & Sons, doi: 10.1002/9780470061572.eqr089 (http://dx.doi.org/10.1002/ 9780470061572.eqr089), ISBN 978-0-470-01861-3 Bertsch McGrayne, Sharon. The Theory That Would not Die. Yale. Borgelt, Christian; Kruse, Rudolf (March de 2002). Graphical Models: Methods for Data Analysis and Mining (http://fuzzy.cs.uni-magdeburg.de/books/gm/). Chichester, UK: Wiley. ISBN 0-470-84337-3. Borsuk, Mark Edward (2008), Ecological informatics: Bayesian networks, en Jrgensen , Sven Erik, Fath, Brian, Encyclopedia of Ecology, Elsevier, ISBN 978-0-444-52033-3 Castillo, Enrique; Gutirrez, Jos Manuel; Hadi, Ali S. (1997). Learning Bayesian Networks. Expert Systems and Probabilistic Network Models. Monographs in computer science. Nueva York: Springer-Verlag. pp.481528. ISBN 0-387-94858-9. Comley, Joshua W.; Dowe, David L. (http://www.csse.monash.edu.au/~dld) (October 2003). Minimum Message Length and Generalized Bayesian Nets with Asymmetric Languages (http://www.csse.monash.edu.

Red bayesiana au/~dld/David.Dowe.publications.html#ComleyDowe2005). escrito en Victoria, Australia. En Grnwald, Peter D.; Myung, In Jae; Pitt, Mark A.. Advances in Minimum Description Length: Theory and Applications. Neural information processing series. Cambridge, Massachusetts: Bradford Books (MIT Press). pp.265294. ISBN 0-262-07262-9. (This paper puts decision trees in internal nodes of Bayes networks using Minimum Message Length (http://www.csse.monash.edu.au/~dld/MML.html) (MML). An earlier version is Comley and Dowe (2003) (http://www.csse.monash.edu.au/~dld/David.Dowe.publications.html#ComleyDowe2003), (http:// www.csse.monash.edu.au/~dld/Publications/2003/Comley+ Dowe03_HICS2003_GeneralBayesianNetworksAsymmetricLanguages.pdf)) Dowe, David L. (2010). MML, hybrid Bayesian network graphical models, statistical consistency, invariance and uniqueness (http://www.csse.monash.edu.au/~dld/Publications/2010/ Dowe2010_MML_HandbookPhilSci_Vol7_HandbookPhilStat_MML+ hybridBayesianNetworkGraphicalModels+StatisticalConsistency+InvarianceAndUniqueness_pp901-982.pdf), in Handbook of Philosophy of Science (Volume 7: Handbook of Philosophy of Statistics), Elsevier, ISBN 978-0-444-51862-0 (http://japan.elsevier.com/products/books/HPS.pdf), pp 901-982 (http://www.csse. monash.edu.au/~dld/Publications/2010/ Dowe2010_MML_HandbookPhilSci_Vol7_HandbookPhilStat_MML+ hybridBayesianNetworkGraphicalModels+StatisticalConsistency+InvarianceAndUniqueness_pp901-982.pdf). Fenton, Norman; Neil, Martin E. (November 2007). Managing Risk in the Modern World: Applications of Bayesian Networks (http://www.agenarisk.com/resources/apps_bayesian_networks.pdf) A Knowledge Transfer Report from the London Mathematical Society and the Knowledge Transfer Network for Industrial Mathematics. Londres (Reino Unido): London Mathematical Society. Fenton, Norman. Combining evidence in risk analysis using Bayesian Networks (https://www.dcs.qmul.ac. uk/~norman/papers/Combining evidence in risk analysis using BNs.pdf)(PDF), Safety Critical Systems Club Newsletter (Newcastle upon Tyne, England), 23 de julio de 2004, pp.813. Part II: Fundamentals fo Bayesian Data Analysis: Ch.5 Hierachical models (http://books.google.com/ books?id=TNYhnkXQSjAC&pg=PA120). Bayesian Data Analysis (http://books.google.com.au/ books?id=TNYhnkXQSjAC). CRC Press. 2003. pp.120. ISBN 978-1-58488-388-3. Heckerman, David (March 1, 1995). Tutorial on Learning with Bayesian Networks (http://research.microsoft. com/research/pubs/view.aspx?msr_tr_id=MSR-TR-95-06). En Jordan, Michael Irwin. Learning in Graphical Models. Adaptive Computation and Machine Learning. Cambridge, Massachusetts: MIT Press. pp.301354. ISBN 0-262-60032-3.. :Tambin aparece como Bayesian Networks for Data Mining. Data Mining and Knowledge Discovery (Netherlands: Springer Netherlands) 1 (1): pp.79119. March 1997. doi: 10.1023/A:1009730122752 (http:// dx.doi.org/10.1023/A:1009730122752). ISSN 1384-5810 (http://worldcat.org/issn/1384-5810).:Una versin reciente aparece como Technical Report MSR-TR-95-06 (http://research.microsoft.com/research/pubs/view. aspx?msr_tr_id=MSR-TR-95-06), Microsoft Research, March 1, 1995. The paper is about both parameter and structure learning in Bayesian networks. Jensen, Finn V; Nielsen, Thomas D. (6 de junio de 2007). Bayesian Networks and Decision Graphs. Information Science and Statistics series (2nd edicin). Nueva York: Springer-Verlag. ISBN 978-0-387-68281-5. Korb, Kevin B.; Nicholson, Ann E. (December 2010). Bayesian Artificial Intelligence. CRC Computer Science & Data Analysis (2nd edicin). Chapman & Hall (CRC Press). doi: 10.1007/s10044-004-0214-5 (http://dx.doi.org/10. 1007/s10044-004-0214-5). ISBN 1-58488-387-1. Lunn, D. (2009). The BUGS project: Evolution, critique and future directions. Statistics in Medicine 28 (25): pp.30493067. doi: 10.1002/sim.3680 (http://dx.doi.org/10.1002/sim.3680). PMID 19630097 (http://www.ncbi. nlm.nih.gov/pubmed/19630097). Neil, Martin (August 2005). Greenberg, Michael R.. ed. Using Bayesian Networks to Model Expected and Unexpected Operational Losses (http://www.dcs.qmul.ac.uk/~norman/papers/oprisk.pdf) (pdf). Risk Analysis: an International Journal (John Wiley & Sons) 25 (4): pp.963972. doi: 10.1111/j.1539-6924.2005.00641.x

Red bayesiana (http://dx.doi.org/10.1111/j.1539-6924.2005.00641.x). PMID 16268944 (http://www.ncbi.nlm.nih.gov/ pubmed/16268944). Pearl, Judea (September 1986). Fusion, propagation, and structuring in belief networks. Artificial Intelligence (Elsevier) 29 (3): pp.241288. doi: 10.1016/0004-3702(86)90072-X (http://dx.doi.org/10.1016/ 0004-3702(86)90072-X). ISSN 0004-3702 (http://worldcat.org/issn/0004-3702). Pearl, Judea (1988). Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference. Representation and Reasoning Series (2nd printing edicin). San Francisco, California: Morgan Kaufmann. ISBN 0-934613-73-7. Pearl, Judea; Russell, Stuart (November de 2002). Bayesian Networks. En Arbib, Michael A.. Handbook of Brain Theory and Neural Networks. Cambridge, Massachusetts: Bradford Books (MIT Press). pp.157160. ISBN 0-262-01197-2. Plantilla:Russell Norvig 2003. Zhang, Nevin Lianwen (http://www.cs.ust.hk/faculty/lzhang/bio.html) (May 1994). A simple approach to Bayesian network computations. Proceedings of the Tenth Biennial Canadian Artificial Intelligence Conference (AI-94). (Banff, Alberta): pp.171178. This paper presents variable elimination for belief networks.

10

Enlaces externos
Un tutorial sobre el aprendizaje con redes Bayesianas (http://research.microsoft.com/research/pubs/view. aspx?msr_tr_id=MSR-TR-95-06) Una Introduccin a las Redes Bayesianas y sus aplicaciones contemporneas (http://www.niedermayer.ca/ papers/bayesian/bayes.html) Tutorial on-line sobre redes bayesianas y probabilidad (http://www.dcs.qmw.ac.uk/~norman/BBNs/BBNs. htm) Redes Bayesianas en Tiempo Continuo (http://robotics.stanford.edu/~nodelman/papers/ctbn.pdf) Redes Bayesianas: Explicacin y Analoga (http://wiki.syncleus.com/index.php/DANN:Bayesian_Network) Un tutorial en vivo en el aprendizaje de redes bayesianas (http://videolectures.net/kdd07_neapolitan_lbn/) Un modelo jerrquico de Bayes para la manipulacin de heterogeneidad de la muestra en problemas de clasificacin (http://www.biomedcentral.com/1471-2105/7/514/abstract), proporciona un modelo de clasificacin teniendo en cuenta la incertidumbre asociada a la medicin de muestras replicadas. Hierarchical Modelo Jerrquico Injenuo de Bayes para el manejo de las muestras de incertidumbre (http://www. labmedinfo.org/download/lmi339.pdf), muestra cmo realizar la clasificacin y el aprendizaje con las variables continuas y discretas con mediciones replicadas.

Fuentes y contribuyentes del artculo

11

Fuentes y contribuyentes del artculo


Red bayesiana Fuente: http://es.wikipedia.org/w/index.php?oldid=70825650 Contribuyentes: 1309daniel, AlfonsoERomero, Anoryat, Apara, Dankz, Davius, Efren Vila Alfonso, Eladiorego, Emijrp, Ender2, Enrique Cordero, Felipealvarez, Genba, Halfdrag, Interwiki de, JKaranka, Jerowiki, Juan Mayordomo, Kilom691, Lexinerus, Matdrodes, Mescalier, Osepu, Raspabill, Rwheimle, Taichi, Technopat, Xiterrex, 38 ediciones annimas

Fuentes de imagen, Licencias y contribuyentes


Archivo:Nodos de una Red Bayesiana Simple.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Nodos_de_una_Red_Bayesiana_Simple.svg Licencia: Creative Commons Attribution-Sharealike 3.0 Contribuyentes: User:Kilom691 Archivo:Red Bayesiana Simple.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Red_Bayesiana_Simple.png Licencia: Creative Commons Attribution-Sharealike 3.0 Contribuyentes: User:Efren Vila Alfonso

Licencia
Creative Commons Attribution-Share Alike 3.0 //creativecommons.org/licenses/by-sa/3.0/

You might also like