You are on page 1of 39

Modelos Deterministas

Cada variable y parmetro puede asignarse a un numero fijo definido


o una serie de nmeros fijos, para una serie dada de condiciones.
Ej. Cada Libre
Cuerpo puntual(suf. Pequeo), gravedad constante(cercano a la
Tierra), sin aire( en un tubo con vacio)

Ej. Modelo que permita predecir si una moneda cae en cara o cruz.
Modelos Probabilistas
Se introduce el principio de incertidumbre. Las variables o
parmetros utilizados para describir las relaciones entrada- salida.
la estructura de los elementos y las restricciones no son conocidos
con precisin.
Ej. El valor de x es (a+ b) con un 95% de probabilidad.
Ej. Cantidad de lluvia que caer en una tormenta y en un lugar
especficos.
2
2
1
gt h =
La incertidumbre surge cuando se tiene un
conocimiento incompleto o incorrecto del mundo o
por limitaciones en la forma de representar dicho
conocimiento, por ejemplo:
Un sistema experto medico, Un robot mvil, Un sistema
de anlisis financiero, Un sistema de reconocimiento de
voz o imgenes, monitoreo/ control de procesos
industriales.
Causas:
Informacin: Incompleta, Poco confiables, ruido
Conocimiento: Impreciso, Incompleto, Contradictorio
Representacin: No adecuado, falta de poder descriptivo

Los sistemas basados en lgicas o reglas, no
tienen incertidumbre.
Un sistema de reglas es modular, para saber la verdad
de una regla, solo se considera a la misma, sin
importar el resto del conocimiento.
SI hay incertidumbre ya no se puede considerar solo a la
regla, se deben tomar en cuenta otras reglas.
Un sistema es monotnico si al agregar nueva
informacin a su base de datos, no se alteran las
conclusiones que seguan de la bd original.
Si hay incertidumbre ya no se puede considerar que la certeza
en una hiptesis ya no puede cambiar, se deben tomar en
cuenta nuevas reglas, as como nuevos datos.
Para tratar la incertidumbre hay que
considerarla en forma explicita en la
representacin e inferencia..
Una forma de representar y manejar la
incertidumbre, son las tcnicas numricas
probabilistas, dentro de las cuales se
encuentran los modelos grficos
probabilistas.
Permiten hacer estimaciones de la probabilidad de
que ocurra un evento, basndose en el conocimiento
de datos pasados o histricos.
Se basan en la teora de probabilidad
Se utilizan las probabilidades para modelar la
creencia sobre los posibles valores que pueden tomar
los hechos
Cada hecho tiene una distribucin de probabilidad
asociada que nos permitir tomar decisiones
La probabilidad de un hecho podr ser modificada por
nuestra creencia en otros hechos que estn
relacionados.
Dentro de la IA se han desarrollado diferentes
formalismos que permiten hacer
razonamiento con incertidumbre:
Modelos probabilistas (Redes bayesianas)
Modelos posibilistas (Lgica difusa)

Modelar la evolucin del cncer de ovario
Explicar la evolucin del VIH ante la presin
farmacolgica
Creacin de terapias de rehabilitacin motriz
que se adapten a necesidades de pacientes
de infarto cerebral
Evaluar el coste-efectividad de la vacuna del
virus del papiloma humano.
Entrenamiento y control de plantas elctricas
Experimento: Proceso que se lleva a cabo de
acuerdo a un conjunto de reglas bien
definido. Su resultado depende de la
casualidad.
Espacio Muestral. Conjunto de posibles
resultados de un experimento
Evento: Subconjunto del espacio muestral. El
resultado de un experimento puede
pertenecer o no al evento.
I.
La probabilidad es un numero entre 0 y 1
Prob. de sacar par en un dado equilibrado?

II.
La probabilidad de que ocurra el espacio muestral
es 1
Prob. de sacar un numero de 1 a 6 en un dado?

III. Si A y B son sucesos mutuamente excluyentes
P(AUB) = P(A) + P(B)
Prob. de sacar en un dado 1 o sacar numero par?

1 ) ( 0 s s A P
1 ) ( = S P
La probabilidad de que ocurra el evento A
dado que ocurre el evento B es:
P(A|B) =P(A B) / P(B)
esto equivale a calcular la probabilidad de A,
cuando el espacio muestral se reduce a B

Dado que el dado cayo par, cual es la
probabilidad de que sea un numero primo

La probabilidad conjunta de A y B, es la
probabilidad de que ocurran el evento A y el
evento B de manera simultnea.
De la definicin de probabilidad condicional
se tiene que:
P(A B) = P(A|B) P(B)

P(A B) = P(B|A) P(A)


Probabilidad marginal de un evento es la
probabilidad simple de ese evento, pero
expresada como una suma de probabilidades
conjuntas.
En un curso de verano de regularizacin los alumnos inscritos se distribuyen
como se muestra en la tabla. A cierto profesor se le asignar aleatoriamente a un
alumno.








La probabilidad del evento A es simplemente 143/350, pero tambin:
P(A) = P(A F) + P(A Q) + P(A M) = 46/350 + 45/350 + 52/350 = 143/350
Dos eventos A y B son independientes si la ocurrencia
de uno no altera la probabilidad de ocurrencia del otro
P(A|B) =P(A)
P(B|A) =P(B)
Los eventos A y B son independientes si y solo si:
P(A B) = P(A)P(B)

Ejemplo: De una caja con 30 tornillos, 5 de los cuales estn
defectuoso se extraen dos CON REEMPLAZO, determine
la probabilidad de que ambos tornillos extrados estn
defectuosos
(5/30)(5/30)=1/36

Dados dos subconjuntos disjuntos de
variables, X e Y, se cumple que:


Dados tres subconjuntos de variables, X,Y y Z,
si P(Z)>O, se cumple que








Utilizando el teorema de la probabilidad total



Si se conoce la probabilidad de tener un dolor de cabeza dado que
se tiene gripe, se podra saber -si se tiene algn dato ms-, la
probabilidad de tener gripe si se tiene un dolor de cabeza
Esta regla y la propiedad de independencia sern el fundamento
del razonamiento probabilstico y nos permitir relacionar las
probabilidades de unas evidencias con otras.
Se llama proceso de normalizacin, porque del
Teorema de Bayes, toma a 1/P(A) como una
constante de normalizacin, la cual permitir
que los trminos condicionales sumen uno.
P(B|A) = P(A|B)P(B)
Donde es la constante de normalizacin,
necesaria para hacer que todas las P(B|A) sumen
uno.
Se puede realizar calculando los valores no
normalizados, y despus escalarlos de tal
manera que sumen uno.

Una variable aleatoria es una funcin X: E R que asigna
un valor numrico a cada elemento del espacio muestral.
Puede ser discreta o continua.
Discreta: el numero de valores de la variable es finito o
contablemente infinito
Continua: puede asumir todos los posibles valores en
cierto intervalo.
Ejemplos:
X: Suma de los nmeros obtenidos al lanzar dos dados.
X es una variable aleatoria discreta que puede tomar los
valores 2,3,4,,12
X: Numero de caras obtenidas al lanzar dos monedas. X es
una variable aleatoria discreta que puede tomar los
valores 0,1 y 2
X_: tiempo en que falle cierto dispositivo
X es una variable aleatoria continua

La distribucin de una variable aleatoria X se
puede ver como una tabla del tipo:


Tambin se le llama funcin de probabilidad.
La funcin de probabilidad es la funcin que a cada
valor de la variable le asocia su correspondiente
probabilidad.
La grafica de una funcin de probabilidad viene
dada por un diagrama de barras.
La integral definida de la funcin de densidad en dichos intervalos coincide
con la probabilidad de los mismos

Probabilidad de un intervalo rea bajo la funcin de densidad
El valor esperado de una variable aleatoria
discreta X con distribucin de probabilidad
f(x) es

El valor esperado de una variable aleatoria
continua X con densidad f(x) es
Juan arroja un dado y gana $1 si obtiene 1 o 2,
$2 si obtiene un 3 o un 4, $4 si sale 5 y $8 si
sale 6. Cuanto dinero debera pagar antes de
arrojar el dado para que el juego sea justo?
= (1)1/3+ (2)1/3+ (4)1/6+ (8)1/6= 3

Juan debera pagar $3 antes de arrojar el
dado
Los momentos de una variable aleatoria X
son los valores esperados de algunas
funciones de X
Momentos de orden k con respecto al origen


Momentos de orden k con respecto a la media

Tenemos un experimento de Bernoulli si al realizar un
experimentos slo son posibles dos resultados:
X=1 (xito, con probabilidad p)
X=0 (fracaso, con probabilidad q=1-p)

Lanzar una moneda y que salga cara.
p=1/2
Elegir una persona de la poblacin y que est enfermo.
p=1/1000 = prevalencia de la enfermedad
Aplicar un tratamiento a un enfermo y que ste se cure.
p=95%, probabilidad de que el individuo se cure

Como se aprecia, en experimentos donde el resultado es
dicotmico, la variable queda perfectamente
determinada conociendo el parmetro p.


Si se repite un nmero fijo de veces, n, un experimento de Bernoulli con
parmetro p, el nmero de xitos sigue una distribucin binomial de
parmetros (n,p).





Lanzar una moneda 10 veces y contar las caras.
Bin(n=10,p=1/2)

Lanzar una moneda 100 veces y contar las caras.
Bin(n=100,p=1/2)
Difcil hacer clculos con esas cantidades. El modelo normal ser ms adecuado.

El nmero de personas que enfermar (en una poblacin de 500.000 personas)
de una enfermedad que desarrolla una de cada 2000 personas.
Bin(n=500.000, p=1/2000)
Difcil hacer clculos con esas cantidades. El modelo de Poisson ser ms adecuado.

n k q p
k
n
k X P
k n k
s s
|
|
.
|

\
|
= =

0 , ] [
Tambin se denomina de sucesos raros.
Se obtiene como aproximacin de una
distribucin binomial con la misma media,
para n grande (n>30) y p pequeo (p<0,1).
Queda caracterizada por un nico parmetro
(que es a su vez su media y varianza.)
Funcin de probabilidad:

,... 2 , 1 , 0 ,
!
] [ = = =

k
k
e k X P
k

El nmero de individuos que ser atendido un da cualquiera


en el servicio de urgencias del hospital clnico universitario.
En Mlaga hay 500.000 habitantes (n grande)
La probabilidad de que cualquier persona tenga un accidente es
pequea, pero no nula. Supongamos que es 1/10.000
Bin(n=500.000,p=1/10.000) Poisson(=np=50)
Aparece de manera natural:
Errores de medida.
Distancia de frenado.
Altura, peso, propensin al crimen
Distribuciones binomiales con n grande (n>30) y p ni
pequeo (np>5) ni grande (nq>5).

Est caracterizada por dos parmetros: La media, ,
y la desviacin tpica, .

Su funcin de densidad es:

2
2
1
2
1
) (
|
.
|

\
|

=
o

t o
x
e x f
Interpretacin Geomtrica
Se puede interpretar la media como un factor de
traslacin.
Y la desviacin tpica como un factor de escala,
grado de dispersin,

Interpretacin probabilista
Entre la media y una desviacin tpica tenemos
siempre la misma probabilidad: aprox. 68%
Entre la media y dos desviaciones tpicas aprox.
95%


Cuando hay ms de una variable aleatoria presente (es decir, hay
dos o ms), siempre est la posibilidad de que de alguna manera
estn relacionadas. Por eso se trabaja con su funcin de
distribucin conjunta (y su funcin de densidad conjunta,
continua o discreta).

Ejemplos:
Mido la temperatura ambiente, y adems la presin atmosfrica.
Lanzo dos dados, y mido su suma, y tambin el valor ms alto de los dos.
Escojo un punto al azar en una esfera, y veo sus coordenadas.

Con las frecuencias marginales estudiaremos
el comportamiento de una variable
independientemente de lo que ocurra la otra.
La probabilidad de que la variable aleatoria
discreta X tome el valor de 3 se denota P(X = 3).
La funcin de probabilidad de X se denota f(x) y
se define como:
f(x) = P(X = x)
f(x) tambin se conoce como distribucin de
probabilidad
Se debe cumplir que:
f(x) 0
sum(f(x)) = 1
Condicional.
Cul es la
prob.de que la
2 canica sea
roja dado que la
1 es azul?
P(R2|R1)?
Conjunta
Cul es la
prob.de que la 1
sea roja y la 2
azul?
P(R1 y R2)?

P(R1 R2)=P(R1|R2)P(R2)
R1 canica azul
R2 canica roja
Una medida intuitiva de incertidumbre es la
probabilidad, en la que la distribucin
conjunta de un conjunto de variables se usa
para describir las relaciones de dependencia
entre ellas, y se sacan conclusiones usando
formulas muy conocidas de la teora de la
probabilidad.
Cuando se utiliza la probabilidad como
medida de incertidumbre , la estrategia de
razonamiento, se conoce como
razonamiento probabilstico o inferencia
probabilstica.
Las leyes de la probabilidad permiten establecer
diferentes mtodos de inferencia
Marginalizacin: Probabilidad de una proposicin
atmica con independencia de los valores del resto de
proposiciones

Probabilidades condicionadas: Probabilidad de una
proposicin dados unos valores para algunas
proposiciones e independiente del resto de
proposiciones (a partir de la regla del producto)



El valor es un factor de normalizacin que corresponde a factores comunes que
hacen que las probabilidades sumen 1
Consideremos un problema en el que intervengan las
proposiciones
Fumador = {fumador,fumador}, Sexo = {varon, mujer}, Enfisema =
{enfisema, enfisema}








Hacer estos procesos de inferencia requiere almacenar y recorrer
la distribucin de probabilidad conjunta de todas las proposiciones
Necesitamos mecanismos que nos simplifiquen el coste del
razonamiento

You might also like