Professional Documents
Culture Documents
http://bit.ly/2BVCjVa
Qué es la teoría de la información?
Medida de la fuente
Capacidad de Canal Codificación
de información
Si la tasa de información de una fuente no excede la capacidad del
canal de comunicación, entonces existe una técnica de codificación
tal que la información puede ser transmitida sobre el canal con
tasas de error muy pequeñas a pesar de contar con presencia de
ruido.
Que es la información?
Es un conjunto de datos que forman un mensaje cambiando el
estado de conocimiento del sistema que recibe ese mensaje.
I i=log b
1
Pi ( )
Binit o Bit
Self-information
I i=log 2
1
( )
Pi bits
P( x i , x j )=P i P j
Entonces
I ij =log 2
( 1
)
P(x i , x j )
=log 2
( )
1
Pi P j
=log 2
1
Pi ( ) ( )
+log 2
1
Pi
=I i + I j
Medida de la información
El Término:
I i=log 2 ( )
1
Pi bits
Por ejemplo:
Ejercicio:
P(x 1 )=0.1
Calcular la cantidad de información
Fuentes de información de memoria
nula
Supongamos que existe una fuente de información que emite
simbolos de un alfabeto de M tipos de “letras” (alfabeto M-
ario), si definimos a X como el conjunto de esos M simbolos
tenemos:
X ={x 1 , x 2 , x 3 , ... x M }
Teniendo en cuenta que la aparición de cada símbolo
posee una probablidad de P . EL conjunto de datos debe
i
satisfacer la siguiente expresión:
M
∑ Pi =1
1
Fuentes de información de memoria
nula
Una fuente de informaciń nula cumple las siguientes
propiedadaes:
1)Es una fuente estacionaria (Las probabilidades permaneces
constantes en el tiempo).
2)Los símbolos de la fuentes son estadísticamente
independientes.
3)Los símbolos son producios a una tasa de r símbolos por
segundo.
Fuentes de información de memoria
nula
I ={I 1 , I 2 , I 3 , ... I M }
Si se quiere calcular el valor esperado ( promedio?) de la cantidad de información
suministrada por la fuente utilizamos la definicón estadística de valor esperado.
M
H ( X )=∑ P i I i
1
Entropía
Sabemos que el promedio de cantidad de
información es:
M
H ( X )=∑ P i I i
1
Y reemplazando
I i=log 2( )
1
Pi
Tenemos:
M
H ( X )=∑ P i log 2
1
( )
1
Pi
Entropía
M
H ( X )=∑ P i log 2
1
1
Pi ( ) bits/símbolo
nH ( x) bits
Entropía
t=n / r segundos
0≤H ( x)≤log 2 M
H ( X )= p log 2 ( )
1
p
+(1− p) log2
1
1− p ( )
Entropía
( )
H ( X )= p log 2
1
p ( )
+(1− p) log 2
1
1− p
Horseshoe function
Ω( p)
Ejercicio
H ( X )=Ω (p)+(1−p)
p(x1)=p
p(x2)=1-p
1)H(X)
2)H(Y)
X: Estudios 3)H(Y|X=Math)
4)H(Y|X=History)
Y:Gusto por los 5)H(Y|X=CS)
videojuegos 6)H(Y|X)
Desarrollo en clase!
Entropía condicional