You are on page 1of 4

Tarea Nº3

Patricio Lespai
Guillermo Catricheo
Redes de comunicación digital

1- En la tabla se muestran valores de 200 observaciones de una variable bidimensional.


Determinar:

a) Las probabilidades marginales de X y de Y.


b) La probabilidad P(X2│Y4).
c) La entropía H(X) y H(Y).

Solución

a)
- Distribución marginal de la variable X: se anotan los distintos valores de la variable X junto
con sus frecuencias. Denotadas por 𝑛𝑖. El numero de observaciones que representa el
valor 𝑥𝑖 en X.
- Distribución marginal de la variable Y: es análogo a lo anterior de notado por 𝑛.𝑗 el numero
de observaciones que presentan el valor 𝑦𝑗 .

Po lo tanto tenemos lo siguiente:


X \Y 10 15 20 25 30 35 𝒏𝒊.
8 8 10 10 6 0 10 44
10 12 20 0 14 10 20 76
12 24 10 10 6 20 10 80
𝒏.𝒋 44 40 20 26 30 40 200

• Columna naranja distribución marginal de la variable X.


• Fila azul distribución marginal de la variable Y.

b)
Tenemos que en X2 y Y4 hay 14 observaciones por lo tanto la probabilidad es:

p(X2|Y4) = 14/26=0.53

c) Entropía
Los logaritmos son en base 2.
H(x)= - 44 log (44) -76 log (76)- 80log (80) =

H(y)= -44log (44)- 40log (40)-20log (20)- 26log (26)-30log (30)-40log (40) =

2- Realice la codificación del siguiente mensaje: “la vaca blanca no bala”, utilizando el
método de Huffman. Determinar la entropía del mensaje.

Solución

Letra Frecuencia
v 1
0 1
b 2
n 2
c 2
l 3
““ 4
a 7

22
0

14
0 1
8
a 7 0
1
0 1
“-“
4
0 1
l 4
0 1 b 2
0 1
n c
v 0
Letra Valor binario
v 1110
0 1111
b 110
n 0110
c 0001
l 010
““ 10
a 00

Por lo tanto, la frase queda de la siguiente forma:

Mensaje= [010 00 10 1110 00 0001 00 10 110 010 00 0110 0001 00 10 0110 1111 10 110 00 010
00].

Da un total de 61 bits para formar el mensaje pedido. Como se tenían 22 símbolos en la frase se
tiene un promedio de 2,77 bits por símbolo.

Para la entropía se tiene que:


1
H(x)= ∑ 𝑝𝑖 𝑙𝑜𝑔2 [ ]
𝑝𝑖

Letra 𝑝𝑖 𝑝
O 𝑝1 1/18
V 𝑝2 1/18
B 𝑝3 1/9
N 𝑝4 1/9
C 𝑝5 1/9
L 𝑝6 1/6
“-“ 𝑝7 2/9
A 𝑝8 7/18

1 1 1 1 1 1
𝐻(𝑥) = ∗ 𝑙𝑜𝑔2 18 + ∗ 𝑙𝑜𝑔2 18 + ∗ 𝑙𝑜𝑔2 9 + ∗ 𝑙𝑜𝑔2 9 + ∗ 𝑙𝑜𝑔2 9 + ∗ 𝑙𝑜𝑔2 6
18 18 9 9 9 6

2 9 7 18
+ ∗ 𝑙𝑜𝑔2 + ∗ 𝑙𝑜𝑔2 ≈ 2.96289
9 2 18 7
3- ¿Cuántos dBs de S/N requeriríamos para transmitir sobre la capacidad del canal telefónico
(BW=3Khz), a 56 Kbps?

Solución:

El BW en un canal telefónico es 3.000 Hz y según el teorema de Shannon, la capacidad del


canal es:
𝐶 = 𝐵𝑊 ∗ 𝑙𝑜𝑔2 (1 + 𝑆/𝑁)[𝑏𝑝𝑠]
𝑏𝑝𝑠 𝑑𝐵
= log 2 (10 10 + 1)
𝐵𝑊

𝑏𝑝𝑠 𝑑𝐵
2𝐵𝑊 = ( 10 10 + 1)

𝑑𝐵 𝑏𝑝𝑠
= log10 (2𝐵𝑊 − 1)
10
𝑏𝑝𝑠
𝑑𝐵 = 10 ∗ log10 (2𝐵𝑊 − 1)
Finalmente se tiene:
𝑆
𝑑𝐵 = = 56.2 [𝑑𝐵]
𝑁

You might also like