ТИК_5_БойцоваМП_321б
.DOCXВаріант 2
Y/X=
X=
К =500
=0.01 сек
Щоб отримати значення імовірностей для Y, перемножимо дві матриці. В результаті отримаємо:
Y=
Канал зв’язку буде виглядати так:
Х1 У1 1/3
2/3
1/2
Х2 У2 1/2
1/2
Х3 У3 ½
Обчислимо ентропію для кожного з джерел:
H(X) = 0.5+0.5288+0.2322 = 1.361 біт/повідомлення
H(Y) = 0.53048+0.5+0.53058 = 1.56106 біт/повідомлення
Обчислимо спільну ентропію за формулами 5.10 та 5.21:
Спільні імовірності:
P(x1; y1) = 0.17
P(x1; y2) = 0
P(x1; y3) = 0.33
P(x2; y1) = 0.2
P(x2; y2) = 0.2
P(x2; y3) = 0
P(x3; y1) = 0
P(x3; y2) = 0.05
P(x2; y3) = 0.05
(5.10) H(X, Y) = 0.43452+0.52767+0.4644+0.2161+0.2161 = 2.32319 біт/повідомлення
H(X/Y) = 0.27183+0.19074+0.4+0.1 = 0.96257 біт/повідомлення
(5.21) H(X, Y) = 1.361+ 0.96257 = 2.32357
5.10≈5.21
Обчислимо середнє значення інформації, що передається по каналу за формулами 5.12 та 5.22:
Значення спільної інформації:
I(x1; y1) = -0.168
I(x1; y2) = 0
I(x1; y3) = 0.816
I(x2; y1) = 0.433
I(x2; y2) = 1
I(x2; y3) = 0
I(x3; y1) = 0
I(x3; y2) = 1
I(x2; y3) = 0.401
(5.12) = -0.02856+0.26928+0.0866+0.2+0.05+0.02005 = 0.5973 біт/повідомлення
(5.22) = 1.56106 – 0.96257 = 0.5985 біт/повідомлення
5.12≈5.22
Обчислимо кількість інформації у повідомленні (від джерела Х до джерела Y):
I = 3*500 = 1.585*500 = 792.5 біт
Обчислимо продуктивність джерела Х:
R = 1.56106 : 0.01 = 156.106 біт/с