Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Мат. лінгвістика 4

.pdf
Скачиваний:
27
Добавлен:
12.02.2016
Размер:
392.43 Кб
Скачать

МІНІСТЕРСТВО ОСВІТИ І НАУКИ, МОЛОДІ ТА СПОРТУ УКРАЇНИ

НАЦІОНАЛЬНИЙ УНІВЕРСИТЕТ ”ЛЬВІВСЬКА ПОЛІТЕХНІКА”

ІНФОРМАЦІЙНІ ВИМІРИ КОДУВАННЯ ІНФОРМАЦІЇ

МЕТОДИЧНІ ВКАЗІВКИ

до лабораторної роботи №4 з дисципліни «Математична структурна та прикладна лінгвістика»

для студентів напряму «Системи штучного інтелекту»

Затверджено на засіданні кафедри

інформаційних систем та мереж Протокол №14 від 18.05.2012р.

Львів-2012

Інформаційні виміри кодування інформації: методичні вказівки до лабораторної роботи №4 / Укл.: Укл.: В.А. Висоцька, Ю.В. Нікольський, Т.В. Шестакевич, Ю.М. Щербина. – Львів: Видавництво Національного університету ”Львівська політехніка”, 2007. – 24 с.

Укладачі Висоцька В.А., асистент Нікольський Ю.В., д.т.н., професор. Шестакевич Т.В., асистент Щербина Ю.М., к.ф.-м.н, доцент.

Відповідальний за випуск

Жежнич П.І., д.т.н., професор.

Рецензенти Берко А.Ю., д.т.н., професор. Чирун Л.В., к.т.н, доцент.

2

Мета роботи: розглянути властивості умовної ентропії, її загальний та частковий випадок, а також виміри інформації у випадку її кодування.

1.1УМОВНА ЕНТРОПІЯ ТА ЕНТРОПІЯ ОБ’ЄДНАННЯ

1.2ЗАГАЛЬНА І ЧАСТКОВА УМОВНА ЕНТРОПІЯ

Поняття умовної ентропії в теорії інформації використовується

при визначенні взаємозалежності між символами алфавіту, що кодується, для визначення втрат при передачі інформації по каналах зв’язку, при обчисленні ентропії об’єднання. (Суть взаємозалежності символів букв алфавіту полягає в тому, що ймовірність появи i-ї букви в будь-якому місці повідомлення залежить від того, які букви стоять перед нею і після неї, і буде відрізнятись від безумовної ймовірності pi, яка відома зі статистичних властивостей даного алфавіту)

У всіх випадках при обчисленні умовної ентропії в тому чи іншому вигляді використовуються умовні ймовірності.

Якщо при передачі n повідомлень символ А з’явиться m разів, символ В з’явиться l разів, а символ А разом з символом В k разів,

то ймовірність появи символу А p A m , ймовірність появи символу

n

В p B

l

; ймовірність сумісної появи символів А і В

p AB

k

;

 

 

 

n

 

n

умовна ймовірність появи символу А відносно символу В та умовна ймовірність появи символу В відносно символу А

p A/ B

p AB

 

 

k

;

p B/ A

p AB

 

 

k / n

 

k

 

(1)

p B

 

p A

 

 

 

 

 

l

 

 

m/ n m .

 

Якщо відома умовна ймовірність, то можна легко визначити також

імовірність спільної появи символів А і В, використовуючи

вираз

(16)

 

p AB p B p A/B p A p B/ A .

(2)

Від класичного виразу формула умовної ентропії відрізняється тим, що в ній ймовірності – умовні:

H bj

/ai p bj

/ai log p bj

/ai ,

(3)

 

j

 

 

 

H ai

/bj p ai

/bj log p ai

/bj ,

(4)

 

i

 

 

 

3

де індекс i вибраний для характеристики довільного стану джерела повідомлень А, а індекс j вибраний для характеристики довільного стану адресата В.

Розрізняють поняття часткової та загальної умовної ентропії. Вирази

(3) та (4) представляють часткові умовні ентропії.

Загальна умовна ентропія повідомлення В відносно повідомлення А характеризує кількість інформації, що міститься в будь-якому символі алфавіту, і визначається усередненням по всіх символах, тобто по всіх станах з врахуванням ймовірності появи кожного зі станів і дорівнює сумі ймовірностей появи символів алфавіту на невизначеність, яка залишається після того, як адресат прийняв сигнал

H B/ A p ai H bj

/ai p ai

p bj /ai log p bj /ai .

(5)

i

i j

 

 

Вираз (5) є загальним виразом для визначення кількості інформації на один символ повідомлення для випадку нерівномірних та взаємозалежних символів.

Оскільки p(ai)p(bj/ai) являє собою ймовірність спільної появи двох подій p(ai/bj), то формулу (20) можна записати наступним чином

(6)

H B/ A p ai /bj log p bj /ai .

i j

Якщо ми досліджуємо канал зв’язку з боку приймача повідомлень, то з отриманням сигналу bj припускаємо, що був відісланий якийсь із сигналів a1,a2,...,ai,...,am . При цьому канальна матриця буде мати вигляд:

B

b1

b2

bj

bm

A

 

 

 

 

 

 

a1

p a1 /b1

p a1 /b2

p a1/bj

p a1 /bm

a2

p a2 /b1

p a2 /b2

p a2 /bj

p a2 /bm

ai

p ai /b1

p ai /b2

p ai /bj

p ai /bm

am

p am /b1

p am /b2

p am /bj

p am /bm

В цьому випадку часткова умовна ентропія

4

 

m

/bj log p ai /bj ,

 

(7)

H ai /bj p ai

 

 

i 1

 

 

 

 

 

а загальна умовна ентропія

 

 

 

H A/B p bj p ai /bj log p ai /bj .

 

(8)

j

i

 

 

p bj /ai та

 

Якщо задані

канальна матриця

вигляду

безумовні

ймовірності

вигляду

p ai , то

безумовні

ймовірності

приймача

p bj знаходимо як

p ai p bj

/ai , тобто якщо задані безумовні

 

 

 

i

 

 

 

ймовірності джерела та канальної матриці, то може бути розрахована ентропія приймача

H B p bj log p bj , і навпаки, якщо задані ймовірності

j

вигляду p bj та канальна матриця, яка описує канал зв’язку з боку

приймача повідомлень, то p ai p bj p ai /bj , а значить може

j

бути

визначена

ентропія

джерела

повідомлень

H A p ai log p ai .

i

Якщо взаємозалежність пов’язує 3 елементи ai , aj , ak , то умовна ентропія розраховується за формулою

H A/B,K p ai,aj,ak log p ai,aj,ak ,

i j k

аналогічно і для 4,5,...,n елементів.

1.3 СУМІСНА ПОЯВА СТАТИЧНО ЗАЛЕЖНИХ ПОВІДОМЛЕНЬ

Ентропія об’єднання використовується для розрахунку ентропії сумісної появи статично залежних повідомлень. Наприклад, передавши сто разів цифру 5 по каналу зв’язку із перешкодами, зауважимо, що цифра 5 була прийнята 90 разів, цифра 6 – 8 разів та цифра 4 – 2 рази. Невизначеність виникнення комбінацій вигляду 5 – 4, 5 – 5, 5 – 6 при передачі цифри 5 може бути описана за допомогою ентропії об’єднання. H A,B – невизначеність того, що буде відіслано A, а прийнято B. Для набору переданих повідомлень A та

5

прийнятих повідомлень B ентропія об’єднання представляє собою суму вигляду

H A,B p ai,bj log2 p ai,bj біт/два символа.

(9)

i j

 

Ентропія об’єднання та умовна ентропія пов’язані між собою наступними співвідношеннями:

H A,B H A H B/ A H B H A/B ,

H B/ A H A,B H A ,

H A/B H A,B H B .

Ентропія об’єднання може бути обчислена за допомогою матриці вигляду:

p a1,b1 p a1,b2 p a1,bm

p ai,bj p a2,b1 p a2,b2 p a2,bm .

..................................................

p am,b1 p am,b2 p am,bm

Така матриця володіє наступною властивістю:

p ai,bj p bj ,

i

p ai,bj p ai ,

j

при цьому p ai p bj 1. Ця властивість, в свою чергу,

i j

дозволяє розраховувати ентропію як джерела, так і приймача повідомлень безпосередньо по канальній матриці:

H A p ai,bj log p ai,bj .

(10)

i

j

j

 

H B p bj,ai log p bj,ai .

(11)

i

j

i

 

Сумування

проводимо

по i та j, так

як для того, щоб знайти

безумовні ймовірності, необхідно сумувати їх за одною координатою (маючи на увазі матричне представлення ймовірностей), а для знаходження H сумування проводиться по іншій координаті.

Умовні ймовірності вигляду p ai /bj та p bj /ai розраховуються як:

6

p ai /bj

p ai,bj

 

p bj /ai

p ai,bj

 

,

 

.

p ai,bj

p ai,bj

 

i

 

 

j

Кількість інформації на символ повідомлення, переданого по каналу зв’язку, в якому вплив перешкод описується за допомогою ентропії об’єднання, підраховується наступним чином:

I A,B H A H B H B,A .

1.4 ІНФОРМАЦІЙНІ ВТРАТИ В КАНАЛАХ ІЗ ШУМОМ

Поняття загальної і часткової умовної ентропії широко використовується для обчислення інформаційних втрат в каналах зв’язку з шумом.

В загальному випадку, якщо ми передаємо m сигналів А і очікуємо отримати m сигналів В, вплив перешкод в каналі зв’язку повністю описується канальною матрицею, яка наведена нижче

B

b1

b2

bj

bm

A

 

 

 

 

 

 

a1

p b1 /a1

p b2 /a1

p bj /a1

p bm /a1

a2

p b1 /a2

p b2 /a2

p bj /a2

p bm /a2

ai

p b1 /ai

p b2 /ai

p bj /ai

p bm /ai

am

p b1/am

p b2 /am

p bj /am

p bm /am

Ймовірності, які розміщені по діагоналі, визначають правильний прийом, решта – хибний. Значення цифр, які заповнюють колонки канальної матриці, звичайно зменшуються по мірі віддалення від головної діагоналі, і при повній відсутності перешкод, всі, крім цифр на головній діагоналі, дорівнюють нулю.

Втрати інформації, які припадають на частку сигналу a1 , описуються за допомогою часткової умовної ентропії виду

H bj

/a1 p bj

/ a1 log p bj

/a1 .

(12)

 

j

Сумування відбувається по j, оскільки i-ий стан (в даному випадку перший) залишається постійним.

7

Щоб врахувати втрати при передачі всіх сигналів по даному каналу зв’язку, потрібно просумувати всі часткові умовні ентропії (тобто провести подвійне сумування по і та по j). При цьому в випадку рівноймовірних появ сигналів на виході джерела повідомлень

H B/ A

1

p bj / ai log p bj / ai ,

(13)

m

 

 

i j

 

(ділимо на m, оскільки ентропія є невизначеність на один символ).

У випадку нерівноймовірної появи символів джерела повідомлень потрібно врахувати ймовірність появи кожного символа, помноживши на неї відповідну часткову умовну ентропію.

При цьому загальна умовна ентропія:

H B/ A p ai

p bj /ai log p bj / ai .

(14)

 

i

j

 

Якщо перешкод немає або їх рівень настільки низький, що вони не в стані знищити сигнал чи імітувати корисний сигнал при відсутності передачі, то при передачі ai ми будемо твердо впевнені, що отримаємо bj – сигнал, який відповідає переданому ai -му сигналу.

Події A та B статистично жорстко пов’язані, умовна ймовірність максимальна p bj /ai 1, а умовна ентропія

m

(15)

H A/B p bj /ai log2

p bj /ai 0,

i 1

 

оскільки log2 p bj /ai log21 0.

В цьому випадку кількість інформації, яка вміщується в прийнятому наборі повідомлень B, рівна ентропії переданих повідомлень набору A, тобто I B,A H A

При високому рівні перешкод будь-який із прийнятих сигналів bj

може відповідати будь-якому переданому сигналу ai , статистичний зв’язок між переданими та прийнятими сигналами відсутній. В цьому випадку ймовірності p ai та p bj є ймовірностями незалежних

подій і p bj /ai p bj , p ai /bj p ai .

H A/B p bj p ai /bj log2 p ai /bj

ij

p bj p ai log2 p ai p bj H A H A

i

j

j

8

Оскільки p bj 1, тобто умовна ентропія рівна безумовній, а

j

кількість інформації, яка вміщується в B, відносно A рівна нулю:

I A,B H A H A/B 0.

Інформаційні характеристики реальних каналів зв’язку знаходяться між цими двома граничними випадками. При цьому втрати інформації при передачі k символів по даному каналу зв’язку

I kH A/B .

Не дивлячись на те, що частина інформації змінюється через перешкоди, між прийнятими та переданими повідомленнями існує статична взаємозалежність. Це дозволяє описувати інформаційні

характеристики реальних каналів зв’язку за допомогою

ентропії

об’єднання статистично залежних подій. Так як

 

H A,B H A H B/ A H B H A/B ,

(16)

то втрати в каналі зв’язку можуть бути враховані за допомогою ентропії об’єднання наступним чином:

I B,A H A H B H B,A ,

(17)

а з використанням умовної ентропії

I B,A H A H A/B H B H B/ A .

Для розрахунку середньої кількості інформації, що вміщується в прийнятому наборі повідомлень B відносно переданого набору повідомлень A в умовах дії перешкод, користуються наступними виразами, виділеними безпосередньо із виразу (17):

I B,A p ai p bj /ai log2

 

p bj /ai

 

,

 

(18)

 

 

 

 

 

p bj

 

 

 

i

j

 

 

 

 

 

 

I A,B p bj p ai /bj log2

 

p ai /bj

,

 

(19)

 

p a

 

 

 

i

j

 

 

 

i

 

 

 

 

I B,A I A,B p ai,bj log2

p bj /ai

 

(20)

p bj

 

 

i j

 

 

 

 

,

 

 

p ai /bj

 

 

 

 

 

 

 

p bj

,ai log2

p ai,bj log2

p ai,bj

 

p ai

p ai p bj

i j

 

i

 

j

 

 

Для розрахунків часто зручно застосовувати вирази (18-20) у вигляді

9

 

 

p ai /bj p ai /bj log2

p ai

 

,

I A,B p bj p ai /bj log2

 

j

i

p bj /ai p bj /ai log2

p bj

 

 

 

 

 

,

I B,A p ai p bj /ai log2

 

i

j

 

 

 

 

I A,B I B,A p ai,bj log2 p ai,bj

i j

p ai,bj log2 p ai p bj

i j

Для повного та всебічного опису каналу зв’язку необхідно задати:

канальну матрицю

виду

p ai /bj

та безумовні ймовірності виду

p bj або

канальну

матрицю

виду p bj /ai та

безумовні

ймовірності

виду

p ai ,

або канальну матрицю виду

p ai,bj . В

останньому випадку сума значень матриці по стовпцях дає безумовні

 

 

 

 

 

 

 

 

ймовірності виду p bj

p bj 1 , а сума по рядках дає безумовні

 

 

 

 

 

j

 

 

 

 

 

 

 

 

 

ймовірності

виду

p ai

 

 

 

можуть

 

p ai 1 . Умовні ймовірності

 

 

 

 

 

i

 

 

бути знайдені із виразів:

 

 

p ai,bj

 

p ai /bj

p bj,ai

, p bj

/ai

 

 

 

 

.

 

 

p bj

p ai

 

Знаючи умовні та

безумовні

ймовірності, можна знайти

H A ,

H B , H A/B та H B/ A .

Якщо рівень перешкод настільки великий, що з рівною ймовірністю можна очікувати перехід будь-якого символу джерела повідомлення в довільний символ первинного алфавіту, то ентропія каналу зв’язку буде рівна log2 m, а кількість інформації I H A log2 m 0, при цьому значення I може бути від’ємною величиною, що означає, що канал зв’язку вносить дезінформацію.

1.5 ЛІТЕРАТУРА

Нікольський Ю.В., Пасічник В.В., Щербина Ю.М. Дискретна математика: Підручник. – Львів: "Магнолія Плюс", 2005. – 608с.

10