Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

681_Trofimov_V.K._Teoremy_kodirovanija_neravnoznachnymi_

.pdf
Скачиваний:
5
Добавлен:
12.11.2022
Размер:
2.19 Mб
Скачать

 

 

 

 

 

 

 

1

 

 

p w l (k0 ) (w0 ),

tY

 

H ( )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

C tY

 

 

 

 

 

 

 

 

 

N w X N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

p w

 

 

 

 

 

 

 

 

 

(k

 

1)2

 

 

 

 

l ( k ) (w),

 

 

l ( k0 ) (w0 ),

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

tY

tY

 

 

 

 

 

 

 

log 1

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N w X

N

 

 

 

 

 

 

 

k k0

 

(k 1)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

T * C log 2log(k

 

1)

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(7.2)

Так как при любых w X N выполняется неравенство

 

 

 

 

 

 

 

 

log 1 (k0 1)

 

2 l

 

 

 

(w),tY l

 

 

(w0 ),tY

0 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

( k )

 

 

 

 

 

 

 

 

 

 

( k0 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k0 (k 1)

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

то из (7.2) получаем:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r(N, , ,

 

 

 

) r(N , , (k0 ) ,

 

)

2log k0

1

 

T **

.

 

 

 

(7.3)

 

 

 

 

 

t

 

 

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Из универсальной оптимальности (k0 )

для множества источников k

из

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

(7.3) имеем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r(N, , ,

 

 

) r(N, , (k0 ) ,

 

 

)

2log k0 1

 

T ***

,

 

 

 

 

 

 

t

 

t

 

(7.4)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

N

 

 

 

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где T ***

не

зависит ни

 

от N,

ни

от k, ни от

 

k0. Из (5.4) и определения

R N , k

,

 

следует утверждение леммы.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

tY

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Лемма доказана.

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Следует отметить, что предложенное кодирование φ не требует пере-

стройки в зависимости от выбранного источника: оно само автоматически под-

страивается по выбранному источнику.

7.2.Универсальное кодирование для объединения множеств марковских источников

Пусть k , где k – марковские источники с конечной памятью s(k),

k

k =1,2,… .Имеет место следующее утверждение.

71

Теорема 7.2.1. Для множества марковских источников

k суще-

 

k

ствует такое кодирование φ, что для любого источника k0 , где k0 произ-

вольное, выполняется асимптотическое неравенство

 

 

 

k s(k0 ) (k 1)

 

2log k

C

 

r(N, , , tY )

 

log N

0

 

.

2N

N

 

 

 

 

 

 

 

Доказательство. Выше построен оптимальный метод кодирования мар-

ковских источников с конечной памятью. Этот метод кодирования позволяет получить для марковских источников связанности s оценку вида

R(N,

,

)

k s (k 1)

log N

T

,

(7.4)

 

 

 

 

s

Y

 

2NC tY

 

N

 

 

 

 

 

 

 

 

которую асимптотически нельзя улучшить. Пусть φsкодирование, оптималь-

ное для множества марковских источников связанности s. Каждому слову u оно ставит в соответствие слово φs(u), имеющее длительность |φs(u)|:

s (u) log ps (u) T * ,

где ps (u) – средняя вероятность слова u по множеству источников s , при условии, что на s задано КТ-распределение. Для множества источников определена средняя вероятность слова u по формуле

 

6

 

 

1

 

 

p(u)

 

 

ps(k ) (u) .

(7.5)

2

 

 

 

k 1

k 2

 

 

 

 

 

 

 

Очевидно, что если объединение состоит из бесконечного числа источни-

ков, то p(u) 1; в противном случае,

 

p(u) 1. Построим разделимое

u X N

 

 

u X N

 

кодирование, как это сделано ранее, используя распределение (7.5), тогда коди-

рование φ имеет для слова u длительность

 

(u)

 

log p(u) T ** .

(7.6)

 

 

В (7.6) T ** – равномерно ограниченная постоянная. Оценим для построенного кодирования r(N, , , tY ) . Пусть s(k0 ) по определению имеем:

72

 

 

 

1

p (u) ( log ps(k0 ) (u))

H ( )

 

 

 

T **

 

r(N, , , tY )

 

 

 

 

 

 

 

.

(7.7)

 

 

 

 

 

 

 

 

 

 

 

N u X N

log 0 (tY )

 

N

 

Согласно (7.5), (7.6) из (7.7) следует

r(N , , ,

 

)

1

p (u) ( log ps(k0 ) (u))

 

H ( )

 

 

tY

 

 

 

 

 

 

 

 

 

 

log 0 (tY )

 

 

 

 

 

 

 

 

N u X N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

(7.8)

 

 

 

 

 

 

 

 

2

 

ps(k ) (u)

 

 

***

 

 

 

 

 

 

 

1

p (u) log 1

 

k0

 

 

 

T

 

.

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

N u X

N

 

 

k k0 k

 

 

 

 

N

 

 

 

 

 

 

 

 

 

ps(k0 ) (u)

 

 

 

Так как

 

1

p (u) ( log ps(k0 ) (u))

 

H ( )

 

r N, , s(k0 ) ,

 

 

 

 

T

R N, s(k0 ) ,

 

 

T

 

 

 

tY

tY

 

 

 

 

 

 

 

 

 

 

 

N

N

 

 

 

 

 

 

 

 

 

 

N u X N

 

 

log 0 (tY )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(T равномерно ограничена) и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

2

 

ps(k ) (u)

 

 

 

 

 

 

 

 

 

 

p (u) log 1

 

k0

 

 

0 ,

 

 

 

N

k 2

p

 

 

(u)

 

 

 

 

u X

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k k0

 

 

s(k0 )

 

 

 

 

 

 

 

 

 

 

то из (7.8) получаем:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r(N, , ,

 

 

) R(N,

 

 

 

 

 

,

 

 

)

T

.

 

 

 

 

 

 

 

 

 

t

s(k0 )

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

 

 

 

 

Y

 

 

 

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k s (k 1)

 

 

 

T

 

 

 

 

 

 

 

 

 

 

 

 

 

Отсюда и из (7.4) имеем r(N, , , t

)

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y

 

 

2NC(tY )

 

 

 

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Теорема доказана.

Предложенное выше кодирование целесообразно применять в том случае,

когда избыточность кодирования одного класса источников существенно отли-

чается от избыточности другого класса источников.

Например, известно, что кодируемый источник может быть либо бернул-

лиевским, либо марковским связанности s = 20. Если кодировать все источники как марковские источники с памятью s = 20, избыточность такого кодирования

будет асимптотически равна

k 20

(k 1)

log N , а кодирование, предложенное в

 

 

 

 

 

2NC(

tY

)

 

настоящей работе, имеет эту избыточность только для марковских источников с

73

памятью s = 20, для бернуллиевских источников это же самое кодирование бу-

дет давать избыточность

k 1

log

N L

, что в k 20

раз меньше.

 

 

 

L 1

 

2NC(

t

)

 

 

 

 

 

Y

 

 

 

 

Литература

[1]Галлагер, Р. Г. Теория информации и надежная связь [Текст] / Р. Г. Галлагер. – М.: Советское радио, 1974.

[2]Колмогоров, А.Н. Три подхода к определению понятия количество информации [Текст] / А.Н. Колмогоров //Проблемы передачи информации. 1966.

Т. 1, 1. – С. 3-11.

[3]Кричевский, Р.Е. Связь между избыточностью кодирования и достоверностью сведений об источнике [Текст]/ Р.Е. Кричевский. // Проблемы передачи информации. 1968. – Т. 4. 3. С. 48-57.

[4]Кричевский, Р.Е. Длина блока, необходимая для получения заданной избыточности [Текст] / Р.Е. Кричевский. // Доклад АНСССР. 1966. Т. 171, № 1.

[5]Кричевский, Р. Е. Оптимальное кодирование источника на основе наблюдений [Текст] / Р. Е. Кричевский. // Проблемы передачи информации. 1975.

Т. 11. № 4. – С. 37-42.

[6]Кричевский, Р. Е. Универсальное кодирование и колмогоровская сложность [Текст] / Р.Е. Кричевский. // Тр. V Междунар. симпоз. по теор. информ.: Тез. докл. Москва Тбилиси, 1979. – Ч. 2. – С. 22-25.

[7]Кричевский, Р.Е. Сжатие и поиск информации [Текст]/ Р.Е. Кричевский. – М.: Радио и связь, 1989.

[8]Марков, А.А. Введение в теорию кодирования [Текст] / А.А. Марков. – М.: Наука, 1982.

[9]Потапов, В.Н. Оценки избыточности кодирования последовательностей алгоритмом Лемпела Зива [Текст] / В.Н. Потапов. // Дискрет. анализ и исслед. операций., Сер. 1., 1999. – Т. 6. № 2. – С. 70-81.

[10]Потапов, В.Н. Обзор методов неискажающего кодирования дискретных источников [Текст] / В.Н. Потапов. // Дискрет. анализ и исслед. операций., Сер. 1., 1999. – Т. 6. № 4.– C. 49-91.

[11]Потапов, В.Н. Теория информации. Кодирование дискретных вероятностных источников [Текст] / В.Н. Потапов. – Новосибирск: Изд. центр НГУ,

1999.

74

[12]Потапов, В.Н. Арифметическое кодирование вероятностных источников [Текст] / В.Н. Потапов. // Дискретная математика и е приложения: Сб. лекций молодежных научных школ по дискретной математике и е приложениям II. – М.: Изд-во центра прикладных исследований при ММФ МГУ, 2001. – С. 59 70.

[13]Рябко, Б.Я. Кодирование источника с неизвестными, но упорядоченными вероятностями [Текст] / Б.Я. Рябко.// Пробл. передачи информ. 1979. – Т.

15. № 2. – C. 71 77.

[14]Рябко, Б.Я. Универсальное кодирование компактов [Текст] / Б.Я. Рябко. // Доклад АН СССР. 1980. – Т. 252. № 6. – C. 1325 1328.

[15]Рябко, Б. Я. Дважды универсальное кодирование [Текст] / Б.Я. Рябко. // Проблемы передачи информации. 1984. – Т. 20, № 3. – С. 24-28.

[16]Рябко, Б. Я. Эффективный метод кодирования источников информации, использующий алгоритм быстрого умножения [Текст] / Б.Я. Рябко. // Проблемы передачи информации. 1995. – Т. 31. № 1. – С. 3-12.

[17]Рябко, Б.Я. Эффективный метод арифметического кодирования для источников с большими алфавитами [Текст] / Б.Я. Рябко, А.Н. Фионов. // Проблемы передачи информации. 1999. – Т. 35. № 4. – C. 95 108.

[18]Тарасенко, Ф.П. Введение в курс теории информации [Текст] / Ф.П. Тарасенко. – Томск: ТГУ, 1963.

[19]Трофимов, В. К. Избыточность универсального кодирования произвольных марковских источников [Текст] / В.К. Трофимов. // Проблемы передачи информации. 1974. – Т. 10. № 4. – С. 16-24.

[20]Трофимов, В. К. Универсальное равномерное по выходу кодирование бернуллиевских источников [Текст] / В.К. Трофимов. // Методы дискретного анализа в теории кодов и схем: Сб. науч. тр. – Новосибирск: Ин-т математики СО АН СССР, 1976. – Вып. 29. – С. 3-11.

[21]Трофимов, В. К. Слабоуниверсальное равномерное по выходу кодирование дискретных стационарных источников [Текст] / В.К. Трофимов. // Вестник СибГУТИ. 2010. № 2. – С. 101-111.

[22]Фано, Р. Передача информации. Статистическая теория связи [Текст] / Р. Фано. // Мир, М.: 1965.

[23]Фитингоф, Б. М. Оптимальное кодирование при неизвестной и меняющейся статистике сообщений [Текст] / Б.М. Фитингоф. // Проблемы передачи информации. 1966. –Т. 2. № 2. – С. 3 11.

75

[24]Фитингоф, Б. М. Сжатие дискретной информации [Текст] / Б.М. Фитингоф. // Проблемы передачи информации. 1967. – Т. 3. 3. – С. 28 36.

[25]Чисар, И. О каналах без шума [Текст] / И. Чисар. // Проблемы передачи информации. 1970.– Т. 6. № 4. С. 3-15.

[26]Чисар, И. Теория информации. Теоремы кодирования для дискретных систем без памяти [Текст] / И. Чисар, Я. Кернер. // М.: Мир, 1985.

[27]Хаффман, Д.А. Метод построения кодов с минимальной избыточностью [Текст]: Пер. с англ. / Д.А. Хаффман. // Кибернетический сборник. М.: ИЛ, 1961. Вып. 3. С. 79 87.

[28]Шеннон, К. Математическая теория связи [Текст] / К. Шеннон.// Работы по теории информации и кибернетике. М.: Ил, 1963. С. 243 332.

[29]Штарьков, Ю.М. Кодирование сообщений конечной длины на выходе источника с неизвестной статистикой [Текст] / Ю.М. Штарьков. // Материалы V конф. по теории кодирования и передачи информации. Москва – Горький. 1972. Ч. 1. – С. 147-152.

[30]Штарьков, Ю.М. Обобщенные коды Шеннона [Текст] /Ю.М. Штарьков. // Проблемы передачи информации. 1984. –Т. 20. № 3. – С. 3–16.

[31]Штарьков, Ю. М. Оптимальное универсальное кодирование по критерию максимальной индивидуальной относительной избыточности [Текст] / Ю.М. Штарьков, Ч.Дж. Чокенс, Ф.М.Дж. Виллемс. // Проблемы передачи информации. 1997. – T. 33. № 1. – C. 21-34.

[32]Штарьков, Ю. М. Мультиалфавитное взвешенное универсальное кодирование древовидно-контекстных источников. [Текст] / Ю.М. Штарьков, Ч.Дж. Чокенс, Ф.М.Дж. Виллемс. // Проблемы передачи информации.

2004. – T. 40. № 1. С. 98–110.

[33]Abramson, N. Information theory and coding [Текст] /N. Abramson. McGrawHill, New York, 1963.

[34]Bell, Т. C. Modeling For Text Compression [Текст] / Т.C. Bell, I.H. Witten, J.G. Cleary. // ACM Computing Surveys. Dec. 1989. – V. 21. 4. P. 557-591.

[35]Burrows, M. A block-sorting lossless data compression algorithm [Текст] / M. Burrows, D.J. Wheeler // Tech. Rep. 124, Digital Systems Res. Ctr. – Palo Alto, CA, May 10. 1994.

[36]Cover, T. Enumerative source coding [Текст] / T. Cover //IEEE Trans. Inform. Theory. Jan. 1973. – V. IT–19. – P. 73-76.

76

[37]Davisson, L. D. Comments on `Sequence time coding for data compression' [Текст] / L.D. Davisson. // Proc. IEEE (Corresp.). Dec. 1966. – V. 54. – P. 2010.

[38]Davisson, L. D. Universal Noiseless Coding [Текст] / L.D. Davisson. //IEEE Trans. Inform. Theory. 1973. – V. 19. № 6. – P. 783–795.

[39]Elias, P. The e cient construction of an unbiased random sequence [Текст] / P. Elias. // Ann. of Math. Statist. 1972. – V.43. № 3. – P. 864-870.

[40]Elias, P. Interval and recency rank source encoding: two on-line adaptive varia- ble-rate schemes [Текст] / P. Elias. // IEEE Transactions on Information Theory. January 1987. – V. 33. № 1. – P. 3-10.

[41]Faller, N. An adaptive system for data compression [Текст]/ N. Faller. // in 7th Asilomar Conf. on Circuits, Systems, and Computing. 1973. – P. 593-597.

[42]Jelinek, F. Probabilistic information theory [Текст] /F. Jelinek. New York: McGraw-Hill, 1968. – P. 476–489. transmission in the case of continious signals.

[43]Jelinek, F. On variable length-to-block coding [Текст] / F. Jelinek, K. Schneider. // IEEE. Trans. Inform. Theory. Nov. 1972. – V. IT–18. – P. 765-774.

[44]Jelinek, F. Variable-length encoding of xed-rate Markov sources for xed-rate channels [Текст] / F. Jelinek, K. Schneider. // IEEE Transactions on Information Theory. – 1974. – V. 20. № 6. – P. 750 - 755.

[45]Gallager, R. G. Variation on a theme by Human [Текст]/ R. Gallager. // IEEE Transactions on Information Theory. November 1978. – V. 24. № 6. – P. 668674.

[46]Katona, G. General theory of noiseless channels [Текст] /G. Katona. // UDINE 1970. Courses and lectures – № 31. P.69.

[47]Knuth, D. E. Dynamic Hu man coding [Текст] / D. Knuth.// J. Algorithms. 1985. – V. 1985. – P. 163-180.

[48]Kraft, L.G. A device for quantizing, grouping, and coding amplitude modulated pulses [Текст] / L.G. Kraft. // Cambridge, MA: MS Thesis. – Electrical Engineering Department, Massachusetts Institute of Technology. 1949.

[49]Krichevsky, R.E. Optimal sample based encoding Markov sources [Текст] / R.E. Krichevsky, V.K. Tro mov. // Third Czechoslovak-Soviet-Hungarian seminar on information theory. – Liblice, 1980. –P. 131-138.

[50]Krichevsky, R.E. The performance of universal encoding [Текст] / R.E. Krichevsky, V.K. Tro mov. // IEEE Transactions on Information Theory. 1981.

– V. 27. № 2. – P. 199-207.

77

[51]Lynch, T. J. Sequence time coding for data compression [Текст] / T. Lynch // Proc.IEEE (Corresp.). Oct. 1966 – V. 54. – P. 1490-1491.

[52]Lynch, T. J. Data compression with error-control coding for space telemetry [Текст] / T. Lynch. Ph.D. dissertation, Univ.– Maryland, College Park, May 1966.

[53]McMillan, B. Two inequalities implied by unique decipherability [Текст] / B. McMillan. // IEEE Trans.Information Theory. 1956. – V. 2. № 4. – P. 115-116.

[54]Manstetten, D. Tight bounds on the redundancy of Human codes [Текст] / D. Manstetten. // IEEE Transactions on Information Theory. Jan. 1992. – V. 38. № 1. – P. 144-151.

[55]Rissanen, J. Generalized Kraft inequality and arithmetic coding [Текст] / J. Rissanen. // IBM J. Res. Develop. 1976. – V. 20. №. 3. – P. 198-203.

[56]Rissanen, J. Universal modelling and coding [Текст] / J. Rissanen. G. Langdon. // IEEE Trans. Inform. Theory. 1981.– V. IT–27. 1. – P. 12-23.

[57]Rissanen, J. A universal data compression system [Текст]/ J. Rissanen. // IEEE Trans. Inform. Theory. Sept. 1983. – V. IT–29. – P. 656-663.

[58]Ryabko, B. A fast on-line adaptive code [Текст] / B. Ryabko.// IEEE Trans. Inform. Theory. July 1992. – V. 38. – P. 1400-1404.

[59]Ryabko, B. Data compression by means of a book stack [Текст] / B. Ryabko. // Probl. Inform. Transm. 1980. – V. 16. – P. 265-269.

[60]Savari, S. A., Gallager, R. G. Generalized Tunstall codes for sources with memory [Текст] / S. A. Savari, R. G. Gallager // IEEE Trans. Inform. Theory. – 1997. – V. 43. № 2. – P. 658-668.

[61]Shannon, Claude E. A Mathematical Theory of Communication [Текст] / C. Shannon // Bell System Technical Journal. July/October 1948. – V. 27. № 3. – P. 379-423.

[62]Shtarkov, Y. М., Babkin, V. F. Combinatorial encoding for discrete stationary sources [Текст] / Y. М. Shtarkov, V. F. Babkin. // 1973 IEEE International Symposium on Information Theory. – Budapest, 1973. – P. 249-257.

[63]Verdu, S. Fifty Years of Shannon Theory [Текст] / S. Verdu. // IEEE Transactions on Information Theory. 1998. – V. 44. № 6. – P. 2057-2078.

[64]Vitter, J. S. Dynamic Hu man coding [Текст] / J.S. Vitter // ACM Trans. Math. Software. June 1989. – V. 15. – P. 158-167.

[65]Willems, F. M. J. The context-tree weighting method: Basic properties [Текст] / F.M.J. Willems , Y.M. Shtarkov,T.J. Tjalkens // IEEE Trans. Inform. Theory. – May 1995. – V. IT–28. – P. 653-664.

78

[66]Witten, I. H. Arithmetic coding for data compression [Текст] / I.H. Witten , R. Neal R., J.G. Cleary // Comm. of the Assoc. Сотр. Math. 1987. – V. 30. № 6. – P. 520-540.

[67]Lempel, A. A universal algorithm for sequential data compression [Текст] / J. Ziv, A. Lempel. // IEEE Transactions on Information Theory. May 1977.– V. 23. № 3. P. 337-343.

[68]Ziv, J. Compression of individual sequences via variable-rate coding [Текст] / J. Ziv, A. Lempel. // IEEE Transactions on Information Theory. Nov. 1978. – V. IT-24. No 5. – P. 530-536.

[69]Трофимов, В.К. Сжатие неравнозначными символами информации, порожденной неизвестным источником без памяти [Текст] / Т.В. Храмова, В.К. Трофимов. // Автометрия. Новосибирск, 2012. – T. 48. № 1. – C. 3044.

[70]Трофимов, В.К. Сжатие информации порожденной неизвестным источником [Текст] / Т.В. Храмова, В.К. Трофимов. // Электросвязь. – Москва,

2012. – 4. – C. 41-44.

[71]Трофимов В.К., Храмова Т.В. // Универсальное кодирование марковских источников неравнозначными символами. – Дискретный анализ и исследование операций. Новосибирск, май–июнь 2013. – Том 20, № 3. – стр. 71–83.

[72]Трофимов В.К., Храмова Т.В. // Универсальное кодирование марковских источников неравнозначными символами. – Дискретный анализ и исследование операций. Новосибирск, май–июнь 2013. – Том 20, № 3. – стр. 71–83

[73]Трофимов В.К., Храмова Т.В. // Кодирование неизвестного стационарного источника символами неравной длительности. – Ползуновский вестник. Барнаул, 2014. – № 2/1. – стр. 61-63.

[74]Трофимов В.К., Храмова Т.В.//Оптимальное универсальное кодирование для объединения различных множеств источников символами неравной длительности (статья). Вестник СибГУТИ. Новосибирск. 2014/ – № 4. – С.

30-36

79

Трофимов Виктор Куприянович

Храмова Татьяна Викторовна

ТЕОРЕМЫ КОДИРОВАНИЯ

НЕРАВНОЗНАЧНЫМИ СИМВОЛАМИ

ДЛЯ ДИСКРЕТНЫХ КАНАЛОВ БЕЗ ШУМА

МОНОГРАФИЯ

Редактор: Лыткина Д.В. Корректор: Анисенева Е.А.

Подписано в печать 30.11.2016 формат бумаги 60х84/16, отпечатано на ризографе, шрифт №10,

изд. л. – 5,1, заказ № 218, тираж – 300. Редакционно-издательский отдел СибГУТИ

630102, Новосибирск, ул. Кирова, 86, офис 107, тел.:(383) 269-82-36

80