Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Методические указания

.pdf
Скачиваний:
26
Добавлен:
09.02.2015
Размер:
2.98 Mб
Скачать

p S

 

1

 

 

1

=

 

1

 

1

;

 

 

100

 

 

 

 

( 1 )

 

n

 

80 100

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p S

 

 

 

1

 

99

 

=

1

 

99

.

 

 

 

 

 

 

( 2 )

 

 

n2

100

 

 

20 100

 

б) Определение энтропии реальных команд:

H1(S)=−n1 p(S1 ) log p(S1 )n2 p(S2 ) log p(S2 )=

 

1

 

99

 

дв.ед.

=−0,01log

 

0,99log

 

4,4

 

 

 

 

команда

 

80 100

 

20 100

 

 

 

в) Определение энтропии оптимальных команд:

H

 

S

=logn =log100 6,7

дв.ед.

0

 

 

 

( )

 

 

 

 

 

 

команда

г) Определение избыточности команд:

ϕ (S)=164,,74 0,34 (34 %).

Пример 10.2.Управляющее устройство вырабатывает три команды: S1,S2,S3. При этом известны вероятности появления команд:

p(S1) =0,3; p(S2) =0,6; p(S3) =0,1 и взаимосвязь между лю-

быми двумя командами, заданная условными вероятностями перехода от одной команды к другой p(S j / Si).

 

 

 

 

Таблица 10.1

 

 

 

 

 

Si

 

S j

 

p(S j / Si )

 

 

 

 

j

 

S1

S2

S3

 

S1

0.8

0

0.2

1

S2

0

0.5

0.5

1

S3

0.1

0.5

0.4

1

168

Определить энтропию и избыточность команд для следующих случаев их распределения: а) равновероятного и независимого; б) неравновероятного и независимого; в) неравновероятного и зависимого.

Решение.

а) Определение энтропии и избыточности оптимальных команд, т.е. при равновероятном и независимом распределении:

H S

= H

0

S

=log3 =1,58;

ϕ

S

=0

( )max

 

( )

 

 

0( )

 

б) Определение энтропии и избыточности команд при неравноверо-

ятном и независимом распределении:

j )

 

 

 

 

1( )

3

 

j

(

 

 

 

 

H S =−

p(S

 

)log p S

 

=

 

 

 

 

j=1

 

 

 

 

 

 

 

 

=−0,3log0,30,6log0,60,1log0,1 1,3

 

дв.ед.

 

 

;

 

 

 

 

 

 

 

 

 

команда

ϕ 1(S)=111,58,3 =0,18.

в) Определение энтропии и избыточности команд в случае неравновероятного и зависимого распределения команд:

H2(S)=−1 ∑∑ p(Si ;S j )log p(Si ;S j ).

2 i j

Таблица 10.2.

 

p S

;S

j

)

= p S p S

j

/ S

i )

 

p S

=p(S

,S

j

)

 

 

 

 

 

( i

 

(

i ) (

 

 

 

 

(

i )

j

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Si

 

 

 

 

 

S j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

S1

 

 

S2

 

S3

 

 

 

 

 

 

 

 

 

 

 

S1

 

 

0,24

 

0

 

 

0,06

 

0,3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

S2

 

 

0

 

0,3

 

 

0,3

 

0,6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

S3

 

 

0,01

 

0,,05

 

0,04

 

0,1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p(Si )=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

169

 

 

 

 

 

 

 

H2(S)=−12(0,24log0,24+0,06log0,06+2 0,3log0,3+

+0,01log0,01+0,05log0,05+0,04log0,04) 1,12;

ϕ(S)=111,,1258 0,29.

170

Заключение

Представленные в данной книге материалы охватывают информационные процессы, которые наиболее характерны для таких технических систем как ЭВМ, ИВК, ИИС, в составе которых, естественно, находятся устройства, блоки и узлы, раскрывающие конкретные функциональные свойства каждой из систем.

Вполне очевидно, что информационные процессы и реализующие их технические средства неразделимы. Между тем акцент на информационные процессы позволил проводить анализ каждого из них, используя структурный уровень их технической реализации.

Несомненно и то, что методы статистической теории информации обладают общностью по отношению к каждому из названных информационных процессов.

Это подтверждается тем, что любые из устройств, будь то арифметические устройства, запоминающие или измерительные устройства

идругие, легко вписываются в классическую схему К.Шеннона, поскольку каждое из них представляет канал передачи информации, имеющий вход и выход. При этом неизбежно присутствует воздействие помех.

Не менее существенно и то, что методы теории информации, не претендуя на строгие количественные оценки точности, быстродействия

идостоверности, позволяют математически описать и осмыслить организацию процессов в той или иной системе.

Слишком широк круг вопросов (систем), охватываемых таким подходом. В связи с этим для конкретности и были введены ограничения, относящиеся к области измерительно-вычислительных средств

(ИВС).

171

 

Содержание.

Предисловие.

3

Введение.

4

1. Выбор математического аппарата для анализа информационных процес-

сов.

7

 

1.1.

 

7

1.2.

 

11

1.3.

 

12

1.4.

 

14

2. Основные положения статистической теории информации.

16

2.1. Основные понятия и определения.

 

16

2.2. Основные свойства энтропии.

 

18

2.3. Физические характеристики сигналов и каналов.

 

19

2.4. Информационные характеристики сигналов и каналов.

 

20

2.5.

 

25

2.6.

 

26

2.7.

 

28

3. Представление информации.

 

40

3.1. Исходные положения.

 

40

3.2. Физические и математические параметры аналоговой и цифровой формы

представления информации.

42

3.3. Представление информации в зависимости от используемых параметров

физического носителя.

44

3.4. Представление информации в зависимости от используемой системы счис-

ления.

47

3.5. Представление информации в циклическом коде Грея.

49

3.6. Выбор оптимальной системы счисления.

52

3.7. Представление информации в зависимости от статистических свойств со-

общений.

53

4. Формирование информации.

62

4.1. Исходные положения.

62

4.2.Датчик и его основные технические характеристики.

4.3.Основные обобщенные физические параметры — источника информации.

4.4.Основные информационные параметры источника информации.

5. Преобразование информации.

72

5.1. Исходные положения.

72

5.2. Методы аналого-цифрового преобразования сигналов.

73

5.3. Обобщенная модель преобразования сигналов.

76

5.4. Оценка точности и скорости преобразования сигналов.

78

5.5. Выбор разрядности АЦП при заданной погрешности входной аналоговой

величины.

80

 

5.6. Особенности многоканального преобразования сигналов.

 

83

6. Сбор, распределение и хранение информации.

 

90

6.1. Исходные положения.

 

90

6.2. Обобщенная структура коммутирующего устройства (КУ).

90

6.3. Информационные характеристики КУ.

 

93

6.4. Оценка информационной емкости ЗУ.

 

96

6.5. Информационный критерий построения многоступенчатого ЗУ.

97

7. Измерение информации.

99

7.1. Исходные положения.

99

7.2. Оценка измерительного процесса без учета помех.

99

7.3. Оценка измерительного процесса с учетом помех.

102

7.4. Количественная оценка интервала снятия отсчета.

109

8. Передача информации.

113

8.1. Исходные положения.

113

8.2. Обобщенные входные и выходные характеристики канала передачи ин-

формации.

114

8.3. Передача непрерывных сигналов с дискретизацией во временном представ-

лении.

117

8.4. Передача непрерывных сигналов с дискретизацией в частотном представ-

лении.

123

8.5. Информационный критерий оценки помехоустойчивости передачи инфор-

мации (β – критерий).

130

9. Обработка информации.

136

9.1. Исходные положения.

136

9.2. Основные виды помех и их характеристики.

139

9.3. Выделение полезной информации посредством корректирующих кодов.

10. Использование информации.

150

162

10.1. Исходные положения.

162

10.2. Регистрация информации.

163

10.3. Отображение информации.

164

10.4. Формирование и исполнение управляющих воздействий.

166

Заключение.

171

Приложения.

 

Список литературы.

 

Список литературы.

1.Алексеев В.В., Долидзе Р.В., Недосекин Д.Д., Чернявский Е.А. Практикум по вероятностным методам в измерительной технике.

— СПб.: СПбО «Энергоатомиздат», 1993.

2.Бородин П.Ф. Введение в теорию помехоустойчивого кодирования. «Советское радио», Москва, 1963.

3.Вентцель Е.С. Теория вероятностей. Физматгиз, 1962.

4.Винер Е. Кибернетика. Изд. «Советское радио», Москва, 1958.

5.Гитис Э.И. Преобразователи информации для электронных цифровых вычислительных устройств. Госэнергоиздат, 1961.

6.Дмитриев В.И. Прикладная теория информации. — М.: «Высшая школа», 1989.

7.Железнов Н.А. Проблема использования в информационных системах. Труды ЛИАП. Вып.48, 1966.

8.Клюев Н.И. Информационные основы передачи сообщений. Изд. «Советское радио», Москва, 1966.

9.Крайников А.В., Недосекин Д.Д. и др. Вероятностные методы в вычислительной технике. Под ред. Лебедева А.Н. и Чернявского Е.А. – М.: «Высшая школа», 1986.

10.Лебедев А.Н. Основы теории точности счетно-решающих устройств. Часть 1. Основные сведения из теории вероятностей. Изд.

ЛЭТИ, 1964.

11.Назаров М.В., Кувшинов Б.М., Попов О.В. Теория передачи сигналов. Изд. «Связь», Москва, 1970.

10.Недосекин Д.Д., Прокопчина С.В., Чернявский Е.А. Информационные технологии интеллектуализации измерительных процессов. – СПб.: СПбО «Энергоатомиздат», 1995.

11.Новицкий П.В. Основы информационной теории измерительных устройств. – Л.: ЛО «Энергия», 1968.

12.Орлов В.А., Филиппов Л.И. Теория информации в упражнениях и задачах. — М.: «Высшая школа», 1976.

13.Рабинович В.И., Цапенко М.П. Информационные характеристики средств измерений и контроля. — М.: «Энергия», 1968.

14.Смолов В.Б., Чернявский Е.А. Комбинированные вычислительные устройства. (Часть 1). Изд. ЛЭТИ, 1968.

15.Смолов В.Б., Чернявский Е.А. Вычислительные устройства с дискретно-управляемыми параметрами. — Л.: «Машинострое-

ние», 1977.

16.Смолов В.Б., Чернявский Е.А., Полянская Т.И., Курдиков Б.А. Универсальные электронные преобразователи. Л.: «Машиностроение», 1971.

172

17.Советов Б.Я. Информационная технология. – М.: «Высшая шко-

ла», 1994.

18.Тарасенко Ф.П. Введение в курс теории информации. Изд. Томского университета, 1963.

19.Харкевич А.А. Очерки общей теории связи. Гостехиздат, 1955.

20.Чернявский Е.А. Информационные основы вычислительной тех-

ники. /ЛЭТИ. — Л.: вып. 4, 1974/.

21.Чернявский Е.А. Информационные основы вычислительной техники. Вып. ч. 1. Изд. ЛЭТИ, 1969.

22.Чернявский Е.А. Информационные основы вычислительной техники. Вып. 2 и 3. Изд. ЛЭТИ, 1972.

23.Чернявский Е.А. Информационный анализ измерительновычислительных средств. —Л.: ЛЭТИ, 1990.

24.Чернявский Е.А. О взаимосвязи понятий теории информационных процессов, информатики и информационных технологий. — СПб.: Известия ГЭТУ, вып. 479, 1995.

25.Чернявский Е.А. Селиванов Е.П., Сильвеструк Ю.А. Информационная теория средств измерений и контроля. Саратовский госуниверситет, 1988.

26.Чернявский Е.А., Прокопчина С.В. Практикум по анализу информационных процессов. — СПб.: ГЭТУ, 1998.

27.Чернявский Е.А., Чье Ен Ун. Аналого-цифровые измерительновычислительные преобразователи. — СПб.: СПбО «Энергоатом-

издат», 1994.

28.Шастова Г.А. Кодирование и помехоустойчивость передачи телемеханической информации. «Энергия», Москва, 1966.

29.Шеннон К.Э. Работы по теории информации и кибернетике. М.:

ИЛ, 1963.

173