- •Вопросы к государственному экзамену специальности 200503 к госэкзамену по специальности 200503
- •1. "Системный анализ"
- •"Системный анализ"
- •Тектология Богданова
- •Кибернетика Винера
- •Общая теория систем Берталанфи
- •Синергетика Пригожина
- •Классификация моделей
- •Теория знаковых систем (семиотика)
- •Целевая модель системы
- •Примеры
- •. Модель «черного ящика»
- •. Модель состава системы
- •. Модель структуры
- •. Динамические модели систем
- •Псевдодинамическая (безынерционная) система
- •Истинно динамическая (инерционная) система
- •Линейные динамические системы
- •Классификация систем . Основные классификационные деления
- •По степени обеспеченности основными ресурсами
- •. Классификация систем по их происхождению
- •. Классификация по способу управления
- •. Классификация по типу операторов
- •Сигналы в системах
- •Основные определения
- •Классификация сигналов
- •Модулированные сигналы
- •Основные результаты теории сигналов
- •Полная энергия сигнала X(t) (равенство Парсеваля)
- •Принцип частотно-временной неопределенности
- •Принцип частотно-временной неопределенности (формулировка)
- •Дискретное представление непрерывных сигналов
- •К задаче выбора частоты дискретизации
- •Количество информации как мера снятой неопределенности
- •Основные понятия теории информации
- •Основная теорема Шеннона о кодировании для канала без помех
- •Основная теорема Шеннона о кодировании для канала с помехами
- •Пример помехоустойчивого кода
- •Эксперимент и модель
- •Кибернетическая модель научного эксперимента. Эксперимент Винера (мысленный)
- •Недостатки эксперимента Винера
- •Усовершенствованный эксперимент Винера
- •Измерительные шкалы
- •Некоторые определения из теории бинарных отношений
- •Базовые свойства отношений
- •Основные типы отношений
- •Виды измерительных шкал
- •Номинальная шкала (шкала наименований, классификационная)
- •Порядковая (ранговая) шкала
- •Интервальная шкала
- •Шкала отношений (масштабная)
- •Натуральная (абсолютная шкала)
- •Основной вывод к подразделу 6.3
- •Вероятностное описание ситуации
- •Регистрация экспериментальных данных
- •Классификационные модели
- •Числовые модели
- •Особенности протоколов для числовых моделей
Количество информации как мера снятой неопределенности
I(X,Y) = H(X) - H(X,Y) или I(X,Y) = H(Y) - H(Y,X)
X– множество принимаемых сообщений;
Y– множество передаваемых сообщений;
I(X,Y) – среднее количество информации в одном сообщении (бит);
H(X) – априорная энтропия;
H(X,Y) – апостериорная энтропия.
;
.
Основание логарифма aможет быть любым, от него зависит только единица количества информации. Приa=2 информация выражается в двоичных единицах - битах.
Основные понятия теории информации
Избыточность источника, или сигнала (redudancy):
,
где Imax– максимальное количество информации, которое мог бы выдавать источник (или переносить сигнал);
I – фактическое количество информации источника (сигнала).
Причины возможной избыточности:
неравновероятность символов в коде;
наличие статистической связи (коррелированность) между символами кода;
неэкстремальность распределений (то есть отклонение от распределений, обладающих максимальной энтропией).
Скорость передачи(rate):
R= [H(X) – H(X,Y)]/t=I(X,Y)/t, [бит/с],
где t– такт (интервал времени) передачи одного сообщения (символа).
Скорость передачи информации определяется множеством условий, среди которых:
– энергия сигнала;
– число символов в алфавите;
– избыточность;
– полоса пропускания;
– способ кодирования-декодирования.
Пропускная способность канала связи(по Шеннону):
C =sup RA, [бит/с],
где A– множество всевозможных способов кодирования сообщений; супремум (точная верхняя грань) берется по всем элементам множестваA. Таким образом, пропускная способность канала связи – это максимально возможная скорость передачи информации по данному каналу, достигаемая подбором оптимального способа кодирования. Этот оптимальный способ кодирования заранее не известен, его нужно находить исходя из свойств конкретного канала связи и это есть отдельная задача.
Примеры:
– зрительный и тактильный каналы человека ~50 бит/с;
– канал телевидения ~107бит/с.
Основная задача при анализе и синтезе каналов связи – определение взаимосвязи физических характеристик каналов связи (в том числе и помех) с пропускной способностью. Наиболее просто эта задача решается для гауссова канала.
Канал называется гауссовым, если выполняются следующие допущения:
Сигналы и шумы непрерывны.
Канал занимает ограниченную полосу частот Fк.
Шум n(t) в канале распределен нормально (гауссов шум).
Спектр мощности шума равномерен в полосе частот канала и равен Nединиц мощности на единицу полосы частот.
Средняя мощность полезного сигнала x(t) фиксирована и равна P0.
Сигнал и шум статистически независимы (некоррелированы).
Принимаемый сигнал y(t) есть сумма полезного сигнала и шума (шум аддитивен):y(t) =x(t) +n(t).
Для гауссова канала связь между физическими характеристиками и пропускной способностью задается формулой Шеннона–Таллера:
,
где C– пропускная способность канала [бит/с];
F– полоса пропускания канала [Гц];
P0– средняя мощность полезного сигнала [Вт];
N– значение (равномерного) спектра мощности помехи в полосе пропускания канала [Вт/Гц];
–максимальный динамический диапазон входного сигнала.