- •Белорусский национальный технический университет
- •Практикум по курсу «Каналы передачи информации»
- •Часть 1
- •Составитель и разработчик в.В.Баркалин.
- •Тема 1: Информация и ее измерение. Определения и глоссарий
- •Задания для предварительной самостоятельной подготовки
- •Учебно-исследовательское задание
- •Литература
- •Тема 2: Основные понятия теории вероятностей. Вычисление вероятностей составных событий Определения и глоссарий
- •Задания для предварительной самостоятельной подготовки
- •Литература
- •Тема 3: условные вероятности Определения и глоссарий
- •Задания для предварительной самостоятельной подготовки
- •Учебно-исследовательское задание
- •Литература
- •Тема 4: Законы распределения и числовые характеристики одномерных случайных величин Определения и глоссарий
- •Задания для предварительной самостоятельной подготовки
- •Учебно-исследовательское задание
- •Литература
- •Тема 5: Многомерные случайные величины и условные функции распределения. Определения и глоссарий
- •Задания для предварительной самостоятельной подготовки
- •Учебно-исследовательское задание
- •Литература
- •Тема 5: Многомерные случайные величины и условные функции распределения (продолжение). Задачи
- •Тема 6: -функция Дирака.
- •Тема 7: Преобразования одномерных случайных величин.
- •Тема 8: Преобразования многомерных случайных величин.
- •Учебно-исследовательское задание
- •Литература
- •Тема 9: энтропия и количество информации в дискретных системах Определения и глоссарий
- •Задания для предварительной самостоятельной подготовки
- •Учебно-исследовательское задание
- •Литература
- •Тема 10: Дискретные каналы передачи информации Определения и глоссарий
- •Задания для предварительной самостоятельной подготовки
- •Тема 11: Законы распределения случайных процессов
- •Тема 12: корреляционные функции случайных процессов
- •Тема 13: спектральные плотности случайных процессов
- •Тема 14: Непрерывные системы передачи информации
- •Учебно-исследовательское задание
- •Литература
- •Содержание
Тема 14: Непрерывные системы передачи информации
Определения и глоссарий
Энтропия и производительность непрерывного источника, эпсилон-энтропия Колмогорова, Количество информации по Колмогорову, дифференциальная энтропия, отношение сигнал/шум, пропускная способность непрерывного канала.
Задачи
-
На вход приемного устройства воздействует колебание у(t)=х(t)+n(t), где сигнал х(t) и помеха n(t) - независимые гауссовские случайные процессы с нулевыми математическими ожиданиями и дисперсиями, равными соответственно Dx и Dy. Определить: 1) количество взаимной информации I(x;y), которое содержится в каком-либо значении принятого колебания у(t) о значении сигнала х(t); 2) полную среднюю взаимную информацию I(X;Y).
-
Вычислить полную среднюю взаимную информацию I(X;У) между случайными величинами X и Y, имеющими нормальные плотности вероятностей и коэффициент взаимной корреляции Rxy .
-
По линии связи передаются непрерывные амплитудно-модулированные сигналы x(t), распределенные по нормальному закону с математическим ожиданием mх=0 и дисперсией D=8 В2. Определить энтропию Н(X) сигнала при точности его измерения x=0,2 В.
-
Непрерывная случайная величина X имеет плотность вероятности р1(х). Величина Y есть однозначная функция Y=g(Х). Показать, что , где Н(X), Н(Y) соответственно - дифференциальные энтропии величин X и Y; D (x/y) — якобиан преобразования от х к у.
-
Средняя мощность передаваемых сигналов Dx. Найти распределение, которое при данном ограничении обладает максимальной энтропией, равной Н(X)=(1/2) ln(2еD).
-
Определить полосу пропускания канала передачи телевизионного черно-белого изображения с 5•105 элементами, 25 кадрами в секунду и 8 равновероятными градациями яркости для отношения сигнал шум Ps/Pn=D/N0F=15 при условии, что изображение может принимать наиболее хаотичный вид - вид «белого шума». Здесь D – дисперсия сигнала х(t), представляющего собой стационарный гауссовский процесс с равномерной спектральной плотностью в полосе [0,F], N0 – постоянная спектральная плотность нормального стационарного шума n(t), причем х(t) и n(t) статистически независимы.
-
Найти спектральную плотность сигнала S(f), которая при заданных значениях его полной мощности и спектральной плотности гауссовской помехи N(f) обеспечит максимальную скорость передачи информации.
-
Информация передается посредством изменения амплитуды сигнала X, распределенной по нормальному закону с параметрами mх = 0 и Dх = 15. Величина X измеряется регистрирующим устройством с погрешностью Z, не зависящей от амплитуды сигнала и также распределенной по нормальному закону с математическим ожиданием mz = 0 и дисперсией Dz=9. Определить количество информации I(X;Y) о величине X, заключенное в случайных результатах измерений величины Y=X+Z.
-
Для контроля исправности блока периодически измеряют напряжение в контрольной точке схемы. При исправном блоке это напряжение равно 1 В, а при неисправном — 0 В. Ошибка вольтметра распределена равномерно с нулевым средним, но ширина этого распределения зависит от значения измеряемого напряжения: она равна 2 В, если напряжение на выходе составляет 1 В, и 1 В в противном случае. В среднем в 90% времени блок исправен. Вычислить количество информации I(X;Y), доставляемой прибором при одном измерении.
-
Информация передается с помощью частотно-модулированных синусоидальных сигналов, рабочая частота F которых принимает с равной вероятностью значения от f1= 10 МГц до f2 = 50 МГц. Определить энтропию Н(F), если точность измерения частоты f=2 кГц.
-
Измерительное устройство вырабатывает временные интервалы, распределенные случайным образом в пределах от 100 до 500 мс. Как изменится энтропия случайной величины при изменении точности измерения с 1 мс до 1 мкс?
-
Вычислить дифференциальную энтропию нормального закона с дисперсией D и равномерного распределения с той же дисперсией.
-
В результате полной дезорганизации управления n самолетов летят с произвольными курсами. Управление восстановлено и все самолеты взяли общий курс со средней квадратической ошибкой = 3°. Определить изменение энтропии ΔH считая, что в первом состоянии имеет место равномерное распределение вероятности, а во втором — нормальное.
-
Плотность вероятности случайного процесса х(t) имеет вид , х > 0. Найти дифференциальную энтропию величины X.
-
Определить энтропию H(X) случайной величины X, функция распределения которой дается выражением .
-
Показать, что если система с нормальным распределением координаты переходит из состояния, при котором Dх = a в состояние, при котором Dх = b , то приращение энтропии ΔH=2log(b/a).
-
Найти дифференциальную энтропию случайной величины Y=Asin(ωt), где t равномерно распределено в интервале от –π/ω до π/ω; A и ω — положительные постоянные.
-
Определить условную дифференциальную энтропию H(Х|у) и среднюю условную дифференциальную энтропию H(X|Y) случайной величины X относительно Y, а также H(Y|x) и H(Y|X) случайной величины Y относительно X для системы (X,Y) гауссовских случайных величин.
-
Найти дифференциальную энтропию Н (X) равномерного распределения на отрезке (0, 2) и энтропию суммы двух независимых случайных величин X и Y, равномерно распределенных на указанном интервале.
-
Радиоприем осуществляется на две антенны, разнесенные в пространстве так, что сигналы х(t) и у(t) в ветвях статистически независимы. Определить энтропию H(Z) колебания z(t) на выходе суммирующего устройства, если х(t) и у(t) распределены по нормальному закону с нулевыми математическими ожиданиями и дисперсиями Dx=16 В2 и Dy=25 В2.
-
Показать, что если Y=X±с, где с - постоянная величина, или Y=-X, то Н(Y)=Н(X)
-
Измерительное устройство вырабатывает случайный сигнал х(t) с нормальной плотностью вероятности и корреляционной функцией вида Rx(t)=Dxe-a|T|. Определить энтропию сигнала и его изытбочность, вызванную наличием корреляции, если Dх=36 В2.
-
Ансамбль сигналов, проходящих через усилитель, имеет значения, ограниченные сверху величиной х=b и снизу - величиной х=а. Найти максимальную энтропию Hm(X) и энтропию H(X) на единицу времени, если ширина полосы пропускания усилителя равна F.
-
Передаваемые сигналы ограничены по пиковой мощности. Определить распределение, которое при данном ограничении обладает максимальной энтропией, а также вычислить энтропию при этом распределении.
-
Сигнал с математическим ожиданием mх может принимать только положительные значения (р1(х)=0 при х<0). Найти распределение, которое при данных ограничениях обладает максимальной энтропией.
-
Показать, что при заданной энтропии нормальное распределение вероятностей имеет наименьшую из всех одномерных распределений дисперсию.
-
Определить максимально возможную скорость передачи информации по радиотехническому каналу связи пункта управления с телеуправляемой ракетой, если полоса пропускания канала связи равна 3 МГц, а минимальное отношение сигнал/шум по мощности в процессе наведения ракеты на цель равно трем.
-
Вычислить пропускную способность канала связи с амплитудно-импульсной модуляцией, если число уровней сигнала 16, полоса частот исходного сигнала Fs, сигнал равномерно распределен на интервале (-Um, +Um), а вероятность искажения, выражающая возможность перехода в соседний уровень, 5%.
-
Сравнить пропускные способности двух каналов связи, если в первом действует белый гауссовский шум в полосе F с дисперсией D=1 В2, а во втором - белый шум, равномерно распределенный в интервале ±1,5 В с полосой 2F. Считать, что мощность передаваемого сигнала Ps велика по сравнению с мощностью шумов.