- •64. Информация и фазы обращения информации.
- •65. Виды информации. Устранение избыточности информации.
- •66. Структурные меры информации.
- •67. Статистические меры информации. Информационное содержание сигнала.
- •68. Частотная модуляция. Спектры чм–колебаний.
- •69. Какие виды модуляции гармонических колебаний можно обнаружить в радиокомпасе и каковы их спектры?
- •70. Модуляция гармонических колебаний. Виды амплитудной модуляции и как они представлены в арк?
- •71. Дискретизация сигналов. Теорема Котельникова.
- •72. Систематические меры информации. Источники и приемники информации.
- •73. Геометрические меры информации. Каким образом они представлены в индикаторах сои?
- •74. Количество информации. Аддитивные меры Хартли.
- •75. Импульсная модуляция, шим, спектр широтно-импульсных колебаний.
64. Информация и фазы обращения информации.
Информация(лат.изложение, разъяснение), - отражение реального мира.
Информация все сведения являющиеся объектом хранения, передачи и преобразования. Под информацией нужно понимать не сами предметы и процессы, а их представительные характеристики или отображение в виде чисел, формул, описаний, чертежей, символов, образов, и других абстрактных характеристик. Т.о. информация может быть отнесена к области абстрактных категорий, подобным математическим формулам, но проявляется она всегда в материально-энергетической форме в виде сигналов.
Фазы обращения информации
Восприятие– формируется образ обьекта, производится его обозначение и оценка, м.б. осуществлена борьба с шумом.Подготовка– получают сигнал, преобразуют его в форме удобной для передачи и обработки. В эту фазу может включаться операции подготовки информации, ее нормирование, квантования, кодирование, модуляции и построения моделей.
Передача– перенос информации на расстоянии посредством сигналов различной физической природы по механическим, гидравлическим, пневматическим, электрическим или электромагнитным каналам.
Обработка заключается в решении задач, связанных с преобразованием информации.
Представление информации– представление для человека или для технических систем в удобном удобном для восприятия виде.
Воздействие состоит в том, что сигналы, несущие информацию, производят регулирующие и защитные действия, вызывая изменение в обьекте.
65. Виды информации. Устранение избыточности информации.
Информацию можно различать по области знаний (биологическая, техническая), по физической природе восприятия (зрительная, слуховая, вкусовая), а так же по структурно-метрическим свойствам. Последнее наиболее пригодно для технических приложений.
Вид информации |
Обозначение |
Формы представления информации | ||
топологическая |
абстрактная |
лингвистическая | ||
Событие Величина Функция Комплекс ………. Поле |
Фо Ф1 Ф2 Ф3 …. Фn |
Точка Линия Поверхность Обьем
Пространство |
Суждение Понятие Образ Система … Универсум |
Знак Буква Слово Предложение … Фонд |
К параметричекой информации относятся наборы численных оценок значений каких-либо параметров, результаты количественных определений при исследовании, анализе, контроле.
К топологич. Информации относят карты местности, геом. Образы. Ею удобно выражать образы и ситуации подлежащие распознаванию.
Параметрич. Пользуются чаще всего в науке и технике.
Абстрактную применяют в исследованиях на высоком теор. Уровне, когда обобщения, символизация.
Устранение избыточной информации
Обьект наблюдения и управления => (сигналы) формирование первичной информации => (сигналы) структурное обозначение информации => (сигналы)cтатистическое обозначение информации (сигналы) семантическое обозначение информации => (сигналы) формирование решений и воздействий
66. Структурные меры информации.
Важнейшим вопросом в теории информации является установление меры, количества и качества информации.
Структурные меры информации.
При использовании их пользуются количеством содержащихся информационных элементов в информационном дискретном комплексе, связями м-ду ними или комбинациями из них. Под информационным элементом понимают неделимые части – кванты информации, а так же элементы алфавитов в числовых системах. Среди структурных схем различают: геометрическую, комбинаторную, аддитивную (мера Хартли) меры информации.
Геометрическая мера– количество информации определяется путём измерения длины линии, площади или объема геометрической модели в количестве дискретных единиц. Можно определить потенциальную, т.е. максимально возможное количество информации в заданных структурных габаритах, которые называют информационной ёмкостью исследуемой части информационный системы, она может представляться числом показывающем количество квантов в полном массиве информации. Если дискретные отчёты осуществляются через интервалы ∆Х, ∆t, ∆N, то непрерывные координаты распадаются на элементы, кванты, количество которых будет:
mX=X/∆X;mТ=T/∆T;mN=N/∆N;
а количество информации определяемым геометрическим методом :
М= mX*mТ *mN;
Комбинаторная мера – количество информации в этой мере вычисляется как количество комбинаторных элементов. В комбинаторике рассматриваются различные меры соединения элементов (сочетание, перестановка, размещение). В комбинаторике возможно в комплексах с неодинаковыми элементами переменными связями или разнообразными позициями. Образование комбинаторики есть одна из форм кодирования. Комбинаторика различает различные виды элементов: сочетание hпоl; их возможное число:
перестановкиh:Ph=1*2*3…h=h!; размещение изhпоl:Alh=h!/l! ;
Аддитивная мера – введём понятие глубины hи длинныlчисла.
Глубиной hназовём количество элементов (знаков), содержащихся в принятом алфавите. Глубина числа соответствует основанию системы счисления и кодирования. В каждый момент реализуется один какой-нибудь знак.
Длинной lчисла назовём количество повторения алфавита необходимых и достаточных для представления чисел нужной величины.l- соответствует разрядности системы счисления и кодирования. При глубинеhи длинеlколичество чисел выразитсяQ=hl, т.е. ёмкость экспонента зависит от числаl. В следствии показательного закона зависимостиQ(l) ,Qне очень удобная мера для оценки информационный ёмкости, поэтому Хартли ввёл аддитивную двоичную логарифмическую меру, позволяющую вычислить количество информации в двоичных единицах (битах), для этого берётся не само числоQ, а его двоичный логарифм:I=log2Q=log2hl=llog2h; бит.
Он обозначает количество информации по Хартли. Если количество разрядов (длинна l=1) и принять двоичную систему исчисления для которой глубинаh=2, тоlog221=1 бит.
Это если единица информации принятая в системе оценки, она соответствует одному элементарному событию, которое может произойти или не произойти.
Аддитивная мера удобна тем, что обеспечивает возможное сложение а также пропорционально информационной длине числа l.