- •Предисловие.
- •1. Введение.
- •2. Количество информации.
- •2.1. Формула хартли.
- •2.2. Формула шеннона.
- •2.3. Свойства энтропии.
- •2.4. Энтропия в информатике и физике.
- •2.5. Вероятностный и объемный подходы к измерению количества информации.
- •2.6. Различные аспекты анализа информации.
- •3. Принципы кодирования и декодирования информации.
- •3.1. Буква (знак, символ). Алфавит.
- •3.2. Кодировщик и декодировщик.
- •3.3. Международные системы байтового кодирования.
- •3.4. Помехоустойчивое кодирование информации.
- •4. Передача информации.
- •4.1. Из истории развития передачи информации.
- •4.2 . Общая схема передачи информации.
- •4.3. Теорема котельникова.
- •4.4.Информационная емкость дискретного сигнала (сообщения). Формула шеннона.
- •4.5. Предельная скорость передачи информации по шеннону. Формула хартли - шеннона.
- •4.6. Теорема шеннона для дискретного канала с помехами.
- •5. Дискретные двоичные (бинарные) сигналы.
- •5.1. Регенерация двоичных сигналов.
- •5.2. Помехозащищенность двоичных сигналов.
- •5.3. Кодирование двоичных сигналов.
- •6. Аналоговые и дискретные процессы.
- •6.1. Аналоговые и дискретные сигналы.
- •6.2. Измерение отношения сигнал – шум.
- •6.3. Дискретизация и кодирование аналогового сигнала.
- •7. Цифровая телефонная связь.
- •8. Цифровая телеграфная связь.
- •9. Цифровое телевидение.
- •10. Системы передачи информации
- •10.1. Параметры радиосигналов.
- •10.2. Многоканальные линии связи. Уплотнение информации.
- •11. Оптоволоконная связь.
- •11.1. Из истории кабельной связи.
- •11.2. Принцип оптоволоконной связи.
- •12. Локальные сети.
- •12.1. Аппаратные средства.
- •12.2. Конфигурация локальных сетей.
- •12.3. Организация обмена информацией.
- •13. Спутниковая связь.
- •13.1. Общая характеристика спутниковой связи.
- •13.2. Принципы спутниковой связи.
- •14. Системы счисления.
- •14.1. Непозиционные системы счисления.
- •14.2. Позиционные системы счисления.
- •14.3. Перевод чисел из десятичной системы в другую систему.
- •14.4. Перевод чисел в десятичную систему из других систем.
- •14.5. Взаимные преобразования двоичных, восьмеричных и шестнадцатеричных чисел.
- •14.6. Двоично-десятичная система.
- •15. Языки программирования.
- •15.1. Языки программирования. Общая характеристика.
- •15.2. Язык программирования си. История создания. Общая характеристика.
- •15.3. Язык программирования си. Процесс создания исполняемого файла.
- •15.4. Язык программирования си. Распределение памяти программы.
- •15.5. Язык программирования си. Основные понятия.
- •15.6. Язык программирования си. Данные.
- •15.7. Язык программирования си. Структура простой программы.
- •Приложение 1. Система семибитного кодирования.
- •Приложение 2. Модифицированная альтернативная кодировка.
- •Приложение 3: клод элвуд шеннон.
- •Литература.
- •Оглавление.
МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ПРИБОРОСТРОЕНИЯ И ИНФОРМАТИКИ
Кафедра ИС 5 Информационное обеспечение робототехнических и мехатронных систем.
Для студентов 1 курса факультета Интеллектуальных систем специальности 2203.01.
Кандидат технических наук, доцент Стефанович Александр Евгеньевич.
ЛЕКЦИИ
ПО ИНФОРМАТИКЕ
(дисциплина 3457)
МГУПИ – 200__г.
УДК
Лекции по информатике. Конспект лекций. Учебно-методическое пособие по дисциплине Информатика. Составитель А.Е. Стефанович. М: МГУПИ, 2007. 107 с.
Цель методического пособия систематическое изложение основных сведений по информатике. В основу конспекта положена работа с большим объемом учебно-педагогической и научно-технической литературы (список прилагается). Рассмотрены вопросы определения понятия информации, вероятностного и объемного подходов к определению количества информации, энтропии в информатике и физике, кодирования и передачи информации, помехоустойчивости аналоговых и дискретных процессов, основы защиты информации, локальные и глобальные сети, спутниковая связь и др.
Предисловие.
В методическом пособии систематически изложены основные сведения по информатике. Рассмотрены вопросы определения понятия информации, вероятностного и объемного подходов к определению количества информации, энтропии в информатике и физике, кодирования и передачи информации, помехоустойчивости аналоговых и дискретных процессов, основы защиты информации, локальные и глобальные сети, спутниковая связь и др. В основу конспекта положена работа со следующей учебно-педагогической и научно-технической литературой:
-
Макарова Н.В., Матвеев Л.А., Бройдо В.Л. и др. Информатика. Учебник.- М.: Финансы и статистика, 2004
-
Макарова Н.В., Матвеев Л.А., Бройдо В.Л. и др. Информатика. Практикум.- М.: Финансы и статистика, 2004
-
Могилев А.В., Пак Н.И., Хеннер Е.К.Информатика. Учебное пособие.- М.: Академия, 2003
-
Могилев А.В., Пак Н.И., Хеннер Е.К.Информатика. Практикум.- М.: Академия, 2003
-
Свириденко С.С.Современные информационные технологии.- М.: Радио и Связь, 1989.
-
Колонтаевский Ю.Ф.Радиоэлектроника. Учебное пособие.-.М.: Высшая школа, 1988.
-
Зиновьев А.Л., Филиппов Л.И.Введение в специальность радиоинженера.- М.: Высшая школа, 1989.
-
Поляков В.Т.Посвящение в радиоэлектронику.- М.: Радио и связь, 1988.
-
Андреева Е., Фалина И.Системы счисления и компьютерная арифметика. Учебное пособие.- М.: Лаборатория базовых знаний, 2000.
-
Касаткин В.Н.Новое о системах счисления.- Киев: Вища школа, 1982.
-
Макаренко А.Е. и др.Готовимся к экзамену по информатике.- М.: Айрис пресс, 2003.
-
Соломатин Н.М. Логические элементы ЭВМ- М: Высшая школа, 1987.
-
Сена Л.А.Единицы визических величин и их размерности. Учебное пособие.- М.: Наука, 1977.
-
Сысун В.И.Теория сигналов и цепей.- Петрозаводск: 2003.
-
Серый С. Клод Элвуд Шеннон. Газета Компьютерные вести. № 21, 1998.
-
Керниган Б., Ритчи Д. Язык программирования Си / Пер. с англ. - М.: Финансы и статистика, 1992.
-
Подбельский В.В., Фомин С.С. Программирование на языке Си - М: Финансы и статистика, 2000.
-
Уэйт М., Прата С., Мартин Д. Язык Си / Пер. с англ. - М.:Мир, 1988.
-
Белецкий Я. Энциклопедия языка Си / Пер. с англ. - М.:Мир, 1992.
-
Березин Б.И., Березин С.Б. Начальный курс С и С++ - М: ДИАЛОГ-МИФИ, 2003.
-
Шилдт Г. Полный справочник по С, 4-е издание/ Пер. с англ. – М, С-Пб, Киев: Издательский дом Вильямс, 2002.
1. Введение.
В основанной американским ученым Клодом Шенноном Математической теории информации (около 1948 года) под информацией понимались не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность (неизвестность). Каждому сигналу в теории Шеннона соответствует вероятность его появления. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя. В обыденном понимании, чем неожиданнее новость, тем больше ее информативность. Была предложена и формула для вычисления количества информации в передаваемом сообщении.
Математическая теория информации не охватывает всего богатства содержания информации, поскольку она отвлекается от содержательной (смысловой, семантической) стороны сообщения. С точки зрения этой теории фраза в 100 слов из газеты, пьесы Шекспира или теории Эйнштейна имеют приблизительно одинаковое количество информации.
Советский математик Ю. Шрейдер предложил оценивать информацию по увеличению объема знаний у человека под воздействием информационного сообщения.
Академик А.А. Харкевич предложил измерять содержательность информации по увеличению вероятности достижения цели после получения информации человеком или машиной.
В некоторых физических и химических теориях информация определяется как отраженное разнообразие. Отражение заключается в таком изменении одного материального объекта под воздействием другого, при котором все особенности отражаемого объекта каким-либо образом воспроизводятся отражающим объектом. В процессе отражения и происходит передача информации. То есть информация - это результат отражения. В соответствии с этим взглядом информация существовала и будет существовать вечно, она содержится во всех элементах и системах материального мира. Информация, наряду с веществом и энергией, является неотъемлемым атрибутом материи.
В кибернетике - науке об управлении в живых, неживых и искусственных системах связывают понятие информации воедино с понятием управления (Н.Винер, Б.Н.Петров). Информация является обозначением содержания, полученного из внешнего мира в процессе приспособления к нему наших чувств. Информацию составляет та часть знаний, которая используется для ориентирования, принятия решений, активного действия, управления, то есть в целях сохранения, совершенствования и развития системы. Данная концепция отрицает существование информации в неживой природе, не дает ответы на вопросы: являются ли информацией неиспользуемые знания, являются ли неосмысленные (как в ЭВМ) данные информацией.
Для преодоления этих трудностей академик В.П.Афанасьев ввел понятие информационных данных. Информационные данные - это всякие сведения, сообщения, знания. Они могут храниться, перерабатываться, передаваться, но характер информации они приобретают лишь тогда, когда получают содержание и форму, пригодную для управления и используются в управлении.
Дальнейшим развитием математического подхода к феномену "информация" послужили работы логиков Р.Карнапа и И.Бар-Хиллела, отечественного математика А.Н.Колмогорова и других. В их теориях понятие информации не связано ни с формой, ни с содержанием сообщений, передаваемых по каналу связи. Информация - абстрактная величина, не существующая в физической реальности, подобно тому, как не существует мнимое число или не имеющая линейных размеров точка.
В отличие от абстрактно мыслящих математиков и логиков инженеры, а также биологи, генетики, психологи и др. отождествляют информацию с теми сигналами, импульсами, кодами, которые наблюдаются в технических и биологических системах.
Для радиотехников, телемехаников, программистов информация - рабочий объект, который можно обрабатывать, транспортировать, так же как электричество в электротехнике или жидкость в гидравлике. Этот рабочий объект состоит из упорядоченных (модулированных) дискретных или непрерывных сигналов, с которыми и имеет дело информационная техника. Содержание принимаемых и обрабатываемых сигналов инженера не интересует. Достаточно того, что формулы Шеннона хорошо работают при расчетах технической коммуникации.
Другой активной сферой применения понятия информации явилась генетика, в рамках которой было сформулировано понятие генетической информации - как программы (кода) биосинтеза белков, представленных цепочками ДНК. Реализуется эта информация в ходе развития особи.
В социальных науках (социологии, психологии, политологии и др.) под информацией понимаются сведения, данные, понятия, отраженные в нашем сознании и изменяющие наши представления о реальном мире. Эту информацию, передающуюся в человеческом обществе и участвующую в формировании общественного сознания, называют социальной информацией.
С точки зрения индивидуального человеческого сознания информация - это то, что поступает в наш мозг из многих источников и во многих формах и, взаимодействуя там, образует нашу структуру знания. Информацией для человека являются не только сухие факты, строгие инструкции, но и то, что радует нас, волнует, печалит, заставляет переживать, восторгаться, негодовать, сочувствовать и любить.
Более половины общего объема сведений, полученных в процессе разговора, приходится на так называемую невербальную информацию, которую говорящий по желанию, а иногда непроизвольно сообщает нам особой тональностью разговора, своей возбужденностью, жестикуляцией, выражением лица, глаз и т.д.
Информатикой называется фундаментальная естественная наука, изучающая процессы, средства и методы сбора, хранения, обработки, передачи и отображения информации.
К фундаментальным наукам относятся такие науки, основные понятия которых имеют общенаучный характер (математика, философия).
К естественным наукам относятся науки, изучающие объективные сущности мира, которые существуют независимо от нашего сознания (физика, химия, биология).