- •Основные понятия и методы теории информатики и кодирования
- •Основные задачи информатики
- •Сигналы, данные, информация
- •Измерение информации
- •Свойства информации
- •Информационный процесс, основные операции с данными
- •Кодирование информации
- •Позиционные системы счисления
- •Технические средства реализации информационных процессов
- •История развития эвм. Понятие и основные виды архитектуры эвм
- •Состав и назначение основных элементов персонального компьютера
- •Запоминающие устройства: классификация, принцип работы
- •Устройства ввода/вывода данных, данных, их разновидности
- •Перспективы развития вычислительных средств
- •Программные средства реализации информационных процессов
- •Классификация программных продуктов
- •Операционные системы
- •Особенности операционных систем семействаWindows
- •Файловая структура системыWindows
- •Технологии обработки текстовой информации
- •Форматирование фрагментов текста
- •Разработка таблиц
- •Особенности работы в редакторе формул
- •Графический редактор
- •Средства автоматизации на основе стилей
- •Синтаксическая и грамматическая проверка текста и тезаурус
- •Процессор электронных таблицMicrosoft Excel
- •Общие правила работы с книгами и листами
- •Основные типы данных
- •Формулы
- •Диаграммы
- •Использование логических функций
- •Работа с большими таблицами и базами данных
- •Разработка презентаций с помощью программыPowerPoint
- •Правила разработки и представления презентаций
- •Способы создания презентаций
- •Итоговый слайд. Слайд повестки дня
- •Добавление в презентацию объектов
- •Создание гиперссылок
- •Произвольные показы
- •Настройка эффектов перехода слайдов
- •Анимация содержимого слайдов
- •Локальные и глобальные сети эвм
- •Принципы построения и основные топологии вычислительных сетей, коммуникационное оборудование
- •Глобальная сеть Интернет
- •Информационные службы глобальной сети Интернет
- •Адресация в Интернете
- •Всемирная паутина и гипертексты в Интернете
- •Основы защиты информации
- •Информационная безопасность и её составляющие
- •Основные угрозы безопасности данных
- •Основные методы и средства защиты данных
- •Криптографические средства защиты
- •Цифровая подпись
- •Защита от вирусов и вредоносных программ
- •Основные признаки проявления вирусов в компьютере
- •Классификация антивирусных средств.
- •Защита в сети (сетевая безопасность)
- •Мероприятия по защите информации от компьютерных вирусов
- •Мероприятия по защите информации от случайного удаления и сбоев в работе устройств
- •Модели решения функциональных и вычислительных задач
- •Моделирование как метод познания
- •Классификация моделей
- •Методы и технологии моделирования
- •Языки программирования
- •Этапы решения задачи
- •Алгоритмизация и программирование
- •Основные алгоритмические конструкции
- •Языки программирования высокого уровня
- •Уровни языков программирования
- •Поколения языков программирования
- •Классификация и обзор языков программирования
- •Объектно-ориентированное программирование (ооп)
- •Декларативные языки программирования
- •Языки программирования баз данных
- •Языки программирования для компьютерных сетей
- •Системы программирования
- •Структурное программирование
- •Разработка баз данных с помощью системы Microsoft Access
- •Основные понятия теории баз данных
- •Создание новой базы данных
- •Типы данных
- •Общие свойства поля
- •Запросы системы Access
- •Qbe запросы на выборку
- •О структурированном языке запросов sql
- •Литература
- •Содержание
Сигналы, данные, информация
Термин «информация» происходит от латинского informatio — разъяснение, изложение, осведомленность. Информация (сведения) – базовое неопределяемое понятие (наряду с материей и энергией), соответствует наличию порядка, организации в какой–то области, и отсутствию неопределенности. Противоположное понятие – энтропия (беспорядок)
Увеличение информации |
Строгий порядок | |
Полный хаос (неопределенность) |
Рост энтропии
|
Все виды взаимодействия физических объектов порождают сигналы различных видов, которые могут вызывать изменения свойств в физических телах. Это явление называется регистрацией сигналов.
Сигналы, зарегистрированные на материальном носителе, называются данными.
Данные, несущие информацию о событии, могут не являться информацией, т. к. одни и те же данные воспринимаются в сознании людей по-разному. Например, текст, написанный на русском языке, даст различную информацию, человеку, знающему алфавит и язык, и не знающему. Чтобы получить информацию, имея данные, необходимо применить к ним методы, которые преобразуют данные в понятия. Методы также бывают различными. Например, человек, знающий русский язык, применяет адекватный метод, читая текст на русском языке. А, человек, не знающий русского языка применяет неадекватный метод, пытаясь понять русский тест. Таким образом, можно считать, что информация – это продукт взаимодействия данных и адекватных методов.
Знание – информация, как описание объектов, их свойств и связей. Включает компоненты – декларативный (само описание) и процедурный (правила действия, операции). Основное отличие Знаний от данных это наличие причинно-следственной зависимости.
Измерение информации
Информация – это физическая величина, такая же, например энергия или скорость, поэтому она должна измеряться.
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Для ее измерения принимается минимальная единица хранения информации– 1 бит(binary digit), элемент памяти, который может переключаться между 2-мя состояниями, обозначаемыми 0 и 1. Связь между количеством информации и числом состояний системы устанавливается формулой Хартли:
N=2I, где N – количество возможных событий, I – количество информации.
Например, если мы бросаем монету, то сначала неопределенность наших знаний равна 2, так как мы не знаем, что выпадет «орел» или «решка». После броска мы уже знаем, в каком положении находится монета – либо «орел», либо «решка». Т. е. неопределенность наших знаний уменьшилась в два раза.
Если события не равновероятны, то для вычисления количества информации используется формула Шеннона (1948г): , где N – количество возможных событий, I – количество информации, pi – вероятности отдельных событий.
Формула Шеннона - формула для определения энтропии - количества информации. Количество информации может быть и целым и нецелым действительным числом.
Для равновероятных событий количество информации можно вычислить по формуле. Для равновероятных событий величина количества информации принимает максимальное значение.
Задача 1. Эксперимент состоит в однократном подбрасывании игральной кости (6 граней). Чему равна информативность результата эксперимента?
Рассуждаем т. о. События не равновероятны, если судить о том, сколько выпадет точек на грани? А максимально-6. Допустим, что события равновероятны, тогда I=log26. А это меньше, чем log28=3. Ответ: Информативность результата меньше 3-х бит.