Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Bilety_po_informatike.docx
Скачиваний:
4
Добавлен:
16.04.2019
Размер:
160.89 Кб
Скачать

  1. Понятие информации, основные свойства информации.

Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информатика рассматривает информацию как связанные между собой сведения, данные, понятия, изменяющие наши представления о явлении или объекте окружающего мира. Свойства информации:

  • Репрезентативность информации связана с правильностью ее отбора в соответствии с целью.

  • Содержательность информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к ее объему.

  • Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав показателей.

  • Доступность информации для восприятия пользователя обеспечивается соответствующими процедурами по ее получению и преобразованию.

  • Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования.

  • Своевременность информации означает ее поступление не позже заранее назначенного момента времени.

  • Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта , процесса, явления и пр.

  • Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью.

  • Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности.

  1. Кодирование информации в пк. Формулы Хартли и Шеннона изменения количества информации. Понятие энтропии.

Информация может передаваться в виде сигналов – звуковых, световых, электрических и пр.. Для того, чтобы сохранить информацию, ее надо закодировать. Кодирование – выражение данных одного типа через другие.

В вычислительной технике используется универсальная система кодирования данных двоичным кодом - последовательностью двоичных цифр 0 и 1. Один разряд двоичного кода называется битом (от англ. Binary digit – двоичная цифра). Количество разных символов, которое может быть представлено при двоичном кодировании, зависит от разрядности кода. Один бит выражает два значения. Общую формулу вычисления количества кодируемых значений можно представить: N = 2m где н – предельное число кодируемых значений, м - разрядность кода (количество бит)(пример: 8 = 23 – с помощью 3 битов можно закодировать 8 числовых значений (000, 001, 010, 011, 100, 101, 110, 111) . Для вычисления количества информации в сообщении используется формула Хартли:I = log 2N (I- количество информации, N – возможное количество кодируемых сообщений). Формула Хартли используется для вычисления количества информации, когда все события равновероятны. В случае, когда все элементы (события) не равновероятны, используется формула Шеннона: I = -∑pi log2 pi, (I- количество информации, pi, - вероятность возникновения i-го события). Формула Хартли является частным случаем более общей формулы Шеннона. Энтропия системы - рассматриваться как мера недостающей информации. Энтропия системы Н(х), имеющая N возможных состояний, согласно формуле Шеннона равна:

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]