Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Вопросы и краткие ответы к экзамену по информат....doc
Скачиваний:
9
Добавлен:
01.08.2019
Размер:
143.87 Кб
Скачать
  1. Дать определение носителей информации. Виды носителей информации.

«Носитель информациисреда для записи и хранения информации.

В качестве носителя информации могут выступать:

  • Любой материальный объект (бумага, камень, дерево, стол, классная доска, звездная пыль, мусор на полу и т.д.),

  • Волны различной природы: акустические (звук), электромагнитные (свет, радиоволна), гравитационные (давление, притяжение) и т.д.,

  • Вещество в различном состоянии: концентрация молекул в жидком растворе, температура и давление газа и т.д.

  • Машинные носители: перфоленты, перфокарты, магнитные ленты, диски, оптические диски и т.д.»

  1. Системы счисления. Виды систем счисления.

«Любое число изображается группой символов (словом) некоторого алфавита. Такие символы называют цифрами, символические изображения чисел – кодами.

Система счисления – это совокупность приемов и правил, по которым числа записываются и читаются.

Системы счисления делятся на непозиционные и позиционные.

Непозиционные – значение каждой цифры не зависит от ее положения (римская, унарная).

Позиционные – значение цифры зависит от ее места в коде числа (десятичная, двоичная). Любая позиционная система счисления характеризуется своим основанием

  1. Общее правило перевода целых чисел из системы счисления с основанием p в систему с основанием q.

«Для перевода целых чисел из системы счисления с основанием р в систему счисления с основанием q необходимо:

  1. последовательно выполнять деление данного числа и получаемых неполных частных на основание новой системы счисления до тех пор, пока не получим неполное частное, меньшее делителя,

  2. полученные остатки, являющиеся цифрами числа в новой системе счисления, записать в алфавите новой системы счисления,

  3. составить число в новой системе счисления, записывая его начиная с последнего остатка.»

  1. Единицы представления, измерения и хранения данных.

«Компьютер работает с цифровой информацией. Цифровая информация хранится в виде кода, который называют двоичным. Наименьшая единица представления информации – бит (bit – binary digit). Он может иметь только два значения (да/нет или 0/1).

Байт – это группа из восьми битов. Биты в байте могут быть включены (равны 1) или выключены (равны 0). Для значения байта важно не только количество битов, но и их местоположение, то есть, позиция. Бит в правой крайней позиции называется младшим, в крайней левой – старшим. Одним байтом можно выразить 256 (=28) разных значений от 0 до 255. Байт является наименьшей единицей обработки и передачи информации.

Байты информации сохраняют (записывают) в виде файлов. Файл – это наименьшая единица хранения информации.»

  1. Определение энтропии.

«Если источник информации может находиться в одном из n дискретных состояний с вероятностью pi в каждом из них (i=1, 2, …, n), то в качестве меры неопределённости можно ввести функцию H, называемую энтропией. Будем называть каждое возможное состояние источника информации сообщением. Энтропия i-го сообщения, по определению, равна Hi= log2 (1/pi) = − log2 pi. Логарифмы берутся по основанию 2 для удобства, чтобы энтропия любого из двух равновероятных и несовместных событий (при p1=p2=0,5) равнялась единице. Очевидно также, что энтропия достоверного события (pi=1) равна нулю. Наоборот, чем менее вероятно некоторое событие, тем больше его энтропия, это и понятно, ведь более редким событиям приписывается большая информационная значимость.»