Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы информатика.docx
Скачиваний:
15
Добавлен:
28.03.2016
Размер:
814.75 Кб
Скачать

Вопросы к зачету по математике

  1. Информация и ее кодирование.

Термин "информация" происходит от латинского слова informatio, означающего "разъяснение", "изложение", "осведомленность". Информацию мы передаем друг другу в устной и письменной форме, а также в форме жестов и знаков. Любую нужную информацию мы осмысливаем, передаем другим, на ее основе делаем определенные умозаключения.

Информация - все, что  так или иначе зафиксировано в знаковой форме в виде документов.

Все многообразие окружающей нас информации можно сгруппировать по различным признакам:

- по области возникновения. Информация, отражающая процессы, явления  неодушевленной природы называется элементарной или механической, процессы животного и растительного мира - биологической, человеческого общества - социальной;

- по способу передачи и восприятия. Информацию, передаваемую видимыми образами и символами, называют визуальной, звуками -аудиальной, ощущениями - тактильной, запахами и вкусами -органолептической; информацию, выдаваемую и воспринимаемую средствами вычислительной техники, - машинной.

- по общественному назначению информацию можно разбить на три вида: личная, массовая и специальная.

Информация должна обладать следующими свойствами:

достоверность

актуальность

ценность

полезность

понятность

полнота

точность

Информация достоверна, если она отражает истинное положение дел

Информация полна, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления.

Ценность информации зависит от того, насколько она важна для решения задачи.

Актуальность информации зависит от того, своевременно ли получена информация. Нежелательны как преждевременная подача информации, так и ее задержка.

Информация должна преподноситься в доступной форме.

Кодирование информации — процесс преобразования сигнала из формы, удобной для непосредственного использования информации, в форму, удобную для передачи, хранения или автоматической переработки

  1. Методы измерения количества информации.

 Мощность сигнала, также как и  размер и вес носителя, не могут служить оценкой количества информации, переносимой сигналом.

В вычислительной технике применяются две стандартные единицы измерения: бит (англ. binary digit - двоичная цифра) и байт (byte).

Конечно, будет правильно, если Вы скажете: “В слове “Рим” содержится 24 бита информации, а в сообщении  “Миру мир!” - 72 бита”. Однако, прежде, чем измерить информацию в битах, Вы определяете количество символов в этом сообщении. Нам привычней работать с символами, машине - с кодами. Каждый символ в настоящее время в вычислительной технике кодируется 8-битным или 16-битным кодом. Поэтому, для удобства была введена более “крупная” единица информации в технике (преимущественно в вычислительной) - байт. Теперь Вам легче подсчитать количество информации в техническом сообщении - оно совпадает с количеством символов в нем.

Поскольку компьютер предназначен для обработки больших объемов информации, то используют производные единицы - килобайт (Кб), мегабайт (Мб), гигабайт(Гб).

Обычно приставка “кило” означает тысячу, а приставка “мега” - миллион, но в вычислительной технике все “привязывается” к принятой двоичной системе кодирования.

В силу этого один килобайт равен не тысяче байтов, а 210 = 1024 байтов.

Аналогично, 1 Мб = 210 Кб = 1024 Кб = 220 байт = 1 048 576 байт.

                         1 Гб = 210 Мб = 220 Кб = 230 байт = 1 073 741 824 байт.

1). Формула Хартли.

I = log2 N   или   2I = N,

где       N - количество равновероятных событий (число возможных выборов),

            I - количество информации.

2). Модифицированная формула Хартли.

и формула имеет вид

I = log2 (1/p) = - log2 p

где       p - вероятность наступления каждого из N возможных равновероятных событий.

3). Формула Шеннона.

H = S pi hi = - S pi log2 pi

где       pi - вероятность появления в сообщении i-го символа алфавита;

            hi = log2 1/pi = - log2 pi -  количество собственной информации, переносимой одним символом;

            Н - среднее значением количества информации.