Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
voprosy_2_semestr_ITb2.doc
Скачиваний:
5
Добавлен:
27.09.2019
Размер:
528.38 Кб
Скачать
  1. Объективность

Информация, которая отражает явления или объекты материального мира и не зависит от методов её фиксации, чьего-либо мнения, суждения является объективной..

Например, сообщение «На улице тепло» несёт субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения.

Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании конкретного человека, информация перестает быть объективной, так как, преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта.

  1. Достоверность

Информация, отражающая истинное положение дел и помогающая принять нам правильное решение является достоверной.

Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестает отражать истинное положение дел.

Информация, которая может привести к неправильному пониманию или принятию неправильных решений является недостоверной.

Недостоверной информация может быть по следующим причинам:

  • преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;

  • искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

  1. Полнота

Информацию можно назвать полной, если её достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

Избыточный набор также затрудняет доступ к нужным данным, создает повышенный информационный шум, что также вызывает необходимость дополнительных методов (фильтрация, сортировка). И неполный и избыточный наборы затрудняют получение информации и принятие адекватного решения.

  1. Точность информации определяется степенью её близости к реальному состоянию объекта, процесса, явления и т.д.

  2. Адекватность - это степень соответствия реальному объективному состоянию дела. Неадекватная информация может образовываться на основе неполных или недостоверных данных.

  3. Доступность - это возможность получения информации при необходимости. Доступность складывается из двух составляющих: из доступности данных и доступности методов. Отсутствие хотя бы одного даёт неадекватную информацию.

  4. Актуальность информацииважность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна. Устаревшая информация может приводить к ошибочным результатам.

  1. Количество информации. Формула Хартли

Информация, вводимая в компьютер должна быть конкретной и однозначной. Издавна люди пользовались шифрами. Самыми простыми и удобными из них были цифровые шифры. Самая разнообразная информация - цвета, ноты, дни недели - может быть представлена в виде цифр.

Для обработки компьютером любая информация кодируется с помощью цифр. Цифры представляются электрическими сигналами, с которыми работает компьютер. Для удобства различения в компьютере используют сигналы двух уровней. Один из них соответствует цифре 1, другой - 0. Цифры 1 и 0 называются двоичными и являются символами, из которых состоит язык, понимаемый и используемый компьютером. Любая информация в компьютере представляется с помощью двоичных цифр.

Под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.

Наименьшей единицей информации является бит (от англ. binary digit (bit)).

Бит - это наименьшая единица памяти, необходимая для хранения одного из двух знаков 0 и 1, используемых для внутримашинного представления данных и команд.

В современных компьютерах помимо двоичной системы счисления применяют и другие: восьмеричную и шестнадцатеричную системы счисления – для компактной записи двоичных кодов чисел и команд.

В информатике принято рассматривать последовательности длиной 8 бит. Такая последовательность называется байтом (1 байт=8 битам).

Байт - это восьмиразрядный двоичный код, с помощью которого можнопредставить один символ.

С помощью одного байта можно записать двоичные коды 256 (28) чисел от 0 до 255.

Широко используются также еще более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

Подходы к определению количества информации.   Формулы Хартли и Шеннона.

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

            Формула Хартли:   I = log2N

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100  6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Приведем другие примеры равновероятных сообщений:

  1. при бросании монеты: "выпала решка""выпал орел";

  2. на странице книги: "количество букв чётное""количество букв нечётное".

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

                      Формула Шеннона: I = — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN), где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли.

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]