- •Оглавление
- •Вопросы
- •Определения информатики
- •Определения информатики
- •Возникновение и история информатики
- •Структура информатики
- •Понятие информации
- •Свойства информации
- •Объективность
- •Достоверность
- •Полнота
- •Количество информации. Формула Хартли
- •Функции информации
- •Информационные процессы и системы
- •Процессы информатизации и компьютеризации
- •Информационные Ресурсы Информационные ресурсы - в широком смысле - совокупность данных, организованных для эффективного получения достоверной информации.
- •Определение информационных технологий
- •Этапы развития информационных технологий
- •Негативные аспекты информационных технологий
- •Строение эвм по фон Нейману
- •Теоретические основы построения эвм – принципы фон Неймана
- •Поколения эвм
- •I поколение
- •II поколение
- •III поколение
- •IV поколение (с 1972 г. По настоящее время)
- •Поколения языков программирования
- •Преобразование информации из аналоговой в цифровую форму
- •Трансляторы
- •Алгоритм и свойства алгоритма
Объективность
Информация, которая отражает явления или объекты материального мира и не зависит от методов её фиксации, чьего-либо мнения, суждения является объективной..
Например, сообщение «На улице тепло» несёт субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения.
Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании конкретного человека, информация перестает быть объективной, так как, преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта.
Достоверность
Информация, отражающая истинное положение дел и помогающая принять нам правильное решение является достоверной.
Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестает отражать истинное положение дел.
Информация, которая может привести к неправильному пониманию или принятию неправильных решений является недостоверной.
Недостоверной информация может быть по следующим причинам:
преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;
искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.
Полнота
Информацию можно назвать полной, если её достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.
Избыточный набор также затрудняет доступ к нужным данным, создает повышенный информационный шум, что также вызывает необходимость дополнительных методов (фильтрация, сортировка). И неполный и избыточный наборы затрудняют получение информации и принятие адекватного решения.
Точность информации определяется степенью её близости к реальному состоянию объекта, процесса, явления и т.д.
Адекватность - это степень соответствия реальному объективному состоянию дела. Неадекватная информация может образовываться на основе неполных или недостоверных данных.
Доступность - это возможность получения информации при необходимости. Доступность складывается из двух составляющих: из доступности данных и доступности методов. Отсутствие хотя бы одного даёт неадекватную информацию.
Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна. Устаревшая информация может приводить к ошибочным результатам.
Количество информации. Формула Хартли
Информация, вводимая в компьютер должна быть конкретной и однозначной. Издавна люди пользовались шифрами. Самыми простыми и удобными из них были цифровые шифры. Самая разнообразная информация - цвета, ноты, дни недели - может быть представлена в виде цифр.
Для обработки компьютером любая информация кодируется с помощью цифр. Цифры представляются электрическими сигналами, с которыми работает компьютер. Для удобства различения в компьютере используют сигналы двух уровней. Один из них соответствует цифре 1, другой - 0. Цифры 1 и 0 называются двоичными и являются символами, из которых состоит язык, понимаемый и используемый компьютером. Любая информация в компьютере представляется с помощью двоичных цифр.
Под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.
Наименьшей единицей информации является бит (от англ. binary digit (bit)).
Бит - это наименьшая единица памяти, необходимая для хранения одного из двух знаков 0 и 1, используемых для внутримашинного представления данных и команд.
В современных компьютерах помимо двоичной системы счисления применяют и другие: восьмеричную и шестнадцатеричную системы счисления – для компактной записи двоичных кодов чисел и команд.
В информатике принято рассматривать последовательности длиной 8 бит. Такая последовательность называется байтом (1 байт=8 битам).
Байт - это восьмиразрядный двоичный код, с помощью которого можнопредставить один символ.
С помощью одного байта можно записать двоичные коды 256 (28) чисел от 0 до 255.
Широко используются также еще более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 210 байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.
Подходы к определению количества информации. Формулы Хартли и Шеннона.
Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.
Формула Хартли: I = log2N |
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.
Приведем другие примеры равновероятных сообщений:
при бросании монеты: "выпала решка", "выпал орел";
на странице книги: "количество букв чётное", "количество букв нечётное".
Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.
Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
Формула Шеннона: I = — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN), где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений. |
Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли.
Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.