Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информация-Методическая разработка.docx
Скачиваний:
5
Добавлен:
17.11.2019
Размер:
46.55 Кб
Скачать

Количество информации как мера уменьшения неопределённости знаний. Единицы измерения информации

Человек получает информацию из окружающего мира с помощью органов чувств, анализирует её и выделяет важные существенные закономерности с помощью мышления и хранит полученную информацию в памяти. Процесс систематического научного познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Таким образом, с точки зрения науки информация рассматривается как знания.

Процесс познания можно наглядно изобразить в виде расширяющегося круга знания (такой способ придумали ещё древние греки). Вне этого круга лежит область незнания, а окружность является границей между знанием и незнанием. Парадокс состоит в том, что чем большим объёмом знаний обладает человек и чем шире круг его знаний, тем больше граница нашего незнания, мерой которого в этой модели является длина окружности.

Так, объём знаний выпускника школы гораздо больше, чем объём знаний первоклассника, однако и граница его незнания существенно больше. Действительно, первоклассник совершенно ничего не знает о законах физики и его это не волнует, тогда как выпускник школы при подготовке к экзаменам по физике может обнаружить, что существуют физические законы, которые он не знает и не понимает.

Информацию, которую получает человек, можно считать мерой уменьшения неопределённости знания. Если некоторое сообщение приводит к уменьшению неопределённости наших знаний, то можно говорить, что такое сообщение содержит информацию.

Например, после сдачи экзамена вы мучаетесь неопределённостью, вы не знаете какую оценку вы получили. Наконец, экзаменационная комиссия объявляет результаты экзамена и вы получаете сообщение, которое приносит полную определённость, теперь вы знаете свою оценку. Происходит переход от полного незнания к полному знанию, значит, сообщение экзаменационной комиссии содержит информацию.

Вопрос “как измерить информацию?” очень непростой. Ответ на него зависит от того, что понимать под информацией. Но поскольку определить информацию можно по-разному, то и способы измерения тоже могут быть разными.

Информацию друг другу мы передаем в устной и письменной форме, в форме жестов, мимики, знаков. Информацию мы получаем, передаем другим и делаем определенные умозаключения на ее основе.

В любом виде информация выражает сведения о ком-то или о чем-то, и при этом она обязательно имеет некоторую форму — форму рассказа, рисунка, статьи и т.д. Чертежи и музыкальные произведения, книги и картины, спектакли и фильмы — все это формы представления информации.

Информация в наиболее общем понимании — это отражение предметного мира с помощью знаков и сигналов.

Можно выделить, по крайней мере, четыре различных подхода к определению понятия информация.

В быту слово "информация" применяется как синоним слов: "сведения", "сообщение", "осведомление о положении дел". Очевидно, что количественно измерить информацию, определенную таким образом, невозможно, в лучшем случае можно говорить о достоверности или недостоверности информации.

В кибернетике понятие "информация" используется для характеристики управляющих сигналов, которые обеспечивают устойчивое функционирование сложных систем. Тогда количество информации равно количеству сигналов.

В философии понятие "информация" тесно связано с такими понятиями как взаимодействие и познание. В процессе взаимодействия двух объектов происходят их изменения, можно сказать, что на них отпечатывается информация о взаимодействии, но как измерить – на сколько изменились познания человека? Мы только знаем, что человек познает окружающий мир, и в его сознании накапливаются знания, т.е. информация.

В информатике понятие " информация" вводится как мера уменьшения неопределенности. Такой подход позволяет количественно измерять информацию, что чрезвычайно важно для информатики как технологической науки. Рассмотрим такой подход к определению информации более подробно на примерах, когда существуют некоторое количество событий, каждое из которых может произойти с определенной вероятностью, например, "бросания монеты". Перед броском существует неопределенность, как упадет монета предсказать невозможно. После броска реализуется полная определенность (например "орел"). При бросании четырехгранной пирамиды существует 4 возможных исхода, а при бросании игрального кубика - 6 возможных исходов. Очевидно, что чем больше возможных событий, тем больше начальная неопределенность результата и, главное, тем больше количество информации будет получено после проведения опыта.

Итак,

Количество информации - мера уменьшения неопределенности знаний.

Для количественного определения любой величины необходимо выбрать единицу измерения.

За единицу измерения информации принято такое количество информации, которое мы получаем при уменьшении неопределенности в два раза. Такая единица называется бит.

Если вернуться к опыту с бросанием монеты, то здесь неопределённость как раз уменьшается в два раза (из двух возможных событий реализуется одно), и, следовательно, полученное количество информации равно 1 биту.

В информатике система образования кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук. Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n:

1 Кбайт = 210 байт = 1024 байт

1 Мбайт = 220 байт = 1024 Кбайт

1 Гбайт = 2 30 байт = 1024 Мбайт