Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информатика (1 семестр).doc
Скачиваний:
143
Добавлен:
11.06.2015
Размер:
777.73 Кб
Скачать

11. Информация, её виды и свойства. Непрерывная и дискретная информация. Единицы количества информации: вероятностный и объёмный подходы.

Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики

графическая звуковая

текстовая

числовая

видеоинформация

Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения — это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и др.

Свойства информации:

А)Репрезентативность – правильность способа или метода, на базе которого сформулировано исходное понятие; - обоснованность отбора существенных признаков и связей отображаемого явления.

Б)Содержательность – отражает семантическую(смысловую)ёмкость, которая равна отношению количества семантической информации к объёму обрабатываемых данных.

В)Полнота – означает, что информация содержит минимальный, но достаточный для принятия осознанного решения набор показателей.

Г)Доступность – должна обеспечиваться выполнением соответствующих процедур, её получением и преобразованием.

Д)Актуальность – определяется степенью сохранения ценности информации для управления в момент её использования.

Е)Своевременность – означает её поступление не позднее заранее назначенного момента времени, согласованного с моментом решения поставленной задачи.

Ж)Точность – определяется степенью близости полученной информации к реальному описанию какого-либо объекта с необходимой точностью.

З)Достоверность - определяется её свойством отражать реально существующие объекты с необходимой точностью.

И)Устойчивость – отражает её способность реагировать на изменение исходных данных без нарушения необходимой точности.

Непрерывная и дискретная информация.

Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал – это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала. В случае когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала – непрерывная функция от времени), соответствующая информация называется непрерывной. Пример дискретного сообщения – процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника – человеческого уха.Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке [а, Ь] (см.рис.2). Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией).В технике непрерывная информация называется аналоговой, дискретная — цифровой.

Примеры-иллюстрации:

  1. Система целых чисел является дискретной в противоположность системе действительных чисел.

  2. Память компьютера состоит из отдельных ячеек — битов, то есть, она — дискретна. Следовательно, компьютер работает исключительно с дискретной (цифровой) информацией, а непрерывные сигналы, поступающие в компьютер, подвергаются процессу дискретизации, или оцифровке аналогового сигнала.

Единицы количества информации: вероятностный и объёмный подходы.

Объемный - измерение информации в технике (информация как сообщения в форме знаков или сигналов, хранимые, передаваемые и обрабатываемые с помощью технических устройств). В технике, где информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, сигналов, часто используют простой способ определения количества информации, который может быть назван объемным. Он основан на подсчете числа символов в сообщении, то есть связан только с длиной сообщения и не учитывает его содержания. Длина сообщения зависит от числа знаков, употребляемых для записи сообщения. В двоичной системе счисления знаки 0 и 1 будем называть единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов

Вероятностный - получение информации (ее увеличение) одновременно означает увеличение знания, что, в свою очередь, означает уменьшение незнания или информационной неопределенности. За единицу количества информации принимают выбор одного из двух равновероятных сообщений (“да” или “нет”, “1” или “0”). Она также названа бит.

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N.Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:H = log2 N. Это – формула Хартли.