- •Оглавление
- •Предисловие
- •Введение
- •§ 1.1. Предварительные замечания
- •§ 1.2. Роль системных представлений в практической деятельности
- •§ 1.3. Внутренняя системность познавательных процессов
- •§ 1.4. Системность как всеобщее свойство материи
- •§ 1.5. Краткий очерк истории развития системных представлений
- •Заключение
- •Литература
- •Богданов а.А. Всеобщая организационная наука (тектология). В 3 т. М., 1905–1924. Т. 3.
- •Пригожин и., Стенгерс и. Порядок из хаоса. – м.: Прогресс, 1986.
- •Упражнения
- •§ 2.1. Широкое толкование понятия модели
- •§ 2.2. Моделирование – неотъемлемый этап всякой целенаправленной деятельности
- •§ 2.3. Способы воплощения моделЕй
- •Insight озарение
- •§ 2.4. Условия реализации свойств моделей
- •§ 2.5. Соответствие между моделью и действительностью: различия
- •§ 2.6. Соответствие между моделью и действительностью: сходство
- •§ 2.7. О динамике моделей
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 3.1. Множественность моделей систем
- •§ 3.2. Первое определение системы
- •Inputs входы (системы)
- •§ 3.3. Модель “черного ящика”
- •§ 3.4. Модель состава системы
- •§ 3.5. Модель структуры системы
- •§ 3.6. Второе определение системы. Структурная схема системы
- •§ 3.7. Динамические модели систем
- •Vertex вершина (графа)
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 4.1. Искусственные системы и естественные объекты
- •§ 4.2. Обобщение понятия системы. Искусственные и естественные системы
- •§ 4.3. Различные классификации систем
- •Variable переменная
- •§ 4.4. О больших и сложных системах
- •Заключение
- •Литература
- •Месарович м. Теория систем и биология. Точка зрения теоретика.- в сб.: Теория систем и биология – м.: Мир, 1971.
- •Раппопорт а. Математические аспекты абстрактного анализа систем. – в сб.: Исследования по общей теории систем. – м.: Мир, 1969.
- •Упражнения
- •Вопросы для самопроверки
- •§ 5.1. Информация как свойство материи
- •§ 5.2. Сигналы в системах
- •Information
- •Interference
- •§ 5.3. Случайный процесс – математическая модель сигналов
- •§ 5.4. Математические модели реализаций случайных процессов
- •§ 5.5. О некоторых свойствах непрерывных сигналов
- •§ 5.6. Энтропия
- •Independent независимый
- •§ 5.7. Количество информации
- •Interaction взаимодействие
- •§ 5.8. Об основных результатах теории информации
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 6.1. Эксперимент и модель
- •§ 6.2. Измерительные шкалы
- •Interval
- •§ 6.3. Расплывчатое описание ситуаций
- •§ 6.4. Вероятностное описание ситуаций. Статистические измерения
- •§ 6.5. Регистрация экспериментальных данных и ее связь с последующей их обработкой
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 7.1. Многообразие задач выбора
- •§ 7.2. Критериальный язык описания выбора
- •§ 7.3. Описание выбора на языке бинарных отношений
- •§ 7.4. Язык функций выбора
- •§ 7.5. Групповой выбор
- •Voting голосование
- •§ 7.6. Выбор в условиях неопределенности
- •§ 7.7. О выборе в условиях статистической неопределенности
- •§ 7.8. Выбор при расплывчатой неопределенности
- •§ 7.9. Достоинства и недостатки идеи оптимальности
- •§ 7.10. Экспертные методы выбора
- •§ 7.11. Человеко-машинные системы и выбор
- •§ 7.12. Выбор и отбор
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 8.1. Анализ и синтез в системных исследованиях
- •§ 8.2. Модели систем как основания декомпозиции
- •§ 8.3. Алгоритмизация процесса декомпозиции
- •Ignorance незнание, невежество
- •§ 8.4. Агрегирование, эмерджентность, внутренняя целостность систем
- •§ 8.5. Виды агрегирования
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 9.1. Что такое системный анализ
- •§ 9.2. Формулирование проблемы
- •§ 9.3. Выявление целей
- •§ 9.4. Формирование критериев
- •Values ценности
- •§ 9.5. Генерирование альтернатив
- •§ 9.6. Алгоритмы проведения системного анализа
- •§ 9.7. Претворение в жизнь результатов системных Исследований
- •Implementation внедрение (результатов)
- •§ 9.8. О специфике социальных систем
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •Краткий словарь специальных терминов
- •Contents
- •Оглавление
Interaction взаимодействие
DISTORTION искажение
QUANTITY количество
DENSITY плотность
AVERAGE средний
Количество информации можно определить как меру уменьшения неопределенности в результате получения сигнала. Это соответствует разности энтропий до и после приема сигнала.
Среди свойств количества информации выделяются следующие: 1) количество информации (в отличие от энтропии) имеет одинаковый смысл как для дискретных, так и для непрерывных случайных объектов; 2) при обработке данных содержащееся в них количество информации не может быть увеличено. Следовательно, обработка делается лишь для представления информации в более удобном, компактном виде и в лучшем случае без потери полезной информации.
ЕДИНИЦЫ ИЗМЕРЕНИЯ ЭНТРОПИИ И КОЛИЧЕСТВА ИНФОРМАЦИИ
Рассмотрим теперь вопрос о единицах измерения количества информации и энтропии. Из определений I и Н следует их безразмерность, а из линейности их связи – одинаковость их единиц. Поэтому будем для определенности говорить об энтропии. Начнем с дискретного случая. За единицу энтропии примем неопределенность случайного объекта, такого, что
. (11)
Легко установить, что для однозначного определения единицы измерения энтропии необходимо конкретизировать число m состояний объекта и основание логарифма. Возьмем для определенности наименьшее число возможных состояний, при котором объект еще остается случайным, т.е. m = 2, и в качестве основания логарифма также возьмем число 2. Тогда из равенства –р1log2р1 – р2log2р2 = 1 вытекает, что р1 = р2 = 1/2. Следовательно, единицей неопределенности служит энтропия объекта с двумя равновероятными состояниями. Эта единица получила название “бит”. Бросание монеты дает количество информации в один бит. Другая единица (“нит”) получается, если использовать натуральные логарифмы, обычно она употребляется для непрерывных величин.
КОЛИЧЕСТВО ИНФОРМАЦИИ В ИНДИВИДУАЛЬНЫХ СОБЫТИЯХ
Остановимся еще на одном важном моменте. До сих пор речь шла о среднем количестве информации, приходящемся на любую пару состояний (хi, уk) объектов Х и Y. Эта характеристика естественна для рассмотрения особенностей стационарно функционирующих систем, когда в процессе функционирования (рано или поздно, реже или чаще) принимают участие все возможные пары (хi, уk). Однако в ряде практических случаев оказывается необходимым рассмотреть информационное описание конкретной пары состояний, оценить содержание информации в конкретной реализации сигнала. Тот факт, что некоторые сигналы несут информации намного больше, чем другие, виден на примере того, как отбираются новости средствами массовой информации (скажем, все радиостанции и газеты сообщают о рождении шестерых близнецов где-то в Южной Америке, но о рождении двойни обычно не пишут).
Допуская существование количественной меры информации i(хi, уk) в конкретной паре (хi, уk), естественно потребовать, чтобы индивидуальное и среднее количества информации удовлетворяли соотношению
. (12)
Хотя равенство сумм имеет место не только при равенстве всех слагаемых, сравнение формул (12) и, например, (4) наталкивает на мысль, что мерой индивидуальной информации в дискретном случае может служить величина
, (13)
а в непрерывном – величина
, (14)
называемая информационной плотностью. Свойства этих величин согласуются с интуитивными представлениями (в том числе и возможная отрицательность при положительности в среднем) и, кроме того, доказана единственность меры, обладающей указанными свойствами. Полезность введения понятия индивидуального количества информации проиллюстрируем на следующем примере.
Пусть по выборке (т.е. совокупности наблюдений) х = х1, ..., хN требуется отдать предпочтение одной из конкурирующих гипотез (Н1 или Н0), если известны распределения наблюдений при каждой из них, т.е. р(х | Н0) и р(х | Н1). Как обработать выборку? Из теории известно, что никакая обработка не может увеличить количества информации, содержащегося в выборке х (см. формулу (9)). Следовательно, выборке х нужно поставить в соответствие число, содержащее всю полезную информацию, т.е. обработать выборку без потерь. Возникает мысль о том, чтобы вычислить индивидуальные количества информации в выборке х о каждой из гипотез и сравнить их:
. (15)
Какой из гипотез отдать предпочтение, зависит теперь от величины ?i и от того, какой порог сравнения мы назначим. Оказывается, что мы получили статистическую процедуру, оптимальность которой специально доказывается в математической статистике, – именно к этому сводится содержание фундаментальной леммы Неймана – Пирсона. Данный пример иллюстрирует эвристическую силу теоретико-информационных представлений.
Подведем итог Главным результатом данного параграфа является открытие К.Шэнноном возможности количественного описания информационных процессов в системах и получение им формулы для количества информации.
|
Summary The gist of this section is the possibility, discovered by C.Shannon, of quantitatively describing information processes in systems and finding the functional that expresses the quantity of information. |