Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЭК (лекции, Мельников).doc
Скачиваний:
11
Добавлен:
02.02.2015
Размер:
938.5 Кб
Скачать

Тема 3. Информация и ее роль в экономической кибернетике.

Предмет и методы ЭК.

Кибернетика – наука об управлении в сложных динамических системах.

Отличительным элементом кибернетического подхода является положение об общности процессов управления и обработки информации в системах разной природы.

Возникновение кибернетики связано с работами Норберта Винера в конце 40-х – начале 50-х гг. ХХ века.

Значительный вклад в развитие кибернетики внесли такие отечественные и зарубежные ученые, как У.Р. Эшби, С. Бир, Х. Райфф, В. Глушков.

ЭК – отрасль кибернетики, связанная с изучением социально-экономических систем.

  1. Различные подходы к определению «информация»

В первоначальном смысле термин «информация» означал знания вообще. С развитием кибернетики этот термин конкретизировался и стал употребляться в более точных смыслах.

В настоящее время принято определение информации как меры неопределенности состояния изучаемого объекта.

Неопределенность о свойствах объекта выражается количеством различных его состояний. Чем больше количество возможных состояний, тем выше уровень неопределенности.

Количественной мерой неопределенности является энтропия системы.

Существует 2 подхода к описанию информации:

  • Атрибутивный (аспектный)

  • Функциональный (видовой)

В аспектном подходе информация – описание и сведения об изучаемом материальном объекте. В функциональном подходе под информацией понимаются сведения, знания наблюдателя об интересующем его объекте и среде этого объекта.

Информация в системе получается наблюдателем в результате активного эксперимента, либо наблюдения объекта.

Знания наблюдателя о системе до эксперимента называют априорными, после – апостериорными.

Успешный эксперимент приводит к выяснению состояния объекта или законов его поведения, т.о. снижая уровень неопределенности.

Наблюдатель рассматривает информацию в 3х аспектах:

  • Прагматическом – с т. зр. достижения своих целей, ценности или полезности получаемых сведений.

  • Семантическом – с т. зр. смыслового содержания и правильного истолкования информации

  • Синтаксическом – с т. зр. способа передачи и отображения информации

  1. Информация как количественная мера снижения неопределенности.

Любому изучаемому объекту присуща неопределенность в его возможных состояниях. Количественная мера беспорядка в системе, выражающегося в неопределенности ее состояний, называется энтропией.

Имеются 2 различных определения энтропии. В соответствии с первым определением, энтропия – log числа допустимых состояний объекта.

s = 1,2,3,…,S - возможные состояния объекта.

H0 – энтропия

H0 = log S

Предположим, мы используем 2 сигнала – 0 и 1 – для передачи информации, то для описания 2n возможных состояний необходимо n двоичных сигналов.

Чаще всего в качестве основания log используется 2. В этом случае энтропию системы можно интерпретировать как количество двоичных сигналов, необходимых для передачи сообщения о действительном состоянии системы.

Двоичный сигнал называется также битом.

Второе определение энтропии (определение Шеннона).

Рассмотренное выше определение энтропии соответствует т.н. вариантной неопределенности, когда все возможные состояния системы равновероятны. Однако неопределенность системы может иметь вероятностный характер. В этом случае определение энтропии следует скорректировать.

Формула энтропии в случае стохастической неопределенности была предложена Шенноном в 1948г.

s = 1,2,3,…,S – количество возможных состояний объекта.

P(s) – вероятность этих состояний.

Предположим. Что все состояния равновероятны, тогда

Таким образом формулы согласованы.

Т.о., если все состояния системы равновероятны, эти 2 определения эквивалентны.

В противном случае можно показать, что .

Наряду с энтропией говорят об информации или негэнтропии, как величине, обратной по знаку энтропии:

I = -H

Энтропия обладает свойством аддитивности. Т.е. энтропия системы. Составленной из двух изолированных, статистически независимых объектов. Равна сумме энтропий этих объектов.

Энтропия замкнутой, изолированной системы со временем монотонно увеличивающимся вплоть до достижения max значения Н0.

Основоположник теории информации К.Шеннон исходил из субъективизированного функционального подхода к понятию информации. Он рассматривал ее как снятую неопределенность об объекте в результате получения адресатом некоторого сообщения. Касающегося этого объекта.

Объект Х – СВ, принимающая S значений: х123,…,хs.

У – СВ, воздействия на объект, принимающая М значений: у123,...,ум

Введем вектор условных вероятностей:

Сообщение, которое получает наблюдатель, указывает конкретную реализацию Уj величины У.

До приема сообщения известны априорные вероятности Р(Уj) каждого сообщения.

По этим данным можно получить априорные вероятности значений величины Х:

После получения конкретного сигнала Уj:

Н(х) – априорная энтропия

Н(Х/Уj) – априорная энтропия

Количество информации об объекте Х, полученной в результате получения сообщений Уj будет равна:

  1. Ценность информации в прагматическом аспекте.

С экономической точки зрения информация позволяет принимать лучшие решения, чем и объясняется для ЛПР.

Целевая функция ЛПР:

П ( S , U )

прибыль сост.прир. управление

для любого известного состояния природы S можно найти оптимальное управление U*(S), которое будет определяться как:

В том случае, когда состояние природы неизвестно, управление будет выбрано с учетом вероятностей возможных состояний природы. Например, в результате решения следующей задачи:

П(S,U*(S)) – прибыль при оптимальном управлении в случае знания S.

Поскольку информация об истинном состоянии природы S позволяет ЛПР выработать оптимальное управление и получить наибольшую прибыль, экономическая ценность информации составляет величину , т.е.дополнительную прибыль за счет более эффективного управления.

Пример:

Спрос –

СВ –

Цена – Р

- издержки.

Задача монополиста – выбрать оптимальный V выпуска продукции – q*

Если выпуск продукции равен q, то

Случай 1. монополист не знает V:

Если истинное значение , то

Случай 2. монополист знает V

Цена информации =.

  1. Модели с ассиметричной информацией.

Пример 1. Рынок подержанных автомобилей (модель Акерлофа)

Два типа автомобилей:

  • Рг=0,5 – «хорошие» (Р=3000$)

  • Рг=0,5 – «плохие» (Р=1000$)

Р = 0,5*3000+0,5*1000 = 2000 ($)

Пример 2. Модель бесполезного образования (модель Спенса)

Есть два типа людей: умные и остальные. Труд первого типа приносит работодателям прибыль , а второго -. Пропорция людей первого и второго типа. Стоимость образования для людей первого типаCL, для второго – CН.