Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпоргалка.doc
Скачиваний:
9
Добавлен:
21.09.2019
Размер:
418.3 Кб
Скачать

19.Энторопия и законы её изменения в живой и неживой природе.

Энтропия-поворот,вращение. Впервые введено в термодинамике для меры необратимости рассеивания энергии. Термин широко применяется в других областях. В теории информации – это мера неопределенности. Понятие введено Клазиусом в 1865. В живом организме энтропия уменьшается при росте свободной энергии, необходимой для энергетических процессов, а в окружающей среде она растет. Живое вещество после прекращения своей деятельности отдает неживому все то, что у него взяло. Живой организм борется за энергию, а энтропию сбрасывает в окруж. среду. Энергия переходит из одной формы в другую. Энергия уменьшается, а энтропия возрастает. Таким образом живая природа повышает свою энтропию за счет общения с живыми организмами.. Что касается неживой природы, то наукой принято ,что все природные процессы в неживой природе протекают с увеличением энтропии.

20.Связь между энтропией и информацией.

Котельниковым была доказана теорема о том, что непрерывный сигнал, спектр частот которого ограничен частотой , можно заменить квантовым по времени сигналом с интервалом квантования:

В статистической физике (предложено Больцманом) , где К= 1,38*10-23 Дж/град (постоянная Больцмана). В теории информации энтропия определяется как количество информации на один символ сообщения, т.е.

Л. Ожанром установлена теорема, согласно которой в отсутствии магнитного поля и вращения исследуемой неравновесной системы как целого:

Если же есть магнитное поле напряженностью H или система вращается с угловой скоростью , то:

Важно отметить, что чем больше энтропия, тем больше информации несет в себе сообщение, т.к. с приходом сигнала устраняется неопределённость в изучаемой системе. В классической теории информации:

,где Pp – вероятность некоторого события после поступления сообщения на входе приемника, а Pd – вероятность данного события до поступления сообщения.

Энтропия – мера неопределенности, хаоса.

21. Примеры расчёта энтропии и информации в живой природе. Законы изменения информации в социуме.

В реальных экспериментах очень трудно измерить энтропию системы. Техники измерения базируются на термодинамическом определении энтропии и требуют экстремально аккуратной калориметрии. Для упрощения мы будем исследовать механическую систему, термодинамические состояния которой будут определены через её объем V и давление P. Для измерения энтропии определенного состояния мы должны сперва измерить теплоёмкость при постоянных объёме и давлении (обозначенную CV и CP соответственно), для успешного набора состояний между первоначальным состоянием и требуемым. Тепловые ёмкости связаны с энтропией S и с температурой T.

Таким образом, мы можем получить значение энтропии любого состояния (P,V) по отношению к первоначальному состоянию (P0,V0). Точная формула зависит от нашего выбора промежуточных состояний. Для примера, если первоначальное состояние имеет такое же давление, как и конечное состояние. В добавление, если путь между первым и последним состояниями лежит сквозь любой фазовый переход первого рода, скрытая теплота, ассоциированная с переходом, должна также учитываться. Энтропия первоначального состояния должна быть определена независимо. В идеальном варианте выбирается первоначальное состояние как состояние при экстремально высокой температуре, при которой система существует в виде газа. Энтропия в этом состоянии подобна энтропии классического идеального газа плюс взнос от молекулярных вращений и колебаний, которые могут быть определены спектроскопически.