- •Министерство образования российской федерации
- •Л.А. Злобин
- •Теоретические основы
- •Автоматизированного управления
- •Учебно-практическое пособие
- •Москва - 2004
- •Глава 1. Информационное обеспечение асу.
- •Глава 2. Общие сведения о системах и теории управления.
- •Глава 3. Системы управления пищевыми производствами.
- •Глава 1. Информационное обеспечение асу.
- •1.1. Информация.
- •При объединении в одну систему двух зависимых систем х и у энтропия
- •1.2. Виды информации.
- •1.4. Способы представления информации.
- •1.5. Обработка информации.
- •Под управлением понимается совокупность операций по организации не-
- •2.1. Объекты управления.
- •2.2. Информация и принципы управления.
- •Возмущения – воздействия среды на объект, вызывающие отклонения уп-
- •Системы управления с самонастройкой или, в общем случае, с адаптацией
- •2.3. Классификация систем управления.
- •Известно, что входы и выходы элементов систем управления – в теории
- •2.4. Задачи теории управления.
- •2.5. Способы построения моделей.
- •Пассивными двухполюсниками механических схем являются механическое
- •2.6. Линейные модели и характеристики систем управления.
- •2.7. Анализ систем управления.
- •Система называется устойчивость по входу, если при любом ограниченном
- •2.8. Синтез систем управления.
- •3.1. Структура управления пищевым предприятием (хлебозавод). Система функционирования асу хлебозавода в основном определяется вы-
- •Каждый из видов технологического оборудования, в основном, оснащается
- •3.4. Структура управления хлебозавода.
- •3.5. Система управления складом бхм.
- •3.6. Система управления процессом тестоприготовления.
- •3.7. Система управления процессом выпечки хлебобулочных изделий.
- •1. Асутп – что это? б) асу исполнительным устройством
- •Вопросы для самоконтроля
1.1. Информация.
В общем случае информация – это поток знаков и символов, это сообщение,
знания о каком-либо событии, о чей либо деятельности и т.п.. На основе ин-
формации осуществляется функционирование любой управляющей системы
(машин, людей, животных и т.п.).
Информация – это сведения об окружающем мире и протекающих в нем про- цессах, воспринимаемые человеком или специализированным устройством,
например компьютером, для обеспечения целенаправленной деятельности.
Информация возникает в процессе производства и управления. Она прису-
ща лишь организованным системам, способным воспринимать информацию и изменяться под влиянием внешних и внутренним воздействий.
В управлении информация играет главную роль, развиваясь и видоизменяясь
под воздействием экономических факторов, технического прогресса, внеш-
ней среды, потребностей производства, организации процесса управления.
Поток информации – это совокупность данных являющихся частью какой-либо информации, рассматриваемая в процессе ее движения в пространстве
и времени в одном направлении при условии, что у этих данных есть общий источник и общий приемник. Например, в производстве совокупность всех
сведений, передаваемых из объекта управления (технологический процесс) –
источник, а система управления – адресат.
Внутри предприятия (объединения), между их подразделениями циркулиру-
ет огромное количество информации о запасах сырья, наличии мощностей
(оборудования) и рабочей силе, номенклатуре выпускаемой продукции и т.п..
Информация может быть по своей физической природе: числовой, тексто-
вой, графической, звуковой, видео и др. Она также может быть постоянной (неизменяющейся), переменной, случайной, вероятностной. Наибольший ин-
терес представляет переменная информация, так как она позволяет выявлять
причинно-следственные связи в процессах и явлениях.
Существуют различные способы оценки количества информации. Класси-
ческим является подход, использующий формулу К. Шеннона, применитель-
но к двоичной системе счисления она имеет вид:
I = log 2 N , (1 – 1)
где I – количество информации, несущей представления о состоянии, в кото-
ром находится объект; N – количество равновероятных альтернативных сос-
тояний объекта.
Для описания и оценки контролируемых объекта необходимы обобщенные
информационные характеристики, позволяющие применить общие теорети-
ческие выводы и оценки на все области измерительной техники.
Разработка и применение единых критериев и методов для расчетов и оцен-
ки качества измерительных устройств и каналов связи, сложных информаци-
онных и автоматизированных систем управления возможны при использова-
нии основных положений теории информации.
Информационная теория измерений и измерительных устройств как раздел
современной метрологии полностью согласуется с ее прежним представле-
нием и является логическим продолжением и развитием. Согласно этой тео-
рии результаты измерений и контроля рассматриваются как случайные собы-
тия, проводимые эксперименты по процедуре измерений и контролю – как ситуации в которых эти события могут проявляться.
Основным понятием в теории информации является понятие энтропии, ко-
торая в применении к измерениям характеризует меру неопределенности ис-
следуемой ситуации, т.е. процедуры измерения и контроля соответствующих
параметров. Энтропия определяется числом возможных событий в заданной
ситуации и вероятностями их появления.
Энтропией системы называется сумма произведений вероятностей различ-
ных состояний системы на логарифмы этих вероятностей, взятая с обратным
знаком.
При этом рассматривается некоторая физическая система Х, которая может
принимать конечное множество состояний х1, х2,…., хn с вероятностями р1, р2, …., рn , т.е. энтропия: Н(Х) = рi log рi , (1 – 2)
где рi – Р(Х~xi) – вероятность того, что система Х примет состояния хi , а че-
рез Р обозначается статистическая вероятность.
Энтропия Н(Х) обращается в нуль, если одно из состояний системы досто-
верно, а остальные невозможны, т.е. энтропия системы, состояние которой точно известно, обращается в нуль. При заданном числе состояний, когда
эти состояния равновероятны, она (энтропия) сводится к минимуму, а при
увеличении числа этих состояний увеличивается.
Энтропия сложной системы, состоящих из нескольких простых систем,
формируется при их объединении. При этом энтропия сложной системы рав-
на сумме произведений вероятностей всех возможных ее состояний на лога-
рифмы, взятой с обратным знаком, т.е.
Н (Х, У) = - Рij log Pij (1 – 3)
Если объединяемые системы независимы, их энтропии складываются:
Н(Х, У) = Н(Х) + Н(У) (1 – 4)
Если система формируется из независимых друг от друга систем, для ихобъединения вводится понятие условной энтропии, которая имеет вид:
Н(Х/У) = - Pij log P(уj / xi) (1 – 5)
Величина условной энтропии Н(Х/У) характеризует степень неопределен-
ности системы У, оставшееся после того, как состояние системы Х полно-
стью определилось.
Если две системы Х и У объединяются в одну, то энтропия объединенной
системы равна энтропии одной из ее частей плюс условная энтропия второй
части относительно первой:
Н(Х, У) = Н(Х) + Н(Х/У) (1 – 6)
При объединении любого количества систем формула сложения их энтро-
пий имеет вид:
Н(Х1, Х2,…,ХS)=Н(Хi)+Н(Х2/Хi)+Н(Х3/Х1,Х2)+…+Н(ХS/Х1,Х2,…ХS-1) (1 – 7)
Следовательно, в результате получения информации неопределенность системы уменьшается. Чем больше объем и содержательность информации,
тем менее неопределенность состояния системы. Поэтому, актуальна целесо-
образность оценки количества информации измерением энтропии системы,
состояние которой оценивается.
Количество информации, которая приобретается при полном выяснении состояния некоторой системы Х, равно энтропии этой системы:
Iх = Н(Х) (1 – 8)
или Iх = - рi log рi , (1 – 9)
где рi = P(X~xi)
При получении информации о системе Х путем наблюдения за некоторой
другой системой У, связанной с нею, количество полной взаимной информа-
ции, содержащейся в обоих системах, равно сумме энтропий составляющих систем минус энтропия объединенной системы:
Iух = Н(Х, У) = Н(Х) + Н(У) – Н(Х, У) ( 1 – 10)
Для физических систем, аналогичных непрерывным случайным величинам,
энтропия имеет вид: Нх(Х) = - f(х) log f(x)dx - logx , (1 – 11)
где х – степень точности определения состояния системы.
Из выражения (1-11) видно, что от х зависит только второй его член
(-log х), который при х0 стремится к бесконечности, т.е. чем точнее
следует знать состояние системы Х, тем большая часть неопределенности
должна быть устранена.
Таким образом, задаваясь зоной нечувствительности х измерительных
средств, с помощью которых производятся измерения для определения состояния системы Х, можно определить энтропию этой системы.
Для определения условной энтропии имеем выражение в виде математиче-
ского ожидания функции: Нх(Х) = - f(x) lоg f(x)xdx. (1 – 12)
Для двух взаимозависимых непрерывных систем Х и У полная (средняя)
энтропия имеет вид:
Нху(У/Х) = - f(х,у) log f(у/х)dxdу - logу , (1 – 13)