Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпора по Кравцу 2.docx
Скачиваний:
19
Добавлен:
14.09.2019
Размер:
1.44 Mб
Скачать
  1. Классификация систем по описанию оператора и способу управления.

  2. Классификация систем по описанию переменных

  3. Классификация систем по происхождению

Классификацию систем можно осуществить по разным критериям. Проводить ее жестко - невозможно, она зависит от цели и ресурсов. Приведем основные способы классификации (возможны и другие критерии классификации систем).

  1. По отношению системы к окружающей среде:

    • открытые (есть обмен ресурсами с окружающей средой);

    • закрытые (нет обмена ресурсами с окружающей средой).

  2. По происхождению системы (элементов, связей, подсистем):

    • искусственные (орудия, механизмы, машины, автоматы, роботы и т.д.);

    • естественные (живые, неживые, экологические, социальные и т.д.);

    • виртуальные (воображаемые и, хотя реально не существующие, но функционирующие так же, как и в случае, если бы они существовали);

    • смешанные (экономические, биотехнические, организационные и т.д.).

  3. По описанию переменных системы:

    • с качественными переменными (имеющие лишь содержательное описание);

    • с количественными переменными (имеющие дискретно или непрерывно описываемые количественным образом переменные);

    • смешанного (количественно-качественное) описания.

  4. По типу описания закона (законов) функционирования системы:

    • типа "Черный ящик" (неизвестен полностью закон функционирования системы; известны только входные и выходные сообщения);

    • не параметризованные (закон не описан; описываем с помощью хотя бы неизвестных параметров; известны лишь некоторые априорные свойства закона);

    • параметризованные (закон известен с точностью до параметров и его возможно отнести к некоторому классу зависимостей);

    • типа "Белый (прозрачный) ящик" (полностью известен закон).

  5. По способу управления системой (в системе):

    • управляемые извне системы (без обратной связи, регулируемые, управляемые структурно, информационно или функционально);

    • управляемые изнутри (самоуправляемые или саморегулируемые - программно управляемые, регулируемые автоматически, адаптируемые - приспосабливаемые с помощью управляемых изменений состояний, и самоорганизующиеся - изменяющие во времени и в пространстве свою структуру наиболее оптимально, упорядочивающие свою структуру под воздействием внутренних и внешних факторов);

    • с комбинированным управлением (автоматические, полуавтоматические, автоматизирован-ные, организационные).

  1. Количество информации. Свойство количества информации. Единицы измерения информации

Информация (от лат. informatio — осведомление, разъяснение, изложение) — в широком смысле абстрактное понятие, имеющее множество значений, в зависимости от контекста. В узком смысле этого слова — сведения (сообщения, данные) независимо от формы их представления. В настоящее время не существует единого определения термина информация. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Информация — совокупность данных, зафиксированных на материальном носителе, сохранённых и распространённых во времени и пространстве.

Количество информации – в теории информации это количество информации в одном случайном объекте относительно другого. Пусть x, y – случайные величины, заданные на соответствующих множествах X, Y . Тогда количество информации x относительно y есть: , где H(x) – энтропия, а H(x|y) – условная энтропия. В теории передачи информации она характеризует шум в канале. Для количества информации справедливы свойства: - Количество информации в случайном объекте Х относительно объекта Y равно количеству информации в y относительно x; – Количество информации неотрицательно; , если x и y– независимые случайные величины; Последнее свойство показывает, что К.и. совпадает с энтропией, если компонента потери информации (шум) равна нулю. При обработке данных содержащееся в них количество информации не может быть увеличено. Следовательно, обработка делается лишь для представления информации в более удобном, компактном виде и в лучшем случае без потери полезной информации.

Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается. Не важно, идёт речь о случайных величинах в математике, регистрах цифровой памяти в технике или в квантовых системах в физике.

Объём информации можно представлять как логарифм количества возможных состояний.

Наименьшее целое число, логарифм которого положителен — это 2. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.

Единица, соответствующая числу 3 (трит) равна log23≈1,585 бита, числу 10 (хартли) — log210≈3.322 бита.

Такая единица как нат (nat), соответствующая натуральному логарифму применяется в инженерных и научных расчётах. В вычислительной технике она практически не применяется, так как основание натуральных логарифмов не является целым числом.В проводной технике связи (телеграф и телефон) и радио исторически впервые единица информации получила обозначение бод