Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
3106.doc
Скачиваний:
15
Добавлен:
13.11.2022
Размер:
1.3 Mб
Скачать

1. Моделирование технологических операций

Информационный анализ между параметрами позволяет провести количественную оценку взаимосвязей результатов выполненной операции (качество изделия) от влияющих факторов, например, режима обработки, материала, состояние оборудования и др., выявить параметр, обладающий наибольшей информативностью.

Допустим, что в результате обработки заготовки на отдельной операции сформировались три параметра X, Y, Z. Рассмотрим возможные случаи взаимосвязи между этим параметрам (рис. 1) [2].

а б

Рисунок 1 - Диаграммы информационной связи между параметрами

На первом рисунке 1а отражена полная информационная независимость между параметрами. Второй рисунок 1б характеризует информационную связь между всеми параметрами. Сумма секторов 1, 2. 4, 5 характеризует энтропию параметра Х:

S(1,2,5,4)=H(X);

S(2,5,6,3)=H(Y);

S(4,5,6,7)=H(Z).

S(2,5)=I(XY)=I(YX) – количество взаимной информации между параметрами X и Y.

Аналогично можно показать S(4,5), S(5,6).

S(1,2,3,6,5,4)= H(X,Y) – совместное количество информации о системе Х и Y.

S(2,5,6)=H(XZY) – количество информации о параметрах X и Z , заключенное в параметре Y.

Используя принятые обозначения можно вывести следующие зависимости количества взаимной информации:

I(X→Y)=S(1,2,5,4)+S(2,5,6,3)-S(1,2,3,6,5,4)=H(X)+H(Y)-H(X,Y);

I(X→Z)=H(X) + H(Z) - H(X,Z);

I(Y→Z)=H(Y) + H(Z) - H(Y,Z);

I(XY→Z)=H(X,Y) +H(Z) - H(X,Y,Z); (1)

I(XZ→Y)=H(X,Z) + H(Y) - H(X,Y,Z);

I(YZ→X)=H(Y,Z) + H(X) - H(X,Y,Z).

Информационный анализ трехпараметрического случая заключается в последовательном определении количества информации с помощью выше записанной системы уравнений.

Для количественной оценки зависимостей между параметрами рассчитываются коэффициенты информационной связи:

RI(X→Y)=I(X→Y)/H(Y);

RI(X→Z)=I(X→Z)/H(Z);

RI(Y→Z)=I(Y→Z)/H(Z);

RI(XY→Z)=I(XY→Z)/H(Z); (2)

RI(XZ→Y)=I(XZ→Y)/H(Y);

RI(YZ→X)=I(YZ→X)/H(X).

Обобщая результаты на n параметров, зависимость между ними вычисляется по формуле:

I(X1,X2,X3,…Xn-1→Xn) = H(X1,X2,X3,…Xn-1) + H(Xn) – H(X1,X2,X3,…Xn).

Таким образом, математическое моделирование технологических операций заключается в составлении и решении системы уравнений (1), (2).

2. Анализ моделей. Значимость оценок и доверительные интервалы

Информация и коэффициенты информации вычисляются с использованием эмпирических данных, являются случайными величинами. Оценка информации I(X→Y) с точностью до постоянного множителя имеет χ2 распределения [2]:

m=(k1-1)(k2 -1) – число степеней свободы ; k1, k2 – количество интервалов разбиения входного и выходного параметров; n- число опытов.

Формула позволяет определить значимость информационного взаимодействия двух параметров. Информация, передаваемая от одного параметра к другому, считается значимой при выполнении соотношения:

- квантиль распределения с уровнем значимости .

Значимость коэффициента информационной связи RI определяется значимостью информации [2]. При m>25 распределение Пирсона можно заменить распределением Гаусса с дисперсией σI2=2m, что позволяет определить доверительные интервалы для информации [2]:

.

где tα α –квантиль нормального распределения.

Доверительный интервал для коэффициента информационной связи определяется по формуле [2]:

.

Минимальный объем выборки, необходимый для построения информационной модели с заданной точностью ∆I, определяется по формуле [2]:

.

Идентичность информационной модели реальному объекту оценивается по величине коэффициента информационной связи RI , который может использоваться в качестве меры определенности процесса [2], аналогично коэффициенту детерминации регрессионной модели.

Исследование парных причинно-следственных взаимодействий часто встречается при анализе систем, в частности, технологических операций. Рассмотрим на примере методику построения информационной модели технологической операции [2].

Для анализа использовалась выборка, состоящая из 100 измерений, отражающая зависимости показателя Y от причины Х. Для построения таблицы частот проводится дискретизация данных. Количество интервалов разбиения рассчитывается по формуле [2]:

k=3,748 + 0,012n.

Выбираемая длина интервалов должна в 2 раза и больше превышать абсолютную погрешность измерений для исключения влияния погрешностей измерения на результаты анализа. Для рассматриваемого примера таблица частот приведена ниже (табл. 1).

Таблица 1– Подсчет частот

Y

X

100-120

120-140

140-160

160-180

180-200

f y

65-85

13

3

16

85-105

14

23

2

39

105-125

11

23

1

35

125-145

3

6

9

145-165

1

1

f x

27

37

28

7

1

100

Рассчитаем оценки энтропий:

I(X→Y)= H(X) + H(Y) - H(X,Y);

Аналогично рассчитаем оценку энтропии Y:

Оценка совместной энтропии H(XY) рассчитывается по формуле:

Параметры искомой информационной модели будут:

I(X→Y)= H(X) + H(Y) - H(X,Y) = 1,21+1,2906-2,0089=0,4917.

Коэффициент информационной связи равен:

RI(XY)=I(XY)/H(Y)=0,4917/1,2906=0,381.

Проведем анализ полученной модели, для чего рассчитаем доверительные границы для информации I(XY). Оценка информации значима при выполнении соотношения:

Для уровня значимости 0,05, числа степеней свободы m=(k1-1)(k2 -1)=4*4=16 находим табличное значение Следовательно информация значима, отличается от нуля.

Определяем доверительные границы для I(XY):

По таблице находим значения

После подстановки в формулу получаем доверительные интервалы границы для I(XY):

Поскольку коэффициент информационной связи является мерой определенности процесса, то из результатов моделирования можно сделать вывод, что на зависимую переменную Y на 38,1% оказывает влияние переменная Х. Влияние неучтенных факторов значительное, составляет 61,9%.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]