Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
221
Добавлен:
07.03.2015
Размер:
2.69 Mб
Скачать

8.3.3. Расчет коэффициентов дискриминантной функции

Коэффициенты дискриминантной функции ai определяются таким образом, чтобы и значительно различались между собой, т.е. чтобы для двух множеств (классов) было максимальным выражение

.

(8.16)

Тогда можно записать следующее:

,

(8.17)

где k – номер группы;

р число переменных, характеризующих каждое наблюдение.

Обозначим дискриминантную функцию fk(x) как Ykt (kномер группы, t номер наблюдения в группе). Внутригрупповая вариация может быть измерена суммой квадратов отклонений

.

(8.18)

По обеим группам это будет выглядеть следующим образом:

.

(8.19)

В матричной форме это выражение может быть записано так:

,

(8.20)

где Х'1транспонированная матрица отклонений наблюдаемых значений исходных переменных от их средних величин в первой группе;

Х'2 аналогичная матрица для второй группы;

А – вектор коэффициентов дискриминантной функции.

;

.

Объединенная ковариационная матрица S* определяется так:

,

(8.21)

следовательно, выражение (8.20) дает оценку внутригрупповой вариации и его можно записать в виде

.

(8.22)

Межгрупповая вариация может быть измерена как

.

(8.23)

При нахождении коэффициентов дискриминантной функции aj следует исходить из того, что для рассматриваемых объектов внутригрупповая вариация должна быть минимальной, а межгрупповая вариация – максимальной. В этом случае мы достигнем наилучшего разделения двух групп, т.е. необходимо, чтобы величина F была максимальной:

.

(8.24)

В точке, где функция F достигает максимума, частные производные по aj будут равны нулю. Если вычислить частные производные и приравнять их нулю, то после преобразований получим выражение

;

.

(8.25)

Из этой формулы и определяется вектор коэффициентов дискриминантной функции А.

Полученные значения коэффициентов подставляют в формулу (8.15) и для каждого объекта в обеих группах (множествах) вычисляют дискриминантные функции, затем находят среднее значение для каждой группы. Таким образом, каждое i-e наблюдение, которое первоначально описывалось т переменными, будет как бы помещено в одномерное пространство, т.е. ему будет соответствовать одно значение дискриминантной функции, следовательно, размерность признакового пространства снижается.

8.3.4. Классификация при наличии двух обучающих выборок

Перед тем как приступить непосредственно к процедуре классификации, нужно определить границу, разделяющую в частном случае две рассматриваемые группы. Такой величиной может быть значение функции, равноудаленное от fi и f2 , т.е.

.

(8.26)

Величина С называется константой дискриминации.

На рис. 8.19 видно, что объекты, расположенные над прямой f(x) = aixl 2х2+...+архр =С, находятся ближе к центру множества Mi и, следовательно, могут быть отнесены к первой группе, а объекты, расположенные ниже этой прямой – ближе к центру второго множества, т.е. относятся ко второй группе. Если граница между группами выбрана так, то суммарная вероятность ошибочной классификации минимальная.

Рассмотрим пример использования дискриминантного анализа для проведения многомерной классификации объектов. При этом в качестве обучающих будем использовать сначала две выборки, принадлежащие двум классам, а затем обобщим алгоритм классификации 2-х групп на случай k классов.

Пример 8.6. Имеются данные (табл. 8.11) по двум группам промышленных предприятий машиностроительного комплекса:

Х1 фондоотдача основных производственных фондов, руб.;

X2 затраты на один рубль произведенной продукции, коп.;

Xз затраты сырья и материалов на один рубль продукции, коп.

Таблица 8.11. Исходные данные к примеру 8.6

Группа

Номер предприятия

Х1

Х2

Х3

1

1

2

3

4

0,50

0,67

0,68

0,55

94,0

75,4

85,2

98,8

8,50

8,79

9,10

8,47

2

5

6

7

1,52

1,20

1,46

81,5

93,8

86,5

4,95

6,95

4,70

Необходимо провести классификацию четырех новых предприятий, имеющих следующие значения исходных переменных:

1-е предприятие: х1 = 1,07, х2 = 93,5, х3 =5,30;

2-е предприятие: х1 = 0,99, х2 = 84,0, х3 = 4,85;

3-е предприятие: х1 = 0,70, х2 = 76,8, x3 = 3,50;

4-е предприятие: х1 = 1,24, х2 = 88,0, х3 = 4,95.

Для удобства запишем значения исходных переменных для каждой группы предприятий в виде матриц Х1 и Х2.

;.

Рассчитаем среднее значение каждой переменной в отдельных группах для определения положения центров этих групп:

I гр.: х11=0,60, x21=88,4, x31=8,72;

II гр.: x12 = 1,39, x22 = 87,3, x32 =5,53.

Дискриминантная функция f(х) в данном случае имеет вид

f(x) = alxl+a2x2+a3x3.

(8.27)

Коэффициенты а1, а2 и а3 вычисляются по формуле

,

где Х1, Х2 векторы средних в первой и второй группах;

А – вектор коэффициентов;

S* матрица, обратная совместной ковариационной матрице.

Для определения совместной ковариационной матрицы S* нужно рассчитать матрицы S1 и S2. Каждый элемент этих матриц представляет собой разность между соответствующим значением исходной переменной хij и средним значением этой переменной в данной группе xik (k номер группы):

;.

Тогда совместная ковариационная матрица

,

где n1, n2число объектов 1-й и 2-й групп;

.

Обратная матрица

.

Отсюда находим вектор коэффициентов дискриминантной функции по формуле

,т.е.

a1 =−185,03, а2=1,84, а3=4,92.

Подставим полученные значения коэффициентов в формулу (8.35) и рассчитаем значения дискриминантной функции для каждого объекта1-го множества:

7

Для 2-го множества:

Тогда константа дискриминации С = 1/2(94,4238 – 70,0138) = = 12,205.

После получения константы дискриминации можно проверить правильность распределения объектов в уже существующих двух классах, а также провести классификацию новых объектов.

Рассмотрим, например, объекты с номерами 1, 2, 3, 4. Для того чтобы отнести эти объекты к одному из двух множеств, рассчитаем для них значения дискриминантных функций (по трем переменным):

f1 = −185,03 х 1,07 + 1,84 х 93,5 + 4,92 х 5,30 = 0,1339;

f2 = −185,03 х 0,99 + 1,84 х 84,0 + 4,92 х 4,85 = –4,7577;

fз = −185,03 х 0,70 + 1,84 х 76,8 + 4,92 х 3,50 = 29,0110;

f4 = −185,03 х 1,24 + 1,84 х 88,0 + 4,92 х 4,95 = –43,1632.

Таким образом, объекты 1, 2 и 4 относятся ко второму классу, а объект 3 относится к первому классу, так как f1 < с, f2 < с, fз > с, f4 < с.

При необходимости можно проводить разбиение множества объектов на k классов (при k > 2). В этом случае нужно рассчитать k дискриминантных функций, так как классы будут отделяться друг от друга индивидуальными разделяющими поверхностями. Вначале определяется дискриминационная функция между классами М1 и М2, затем между М2 и М3 и так далее. На рис. 8.21 показан случай с тремя классами.

Для оценки вклада отдельной переменной в значение дискриминантной функции целесообразно пользоваться стандартизованными коэффициентами дискриминантной функции. Стандартизованные коэффициенты можно рассчитать, если стандартизовать значения исходных переменных таким образом, чтобы их средние значения были равны нулю, а дисперсии единице.

Рис. 8.21. Три класса объектов и разделяющие их прямые: f1 – первая дискриминантная функция, f2 – вторая и fз – третья

В примере с двумя классами, рассмотренном выше, дискриминантная функция имела вид

f = −185,03X1+ 1,84X2 + 4,92X3.

Следовательно, наибольший вклад в величину дискриминантной функции вносит переменная Х1.

Определим значения стандартизованных коэффициентов и запишем новое значение дискриминантной функции:

f'= −211,32Z1 − 99,26Z2 − 12,48Z3.

Стандартизованные коэффициенты дискриминантной функции тоже показывают определяющее влияние первой переменной на величину дискриминантной функции.

Различные знаки у структурных коэффициентов можно интерпретировать следующим образом. Исходные переменные, имеющие различное направление связи с дискриминантной функцией, т.е. положительные или отрицательные структурные коэффициенты, будут ориентировать объекты в различных направлениях, удаляя или приближая их к центрам соответствующих классов.

224 225

Соседние файлы в папке Тер вер и мат стат