- •Матричная модель сознания @ Яков Румянцев Киев
- •Оглавление
- •Аннотация
- •Введение
- •1. Объективизация тестирования личности
- •1.1. О методах тестирования личности
- •1.2. О моделях сознания в соционике
- •Определение социотипов
- •Умножение целых чисел 1 – 9
- •Ведический квадрат
- •Нумерологические значения букв русского алфавита
- •Дуальные пары чисел ведического квадрата
- •1, 8 2, 7 0, 9 Выход 4, 5 3, 6 Вход
- •1.3. О фрактальной структуре сознания
- •1.4. Дальнейшие уточнения постановки
- •1.5. Аналитический взгляд на ладонь человека
- •Цитированная литература
- •2. Эволюционные модели личности
- •2.1. Очередные уточнения постановки
- •2.2. О модальностях психики
- •Холистические маркеры
- •Диадические маркеры
- •Диалектические маркеры
- •Каббалистические маркеры
- •2.3. Эволюционные матрицы человека
- •Схемы трактовок отдельных измерений проекций чакр
- •Цитированная литература
- •3. Устойчивость решений, принимаемых на основе матрицы измерений
- •3.1. Обусловленность решения
- •3.2. Корректность решения
- •Цитированная литература
- •4. Уравновешивание данных психоматрицы
- •4.1. Постановка задачи
- •4.2. Логическая структура парного корреляционного отношения и парного показателя взаимосвязи
- •4.3. Логическая структура частного корреляционного отношения и частного показателя взаимосвязи
- •4.4. Логическая структура совокупного корреляционного отношения и совокупного показателя взаимосвязи
- •4.5. К правилу исчисления метрики однородности в общем случае нелинейной взаимосвязи
- •Цитированная литература
- •Приложение 1 основные сведения из области соционики
- •П1. Общее описание соционических свойств п1.1. Деловая логика (-л)
- •П1.3. Этика эмоций (-э)
- •П1.5. Волевая сенсорика (-с)
- •П1.7. Интуиция возможностей (-и)
- •Приложение 2 Тезисы Технического Задания на разработку Государственного Реестра кадрового потенциала
3. Устойчивость решений, принимаемых на основе матрицы измерений
Появление структуры специального вида – психоматрицы, взамен разрозненной совокупности психических свойств, открывает новые возможности анализа сознания. Прежде всего, нас интересует мера обусловленности принимаемых на её основе решений и устойчивость последних. Структура этой главы такова:
аппаратом обусловленности исследуются устойчивость решений, принимаемых по простейшей модели – системе линейных алгебраических уравнений;
вычислительные аспекты решения системы увязываются с требованием корректности решения;
приводится обзор направлений, в рамках которых в областях, ограниченных задачами, поставленными корректно по А. Н. Тихонову, снимаются классические требования корректности.
3.1. Обусловленность решения
Простейшей моделью принятия решений в матричном представлении является задача решения системы линейных алгебраических уравнений, которая записывается выражением
Ax = b, (1)
где: А = {aij}, i, j = 1…n - матрица коэффициентов уравнения;
b – вектор свободных членов;
x – вектор решения.
В данном случае не принципиально даже то, что для модели сознания такая модель принятия решений представляется не совсем очевидной: в любом случае анализ такой постановки имеет универсальное значение. Позиция математики при решении любой задачи состоит в том, что подлежат безусловному рассмотрению, по меньшей мере, следующие вопросы:
существование решения:
его единственность;
качество решения.
Вопросы существования и единственности решения системы (1) априори предполагаются решёнными положительно, т.е. det(A) ≠ 0, существует единственная обратная матрица А-1 и решение представлено в виде x = A-1*b, а исследуется только его устойчивость. По сути, в этой главе приводятся полные доказательства тех результатов по обусловленности решения, которые в предыдущей главе упомянуты без доказательства. Пусть исходные данные этой системы заданы с погрешностями соответственно ΔА и Δb, что вызовет погрешность решения Δx. Тем самым исходная система (1) трансформируется к виду
(A + ΔА) * (x + Δx) = b + Δb (2)
Оценим погрешность Δx и её соотношение с точным решением. Для этого придётся перейти к специальным скалярным величинам. Как векторам, так и матрицам, удобно сопоставить некоторые одномерные числовые значения – нормы, в определённом смысле характеризующие величину исходных объектов. Понятие нормы вектора вводится аксиоматически следующими свойствами:
║x║ > 0 при x ≠ 0 и ║0║ = 0, где ║.║ - знак некоторой векторной нормы;
║k * x║ = │k│ * ║x║ для любого действительного k;
║x + y║ <= ║x║ + ║y║ - неравенство треугольника.
Свойствам 1 – 3 удовлетворяет используемая далее евклидова норма вектора, определяемая формулой
║x║ = 2
Матричная норма вводится аналогичными 1 - 3 свойствами с добавлением свойства Коши - Буняковского
4. ║A * C║ <= ║A║ * ║C║.
Свойствам 1 – 4 удовлетворяет матричная норма, подчинённая евклидовой векторной норме, и определяемая выражением
║A║ = max ║Ax║
║x║= 1
Для нахождения оценки Δx вычтем (1) из (2) и получим:
(A + ΔA) * Δx = Δb – ΔA * x (3)
Чтобы разрешить (3) относительно Δx, необходимо выяснить условие существования обратной матрицы (A + ΔA)-1. Представим (A + ΔA) в виде A + ΔA = A(E + A-1 * ΔA). Как вспомогательный результат получим условие существования обратной матрицы (E + C)-1. Известно, что если матрица (E + C)-1 существует, то правомерно её разложение в степенной матричный ряд Неймана:
(E + C)-1 = E + C + C2 + C3 + … (4)
Ряд (4) всегда сходится, когда сходится соответствующий числовой ряд
1 + ║C║ + ║C║2 + ║C║3 + … (5)
Ряд (5) сходится при условии ║C║ < 1, что и является достаточным условием существования матрицы (E + C)-1. Итак, матрица (A + ΔA)-1 существует, если
║A-1 * ΔA║ < 1 (6)
В предположении (6) абсолютная оценка погрешности решения имеет вид
Δx = (E + A-1 * ΔA)-1 * A-1 * (Δb – ΔA * x) (7)
Для перехода к числовой оценке необходимо оценить ║(E + A-1 * ΔA)-1║. Применив к (4) неравенства Коши – Буняковского и треугольника, получим
║(E + C)-1║ <= ║E║ + ║C║ + ║C║2 + ║C║3 + … (8)
Так как в правой части (8) при ║C║ < 1 записана сумма бесконечной убывающей геометрической прогрессии, то ║(E + C)-1║ <= 1 / (1 - ║C║). Отсюда
║Δx║ <= ║(E + A-1 * ΔA)-1║ * ║A-1║ * (║Δb║ – ║ΔA * x║) <=
║A-1║ * (║Δb║ – ║ΔA * x║) / (1 - ║A-1 * ΔA║) (9)
Более информативной, чем абсолютная оценка (9), является относительная оценка погрешности решения. Так как ║b║ <= ║A ║ * ║x║, то в предположении b ≠ 0
1 / ║x║ <= ║A ║ / ║b║ (10)
Умножая (9) на (10), получим верхнюю оценку для относительной погрешности решения
║Δx║ / ║x║ <= (║A║ * ║A-1║) / (1 - ║A-1 * ΔA║) * (║Δb║ / ║b║ - ║ΔA║ / ║A║) (11)
Другим способом аналогичный результат получен в [1]. Отметим, что всегда можно построить пример, в котором указанная оценка достигается, т.е. неравенство (11) не улучшаемо.
Аналогичным образом можно исследовать частные случаи и показать, что:
1. Если матрица задана точно, а вектор с погрешностью, то
║Δx║ / ║x║ <= (║A║ * ║A-1║) * (║Δb║ / ║b║);
2. Если матрица задана с погрешностью, а вектор известен точно, то
║Δx║ / ║x║ <= (║A║ * ║A-1║) / (1 - ║A-1 * ΔA║) * (║ΔA║ / ║A║).
Во всех трёх случаях фигурирует множитель ║A║ * ║A-1║. Это число является одной из принятых характеристик обусловленности матрицы и обозначается cond A [2] (H – число обусловленности [3], спектральное число обусловленности [4]). Для оценки cond A применим неравенство Коши - Буняковского к тождеству A * A-1 ≡ E:
cond A = ║A║ * ║A-1║ >= ║E║ = 1
Если А – симметричная матрица, то возможна точная оценка cond A [2 - 4]:
сond A = ║A║ * ║A-1║ = μmax / μmin , (12)
где μmax , μmin – соответственно максимальное и минимальное по модулю характеристические значения (собственные числа) матрицы А. Многие фундаментальные свойства матрицы А зависят от того, как она обеспечивает кратные преобразования некоторых векторов x, т.е. Ax = μx. Значения коэффициентов кратности μ при этом преобразовании называются собственными числами матрицы А. Представляет значительный интерес голографическая интерпретация собственных чисел. Голография – это такой физический процесс, при котором запись одной и той же информации повторяется в любом масштабе и в любой точке записывающего пространства. Если матрицу А трактовать в смысле универсального голографического преобразования, то её собственные значения по определению естественно интерпретировать как масштабные множители.
Для прямоугольных матриц общего вида оценка (12) может быть представлена в аналогичном виде:
сond A = ║A║ * ║A-1║ = sup (h(Ax) / h(x)) / inf (h(Ax) / h(x)),
h(x) ≠ 0 h(x) ≠ 0
где sup, inf – наибольшая и наименьшая верхняя грань некоторой векторной нормы h(Ax). Матрица А и решение x системы (1) называются плохо обусловленными, если значение сond A достаточно велико. Получим выражение для нижней границы оценки относительной погрешности решения. Очевидно, что со стороны обусловленности нижняя граница оценки ║Δx║ / ║x║ определяется минимальным значением сond A, т.е.
║Δx║ / ║x║ >= 1 / (1 - ║A-1 * ΔA║) * (║Δb║ / ║b║ - ║ΔA║ / ║A║) (13)
Неравенства (11) и (13) разрешают следующий вывод: В общем случае относительная погрешность решения системы (1) превышает суммарную величину относительных погрешностей задания исходной информации, а величина этого превышения в значительной степени определяется обусловленностью матрицы А. С некоторой натяжкой этот вывод может быть интерпретирован в терминах доверительных интервалов: решение системы (1) будет тем достовернее, чем меньше значение сond A.
В евклидовом пространстве существует класс ортогональных матриц {U} – таких, что U * UT = UT * U = E, где UT – транспонированная к U матрица, а cond U = 1 [2, 4]. Решение системы (1) будет тем меньше восприимчиво к действию погрешностей в исходной информации, чем больше матрица А близка к ортогональной матрице. Увы, процесс ортогонализации Грама – Шмидта для этих целей не подходит, так как ортонормированный базис зависит от порядка фиксации ортогонализуемых векторов. Поэтому Дж. Х. Уилкинсон предложил выход, состоящий в таком масштабировании исходной информации, при котором исходная матрица определённым образом уравновешивается. Матрица называется уравновешенной, если длины её строк и столбцов (в евклидовой норме) совпадают и равны единице. Практические алгоритмы уравновешивания и вопросы их сходимости рассматриваются в работе В. В. Шакина [5].