Добавил:
kiopkiopkiop18@yandex.ru Вовсе не секретарь, но почту проверяю Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

5 курс / ОЗИЗО Общественное здоровье и здравоохранение / Статистический_анализ_данных_в_медицинских_исследованиях_в_2_ч_Красько

.pdf
Скачиваний:
3
Добавлен:
24.03.2024
Размер:
5.96 Mб
Скачать

 

Оценка отношения шансов и доверительных

 

интервалов

 

 

Мультиноминальная (неупорядоченные

Тест маргинальной гомогенности (Marginal

и неупорядоченные категории)

Homogeneity Test)

 

Каппа Коэна

Количественные измерения (разность

Тест знаков (Sign Test)

не подчиняется закону нормального

 

распределения)

Знаковый ранговый тест Вилкоксона (Wilcoxon

 

Signed Rank Test

 

Тест медианы

Количественные измерения

Т-тест для двух зависимых переменных ( T-test

(нормальное распределение разности)

for related Samples)

 

Одновыборочный t-тест

Основные аспекты

Парные наблюдения обрабатываются в статистическом анализе по своим схемам, дизайн исследования определяет обработку данных.

Интервальные оценки в анализе пар – это статистическая оценка такого параметра, как разность в измерениях парных случаев.

Доверительные интервалы строятся для различных статистических оценок, не только для среднего, пропорции.

Отношение двух случайных величин также может свидетельствовать о том, какая из величин больше или меньше. Наличие граничного значения 1 в доверительном интервале для их отношения сигнализирует о том, что мы не можем доказать различия этих величин.

Размер эффекта между парными измерениями может быть рассчитан и интерпретирован.

81

10.Бивариантный анализ: взаимосвязь двух переменных

Вбивариантном анализе рассматривается две переменные и их взаимосвязь. Иногда сложно определить, какая из них зависимая, какая независимая, поскольку изучается ассоциация между ними, а не причинно-следственные отношения. Далее будут рассматриваться комбинации двух переменных, какой анализ они позволяют провести, какие гипотезы могут быть выдвинуты и протестированы.

Вобщем случае нас интересует поведение одной переменной по отношению к другой. Если эти переменные количественные или упорядоченные мультиноминальные, то можно оценить, как изменяется одна переменная исследования (возрастает или убывает) при возрастании или убывании другой переменной. Если такая зависимость присутствует, ее называют трендом. Тренд может быть линейным и нелинейным. Линейные тренды изучаются с помощью линейного регрессионного анализа. Нелинейные тренды являются более сложными моделями взаимодействия данных, и не рассматриваются в данном пособии. Сила ассоциации двух переменных изучается корреляционным анализом (классическим и непараметрическим). Корреляционный анализ предполагает изучение ассоциации между случайными величинами с одновременной количественной оценкой степени их ассоциации (совместного изменения).

Расчеты различных мер ассоциации(взаимосвязи) есть практически во всех статистических пакетах, поэтому внимание будет сосредоточено на интерпретации результатов.

10.1.Диаграмма рассеяния

Для наборов данных, где две количественных переменных измерены для каждого случая выборки, диаграмма рассеяния – один из самых наглядных инструментов для анализа отношений между двумя переменными. Диаграмму рассеяния легко построить для двух переменных.

Пусть x1 , x2 , , xn представляют n точек данных одной переменной и пусть y1 , y2 , , yn представляют n точек данных второй переменной (Два столбца в таблице данных исследования). Пары данных записываются, как xi , yi , i 1, ,n .

Чтобы построить диаграмму рассеяния расположим первую переменную вдоль горизонтальной оси, вторую – вдоль вертикальной. Не имеет значения, какая переменная вдоль какой оси расположена.

Взгляд на диаграмму рассеяния поможет визуально установить наличие или отсутствие некоторой связи между двумя переменными.

Линейная ассоциация между двумя переменными подразумевает, что как только одна переменная увеличивается, вторая линейно (пропорционально) увеличивается (или уменьшается).

На рис.10–1 представлены типичные диаграммы рассеяния для различных ситуаций, в последних четырех случаях мера линейной ассоциации не сможет отразить реальную ситуацию, однако имея перед глазами диаграмму рассеяния можно предположить какая именно связь имеется между двумя количественными переменными.

82

r=+1

-1<r<0

r=-1

Нелинейная

монотонновозрастающая

связь

0<r<+1

r=0

Нелинейная связь

Несколько кластеров

Выброс в данных

 

данных

 

Рис.10–1. Примеры взаимосвязи двух переменных

10.2.Меры ассоциации

Меры ассоциации (связи, сопряженности) двух переменных рассчитываются всеми статистическими пакетами. Многие из них также рассчитывают доверительные интервалы для мер взаимосвязи (сопряженности). Подход к интерпретации доверительных интервалов такой, как и ранее: если 1 α

доверительный интервал содержит 0, то на уровне значимости α , то нет строгих доказательств того, что ассоциация (связь, сопряженность) существует. Также может проверяться гипотеза о том, что связь существует.

10.2.1. Коэффициент корреляции Пирсона

Одна из самых известных мер ассоциации – коэффициент корреляции. Коэффициент корреляции измеряет связь между двумя переменными, как линейную связь между двумя переменными исследования. Линейная связь означает пропорциональное изменение одной переменной от другой переменной. Однако коэффициент корреляции не подразумевает причину и следствие. Исследователь может сказать, что корреляция между двумя переменными высока, и соотношения устойчивы, но, возможно, не скажет, что возрастание значений одной из переменных является причиной для возрастания (убывания) значений другой

83

переменной. Надо также отметить, что выводы, сделанные в корреляционном анализе по выборке, могут распространяться на популяцию только в случае

естественной выборки.

Коэффициент корреляции Пирсона (r ) измеряет линейную связь между двумя переменными. Значение коэффициента корреляции, близкое к +1 (положительная корреляция) означает, что как только увеличивается одна переменная, увеличивается и вторая, и, наоборот, коэффициент корреляции близок к –1, когда при возрастании одной переменной вторая уменьшается. Для значения коэффициента корреляции +1 все пары данных лежат на прямой линии с положительным наклоном, для значения –1, с отрицательным наклоном. Значения коэффициента корреляции, близкие к 0 показывают небольшую корреляцию между переменными. Коэффициент корреляции не обнаруживает нелинейные связи, таким образом, он должен использоваться только вместе с диаграммой рассеяния. Коэффициент корреляции может значительно меняться в зависимости от экстремальных значений, диаграмма рассеяния используется, чтобы идентифицировать такие значения.

Основные свойства:

r изменяется в интервале от –1 до +1.

Знак означает, увеличивается ли одна переменная по мере того, как увеличивается другая (положительная корреляция), или уменьшается ли одна переменная по мере того, как увеличивается другая (отрицательная корреляция)

Величина r указывает, как близко расположены точки к прямой линии. Если r 0, то линейной корреляции нет (хотя может быть нелинейное соотношение). Чем

ближе r к крайним значеням (±1), тем больше степень линейной связи.

• Квадрат коэффициента корреляции интерпретируется как доля вариации одной переменной, которая объясняется другой переменной. Если r 0,3 , то

r2 0,09, что значит, что только 9% вариации одной переменной может быть объяснено изменениями второй переменной.

Важное свойство коэффициента корреляции состоит в том, что он не подвержен влиянию в изменении расположения данных1, и также не подвержен изменению масштаба данных2. Таким образом, линейные преобразования (сдвиг и масштабирование) переменных не затрагивают значения коэффициента корреляции. Корреляция отражает степень, с которой две переменные линейно зависимы, и степень линейности не зависит от изменений местоположения или масштаба. Например, если бы одна из переменных температура, измеренная в градусах Цельсия, то корреляция не должна измениться, если градусы Цельсия были преобразованы в градусы Фаренгейта.

Таким образом, по коэффициенту корреляции Пирсона можно оценить линейную связь, по квадрату коэффициента – долю изменчивости одной переменной, которая обусловлена другой переменной. Не забывайте проверить гипотезу о том, что коэффициент корреляции r отличен от нуля. Также могут быть построены доверительные интервалы. Если интервал содержит значение 0, то коэффициент статистически незначим, его значение может быть как

1Операция сдвига: добавление или вычитание константы от всех измерений по одной или двум переменным. Эта операция не изменит значения коэффициента корреляции.

2Операция масштабирования: умножение или деление на константу для всех измерений по одной или двум переменным. Эта операция не изменит значения коэффициента корреляции.

84

положительным, так и отрицательным, а, следовательно, мы не можем сказать, убывает или возрастает одна переменная при убывании или возрастании другой переменной.

10.2.2. Коэффициент ранговой корреляции Спирмена

Альтернативой коэффициенту корреляции Пирсона для переменных, не распределенных нормально, является коэффициент ранговой корреляции Спирмена. Он рассчитывается заменой каждого значения переменной ее рангом (то присваиваются ранги вместо измеренных величин: 1 для минимального значения, 2 для второго минимального и т.д.). Аналогично поступают для второй переменной. Эти пары рангов рассматривают как данные xi , yi , i 1, ,n и вычисляют

коэффициент ранговой корреляции Спирмена (rs ).

Как линейные преобразования данных не изменят коэффициент корреляции, так нелинейные монотонные преобразования (логарифмирование, возведение в степень) не изменяют коэффициент ранговой корреляции. Ранговая корреляция менее чувствительна к экстремальным значениям, чем коэффициент корреляции Пирсона.

Свойства:

rs дает измерение связи (не обязательно линейной) между x и y ;

• не вычисляют значение rs2 (оно не представляет собой долю общей

вариации одной переменной, которую можно объяснить изменением другой переменной).

Таким образом, коэффициент ранговой корреляции Спирмена может применяться для двух переменных, измеренных в количественных шкалах, даже если распределение, лежащее в основе переменных, не является нормальным. Не забывайте проверить гипотезу о том, что rs отличен от нуля. Как правило,

статистические пакеты приводят и расчет коэффициента, и одновременную проверку гипотезы, о том, что коэффициент отличен от нуля. Также могут быть построены доверительные интервалы. Если интервал содержит значение 0, то коэффициент статистически незначим, его значение может быть как положительным, так и отрицательным, а, следовательно, мы не можем сказать, убывает или возрастает одна переменная при убывании или возрастании другой переменной.

По коэффициенту ранговой корреляции Спирмена можно оценить связь между двумя переменными. В случае, когда связь между двумя нормально распределенными переменными не является линейной (что можно увидеть на диаграмме рассеяния), то ранговая корреляция будет предпочтительней.

10.2.3. Коэффициент ранговой корреляции τ (Тау) Кендалла

Тау Кендалла τ (Kendall’s tau) используется, когда данные измерены в некоторой качественной шкале, на которой может быть определен порядок. В отличие от коэффициента ранговой корреляции Спирмена, τ Кендалла интерпретируется как разница в вероятности, что данные имеют один и тот же порядок по двум переменным против вероятности, что у двух переменных разный порядок. Изменяется от –1 до 1. Интерпретация доверительных интервалов аналогична интерпретации интервалов коэффициента корреляции Пирсона и Спирмена.

85

10.2.4. Коэффициенты сопряженности

Коэффициенты сопряженности используются для определения тесноты связи (меры сопряженности) двух номинальных переменных (качественных признаков), представленных r c таблицей (Табл. 10–1).

В каждой ячейке такой таблицы содержится количество случаев, попавших в определенную ячейку (в конкретные категории по двум мультиноминальным переменным).

Таблица 10–1. Представление таблиц r c для анализа

 

1

2

j

c

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

c

 

1

x11

x12

 

x1 j

 

x1c

m1 x1 j

 

 

 

 

 

 

 

j 1

 

2

x21

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

c

 

i

xi1

 

 

xij

 

xic

mi xij

 

 

 

 

 

 

 

 

j 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r

xr1

 

 

xrj

 

xrc

 

 

 

r

 

 

r

 

 

r

c

 

n1 xi1

 

nj xij

 

N mi

nj

 

i 1

 

 

i 1

 

 

i 1

j 1

Есть несколько вариантов расчета таких коэффициентов, все они опираются на статистику χ 2 : коэффициент Пирсона, V коэффициент Крамера, коэффициент

Чупрова (Pearson’s coefficient, Cramer’s V coefficient, Tschuprov coefficient). Они изменяются в диапазоне от 0 до 1. Значение коэффициента, близкое к 1 означает, что сопряженность двух переменных высока, значение коэффициента, близкое к 0 означает, что сопряженность низкая.

Коэффициент сопряженности Пирсона CP

 

χ2

 

 

;

χ2 N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

χ2

 

 

 

коэффициент Крамера V

 

 

 

 

, где q min r,c ;

N q 1

 

 

 

 

 

 

 

 

 

коэффициент Чупрова CC

 

 

χ 2

 

 

 

 

 

 

 

.

 

 

 

 

N

 

 

 

 

 

 

 

r 1 c 1

 

 

 

Статистика хи-квадрат Пирсона рассчитывается как:

 

 

r

c

ˆ

2

 

mi nj

 

χ

2

 

xij xij

ˆ

1

 

ˆ

 

, где xij

 

– оценки ожидаемых частот .

 

 

i 1

j 1

xij

 

 

N

 

1 80% оценок ожидаемых частот в таблице должны быть больше 5. Если это не так, то в таких таблицах нужно сокращать размерность путем объединения строк или столбцов (не нарушая биологического или медицинского смысла, стоящего за трактовкой объединенного столбца/строки).

86

Эта статистика асимптотически следует распределению χ 2

с

r 1 c 1

степенями свободы. Если значение рассчитанной статистики

χ 2

превышает

χ 21 α , r 1 c 1 , то коэффициенты значимы на уровне α .

 

 

Для коэффициентов сопряженности некоторые статистические пакеты рассчитывают также и доверительные интервалы. Если нижняя граница доверительного интервала равна 0, то нет оснований говорить о сопряженности (взаимном изменении) двух переменных.

10.2.5. Коэффициент τ Гудмана-Краскела

Коэффициент τ Гудмана-Краскела (Goodman-Kruskal Tau) измеряет пропорцию в вариации мультиноминальной переменной, представленной строками, которая может быть объяснена мультиноминальной переменной, представленной колонками.

Этот коэффициент изменяется от 0 до 1; 0 – никакого сокращения вариации строковой переменной при известной категории переменной, представленной в колонке, 1 – полное сокращение вариации переменной строк при знании категории колонки. Т.е. этот коэффициент помогает определить, можно ли предсказывать по категории одной переменной (представленной колонками) категорию другой переменной (представленную строками).

 

c

 

1

r

2

 

 

1

 

r

2

 

 

 

 

 

xij

 

 

 

 

mi

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

N

 

 

 

τ

j 1

 

j i 1

 

 

 

 

i 1

 

.

 

 

 

 

 

 

 

 

 

 

 

 

1

 

r

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

 

mi2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N i 1

 

 

 

 

 

Можно также определить, можно ли предсказывать по категории одной переменной (представленной строками) категорию другой переменной (представленную колонками).

 

r

 

1

c

2

 

 

1

c

2

 

 

 

 

xij

 

 

 

nj

 

 

N

 

i 1

m

j 1

 

 

 

 

j 1

 

 

τ

 

i

 

 

 

 

 

 

 

 

 

 

 

1

 

c

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

 

n2j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N j 1

 

 

 

 

Коэффициент

 

τ

 

Гудмана-Краскела не является симметричным, т.е.

сокращение вариации одной переменной при знании категории второй переменной, не равно сокращению вариации второй переменной при знании категории первой переменной.

Этот коэффициент может применяться для исследования количественных переменных, не подчиняющихся закону нормального распределения, их представляют интервалами и подсчитывают количество значений, попадающих в интервалы. Далее рассчитывается τ . В этом случае он может помочь обнаружить нелинейную связь между переменными.

Если ваш статистический пакет рассчитывает доверительные интервалы для τ Гудмана-Краскела, то вы можете воспользоваться ими для определения значимости или незначимости τ : если нижняя граница доверительного интервала равна 0, то нет оснований говорить о связи (взаимном изменении) одной переменной по отношению к другой.

87

10.2.6.Тест Фишера-Фримана-Халтона

Втаблице сопряженности 80% оценок ожидаемых частот должны быть больше 5. Если это правило не выполняется, то оценить меру сопряженности (меру ассоциации) затруднительно. Но тем не менее, мы можем оценить наличие некоторой связи между двумя мультиноминальными переменными.

Тест Фишера-Фримана-Халтона (Fisher-Freeman-Halton test) предназначен для проверки однородности таблицы сопряженности.

В отличии от коэффициентов сопряженности рассчитывает вероятность таблицы сопряженности при условии сохранения сумм строк и сумм столбцов заданной таблицы (маргинальных сумм). Иными словами, какова вероятность того, что таблица сопряженности с определенными значениями в ячейках сформировалась случайным образом.

Этот тест является точным, в отличие от теста χ 2 .

Значение вероятности p α означает, что связь признаков значима на уровне

α .

10.2.7. Коэффициент детерминации

Если одна из переменных количественная и распределена нормально, а вторая представляет собой мультиноминальную переменную (упорядоченную или неупорядоченную), то полный анализ данных может быть проведен с помощью

однофакторной ANOVA (см. раздел 15). Один из показателей такого анализа R2 – коэффициент детерминации. Рассчитывается как:

 

k

ni

 

 

xij xi 2

 

R2 1

i 1 j 1

,

 

 

k

ni

 

 

xij x 2

 

 

i 1

j 1

 

где ni

– размер

группы данных, обусловленных i -ой категорией

мультиноминальной переменной, xi – среднее количественных данных по i -ой группе, x – среднее по всей количественной переменной.

Интерпретируется как процент изменчивости количественной переменной, обусловленный категориальной (мультиноминальной) переменной.

10.2.8.Непараметрическая однофакторная ANOVA

Вслучае если одна из переменных количественная, но не подчиняется закону нормального распределения, а вторая – категориальная переменная, то мы можем использовать тесты – аналоги непараметрической ANOVA: тест Краскела—Уоллиса, медианный тест. В случае, когда категориальная переменная имеет только два уровня (т.е. биноминальная), то тест Краскела-Уоллиса не отличается от теста Манна-Уитни.

10.2.9.Точечно-бисериальная корреляция и сравнение двух групп

При проведении некоторых исследований часто сталкиваются с проблемой выяснения взаимосвязи между характеристиками, одна из которых может быть ранжирована, а вторая допускает только группировку в две группы по

88

качественному биноминальному признаку. В этом случае используется коэффициент точечно-бисериальной корреляции, который интерпретируется аналогично коэффициенту корреляции Пирсона r в случае, когда исследуется ассоциация биноминальной и нормально распределенной переменных, или аналогично коэффициенту ранговой корреляции Кендалла в случае иссдледования ассоциации биноминальной и порядковой переменных.

Точечно-бисериальная корреляция в медико-биологических исследованиях используется редко, для оценки взаимосвязи биноминальной и количественной переменной чаще используется анализ двух групп. Биноминальная переменная делит значения количественной переменной на две группы и далее могут быть использованы: тест Стьюдента, тест Уэлча для количественной переменной, распределенной нормально; тест Манна-Уитни для количественных переменных, не подчиняющихся закону нормального распределения.

10.2.10.Точный тест Фишера

Таблицу сопряженности можно составить и для двух биноминальных переменных. Правило о том, что ожидаемые частоты должны быть не менее 5 для того, чтобы вычислить меры сопряженности, сохраняется для таблиц 2 2.

Точный тест Фишера (Fisher's exact test) используется для выявления того – связаны ли две биномиальные переменные между собой или нет, если правило ожидаемых частот нарушено.

Точный тест Фишера рассчитывает вероятность таблицы сопряженности при условии сохранения сумм строк и сумм столбцов заданной таблицы (маргинальных сумм).

Значение вероятности p α , означает, что вероятность случайного появления

таких данных мала и, следовательно, связь признаков значима на уровне α . Тест Фишера-Фримана-Холтона является обобщением теста Фишера таблиц 2 2 на r c таблицы.

10.3.Таблица мер ассоциации и взаимосвязи

Общий итог основных мер взаимосвязи представлен в таблице. Безусловно, существуют и другие. Меры, приведенные в таблице 10–2, считаются самыми понятными в интерпретации.

Таблица 10–2. Меры ассоциации и взаимосвязи двух переменных

Коэффициент корреляции

от –1 до

выявляет линейную связь, квадрат коэффициента – долю

Пирсона

1

изменчивости одной переменной, обусловленной второй

 

 

переменной

Коэффициент ранговой

 

Выявляет монотонную связь, квадрат коэффициента не

корреляции Спирмена

от –1 до

используется

 

1

 

 

 

 

Тау Кендалла

от –1 до

Вероятность одинаковых порядков у двух переменных

 

1

 

Коэффициенты сопряженности

от 0 до 1

сопряженность r c таблиц

 

 

 

Goodman-Kruskal Tau

от 0 до 1

выявляет долю изменчивости одной номинальной

 

 

переменной, которая может быть объяснена другой

 

 

номинальной переменной (несимметричен)

Коэффициент детерминации

от 0 до 1

выявляет вклад в изменчивость количественной переменной

 

 

в зависимости от изменчивости номинальной переменной

Точечно-бисериальная

от –1 до

интерпретируется как коэффициент корреляции Пирсона или

 

 

 

 

 

89

корреляция

1

как Тау Кендалла

Все эти меры интерпретируются в сравнении с нулевым значением, которое означает отсутствие ассоциации или взаимосвязи. Т.е. размер эффекта есть точечная и интервальная оценка этих мер.

Ниже в таблице систематизировано, когда возможно употребление тех или иных мер взаимосвязи, ассоциации, сопряженности. Это не означает, что применять надо все и сразу, можно быстро проверить некоторые свои предположения, используя приведенные оценки и их значимость.

После того, как вы определили все взаимосвязи между своими переменными, можно составить вспомогательную таблицу исследования, в которой определяется, как независимые переменные связаны с зависимой переменной и между собой. Безусловно, если в исследовании около 10 переменных, то это будет достаточно большая таблица. В этом случае для начала сделайте таблицу взаимосвязи зависимой переменной (исхода) и остальных переменных. Желательно также построить диаграммы рассеяния (зависимая и независимые переменные). Определитесь, какие переменные никак не проявили себя по отношению к зависимой переменной (отклику), и почему вы их включили в исследование. Возможно, это переменные, по которым вы хотели провести стратификацию, или переменные, которые как-то связаны с независимыми переменными. Их все равно нельзя исключать из таблицы данных, пока он полностью не проведен.

Если вы поняли, что ваши переменные каким-то образом связаны между собой, то далее можно проводить более глубокий анализ этой связи. В нескольких дальнейших разделах будут рассмотрены основы более детального анализа данных.

Таблица 10–3. Анализ взаимосвязи двух переменных

Анализ взаимосвязи двух переменных

Переменная 1

Переменная 2

Биноминальная

Мульти-

Мультиноминальна

Измерения на

Измерения на

 

 

номинальная

я (упорядоченные

количественных

количественных

 

 

(неупорядоченны

категории)

шкалах (не

шкалах

 

 

е категории)

 

распределены

(нормальное

 

 

 

 

нормально)

распределение)

Биноминальная

Коэффициенты

Коэффициенты

Коэффициенты

Сравнение двух

Сравнение двух

 

сопряженности

сопряженности

сопряженности

групп

групп

 

 

 

 

непараметрическ

параметрическими

 

Точный тест

Goodman-Kruskal

Тау Кендалла

ими тестами

тестами

 

Фишера

Tau

 

 

 

 

 

 

Точный тест

 

 

 

 

Точный тест

Фишера-Фримена-

Непараметри-

Точечно-

 

 

Фишера-

Халтона

ческий аналог

бисериальная

 

 

Фримена-

 

ANOVA

корреляция

 

 

Халтона

 

 

 

 

 

 

 

Точечно-

 

 

 

 

 

бисериальная

 

 

 

 

 

корреляция

 

 

 

 

 

 

 

Мульти-

Коэффициенты

Коэффициенты

Коэффициенты

Непараметри-

Различия в

номинальная

сопряженности

сопряженности

сопряженности

ческий аналог

нескольких группах

(неупорядочен-

 

 

 

ANOVA

 

ные категории)

Goodman-Kruskal

Goodman-Kruskal

Goodman-Kruskal

 

Коэффициент

 

Tau

Tau

Tau

 

детерминации

 

Точный тест

Точный тест

Точный тест

 

 

 

Фишера-

Фишера-

Фишера-Фримена-

 

 

 

Фримена-

Фримена-

Халтона

 

 

 

Халтона

Халтона

 

 

 

 

 

 

 

 

 

Мульти-

Коэффициенты

Коэффициенты

Тау Кендалла

Тау Кендалла

Тау Кендалла

номинальная

сопряженности

сопряженности

 

 

 

(упорядоченные

 

 

Goodman-Kruskal

Непараметри-

Различия в

категории)

Тау Кендалла

Goodman-Kruskal

Tau

ческий аналог

нескольких группах

90

Соседние файлы в папке ОЗИЗО Общественное здоровье и здравоохранение