- •1. Предмет математической статистики.
- •2. Статистические совокупности, их виды.
- •3. Определяющее свойство статистической совокупности.
- •4. Признаки единиц совокупности, их классификация.
- •5. Описательная характеристика статистических совокупностей.
- •6. Ранжированный ряд распределения, техника его построения.
- •7. Анализ ранжированного ряда распределения.
- •8. Вариационный ряд распределения, техника построения для дискретного признака.
- •9. Интервальный вариационный ряд распределения, техника его построения.
- •10. Анализ дискретного и интервального вариационного ряда распределения.
- •11. Определение статистического показателя применительно к абстрактной статистической совокупности.
- •12. Система статистических показателей для всесторонней характеристики статистического ряда распределения.
- •13. Показатели центральной тенденции, их классификация.
- •14. Параметрические показатели центральной тенденции, их виды, условия применения и алгоритмы расчета.
- •15. Условия типичности параметрических средних.
- •16. Непараметрические средние. Алгоритмы их расчета в ранжированном ряду распределения.
- •17. Алгоритмы расчета структурных средних в дискретном и вариационном рядах распределения.
- •18. Взаимосвязь средней арифметической, моды и медианы.
- •19. Сравнение средней арифметической, моды и медианы.
- •20. Понятие о вариации.
- •Показатели вариации, алгоритмы их расчета
- •Интерпретация показателей вариации
- •Сравнение вариации одного и того же признака в двух совокупностях, сравнение вариации разных по содержанию признаков
- •Конкретная ошибка выборки, распределение конкретных ошибок выборки
- •Средняя ошибка выборки для выборочной средней и выборочной доли
- •61.Область согласия и область отказа. Соотношение между ними
- •62. Статистические таблицы , как инструмент принятия ( отказа ) гипотез
- •68. Особенности проверки гипотезы о соответствии фактического распределения нормальному.: постановка гипотезы; содержание ожидаемых частот; расчет критерия
- •69 Особенности проверки гипотезы о соответствии фактического распределения распределению Пуассона: постановка гипотезы; содержание ожидаемых частот; расчет критерия
- •71. Как критерий независимости. Постановка нулевой и альтернативной гипотез.
- •72. Как критерий независимости. Содержание и алгоритм расчета ожидаемых частот
- •73. Как критерий однородности. Содержание выдвигаемых гипотез
- •74. Как критерий однородности.Какие сравнения определяют величину фактического значения критерия.
- •75. Определение табличного значения критерия при различных аспектах его использования.
- •76. Схема проверки гипотез относительно генеральной средней
- •77. Критерий двухсторонний и односторонний
- •78. Особенности принятия альтернативной гипотезы при направленном ее характере
- •79. Выборки зависимые и независимые
- •80. Особенности проверки гипотез относительно двух средних при равных численностях выборок и равных дисперсиях
- •91. Проверка гипотезы относительно доли признака в двух совокупностях, если хотя бы одна из выборочных долей лежит вне интервала 0,1-0,9
- •92. Проверка гипотезы о принадлежности конкретного наблюдения исследуемой совокупности с использованием критерия t – нормального распределения
- •93. Проверка гипотезы о принадлежности конкретного наблюдения исследуемой совокупности с использованием критерия Диксона
- •94. Постановка гипотез при дисперсионном анализе
- •95 Критерий f- Фишера. Условия его применимости
- •96.Преобразование исходных данных с целью проведения дисперсионного анализа
- •97.Необходимость конкретизации результатов дисперсионного анализа
- •98. Конкретизация результатов дисперсионного анализа на основе критерия q- Тьюки
- •99 Понятие о контрастах
- •100. Схема конкретизации результатов дисперсионного анализа методом контрастов Шефе
- •101. Модель дисперсионного анализа с постоянным эффектом факторов, постановка гипотез и расчет фактического значение критерия.
- •102. Модель дисперсионного анализа со случайным эффектом факторов, постановка гипотез и расчет фактического значение критерия.
- •103. Проверяемые гипотезы при двухфакторном дисперсионном анализе.
- •104. Разложение общего объема вариации признака при двухфакторном дисперсионном анализе и неслучайном формировании повторностей.
- •105. Понятие о многомерном дисперсионном анализе.
- •106. Понятие о корреляционной связи.
- •107. Требования к совокупности и факторным признакам при построении корреляционного уравнения связи.
- •108. Этапы построения уравнения связи.
- •108. Методы нахождения вида уравнения.
- •109. Метод наименьших квадратов, содержание и реализация.
- •110. Интерпретация коэффициентов уравнения.
- •122. Приведение матрицы исходных данных в сопоставимый вид при построении многомерной средней.
- •122. Нормирование исходных данных.
- •125. Выбор итерации, соответствующей оптимальному разбиению.
- •126. Метод k-средних (кластерный анализ с обучением).
- •127. Методы установления центров тяжести.
- •128. Назначение факторного анализа.
- •129. Техника факторного анализа.
- •130. Разложение единичной дисперсии.
- •131. Общность, специфичность, надежность в факторном анализе.
- •132. Общий алгоритм факторного анализа.
- •133. Решение проблемы общности при факторном анализе.
- •134. Установление числа факторов.
- •135. Простая структура Терстоуна.
- •136. Факторные нагрузки.
- •137. Вращение матрицы факторных нагрузок и интерпретация факторов.
- •138. Методы вращения матрицы факторных нагрузок.
- •139. Расчет значений факторов по отдельным наблюдениям.
- •140. Применение результатов факторного анализа при построении регрессионных уравнений.
- •141. Назначение дискриминантного анализа.
- •142. Переменные группировочные и независимые
- •143.Пошаговое включение переменных (переменные в модели и вне модели)
- •144. Канонический анализ, его составляющие
- •150.Матрица классификации
122. Приведение матрицы исходных данных в сопоставимый вид при построении многомерной средней.
Нормирование исходных данных - приводит значения всех исходных признаков к такой форме, чтобы можно было совершать любые математические операции.
Абсолютные величины преобразовываются в относительные.
Способы нормирования исходных данных:
1. Сравнение с оптимальным значением признака.
2. Сравнение с min значением признака.
3. Сравнение со средней величиной.
4. С помощью нормированных отклонений.
122. Нормирование исходных данных.
Нормирование исходных данных - приводит значения всех исходных признаков к такой форме, чтобы можно было совершать любые математические операции.
Абсолютные величины преобразовываются в относительные.
Способы нормирования исходных данных:
1. Сравнение с оптимальным значением признака.
2. Сравнение с min значением признака.
3. Сравнение со средней величиной.
4. С помощью нормированных отклонений.
123. Назначение кластерного анализа.
Кластерный анализ - метод выделения в исходной совокупности ед., однородных в некотором отношении.
Назначение - классификация ед. совокупности, объединение однородных ед.
124. Функции близости.
Мера близости предполагает учет всех без исключения признаков, характеризующих ед. совокупности.
125. Алгоритмы объединения.
1. Иерархический кластерный анализ - получив матрицу функции близости каждого объекта с каждым, на 1ом шаге в 1ом кластере объединены те ед., которые имеют между собой min значения функции близости.
2. Метод k-средних (кластерный анализ с обучением) - заранее устанавливается, сколько должно быть кластеров, и по каждому кластеру находятся центры тяжести (т.е. средние значения признака).
124. Иерархический кластерный анализ (кластерный анализ без обучения).
Иерархический кластерный анализ - получив матрицу функции близости каждого объекта с каждым, на 1ом шаге в 1ом кластере объединены те ед., которые имеют между собой min значения функции близости.
Иерархические методы предполагают последовательное объединение объектов в кластеры по степени их близости друг к другу или, напротив, последовательное разбиение совокупности объектов на все более мелкие кластеры.
В этом случае кластерное решение представляет собой иерархическую структуру вложенных друг в друга кластеров.
125. Выбор итерации, соответствующей оптимальному разбиению.
В качестве оптимальной рассматривается та итерация, которая предшествует резкому скачку значения функции близости.
Max величина данного отношения - оптимальная.
126. Метод k-средних (кластерный анализ с обучением).
Заранее устанавливается, сколько должно быть кластеров, и по каждому кластеру находятся центры тяжести (т.е. средние значения признака).
Кластеризация «с обучением» предполагает, что количество классов известно заранее, и имеется обучающая выборка - набор объектов, для которых известно, к каким классам они принадлежат.
Остальные объекты классифицируются по степени их близости к объектам из выборки обучающей .