- •1. Статистическое наблюдение, его формы, виды и способы.
- •2. Виды статистических группировок. Построение группировки по количественному признаку
- •3. Абсолютные, средние и относительные статистические показатели.
- •4 Аналитические показатели временного ряда
- •5. Индивидуальные и сводные индексы, их взаимосвязи.
- •6. Методы проверки временных рядов на наличие тенденции.
- •7. Методы выбора формы трендовой модели
- •8. Построение моделей авторегрессионных преобразований.
- •1. Основан на использовании, так называемых, последовательных или конечных разностей.
- •2. Метод отклонений эмпирических значений признака от теоретических по уравнению тренда полученных.
- •3. Метод Фриша-Воу
- •9. Прогнозирование на основе средних аналитических показателей временных рядов.
- •10. Прогнозирование на основе экстраполяции тренда.
- •11. Прогнозирование с учетом дисконтирования информации
- •12. Прогнозирование на основе кривых роста Гомперца и Перля-Рида.
- •13. Автокорреляция, ее выявление в уровнях временного ряда
- •14. Прогнозирование связных временных рядов
- •15. Оценка точности и надежности прогнозов.
- •16. Основные понятия теории выборочного наблюдения
- •17. Алгоритмы формирования выборочной совокупности
- •18. Простая случайная и систематическая выборки
- •19. Расслоенная выборка
- •20. Кластерная (сериальная) выборка
- •21.Предмет, задачи и система показателей макроэкономической статистики
- •22. Статистическое исследование результатов экономической деятельности
- •23. Статистическое исследование трудового потенциала и трудовых ресурсов
- •24. Статистическое исследование цен и ценообразования
- •25.Статистическое исследование внешней экономической деятельности
- •26. Сводный счет «Производство», его назначение и система показателей.
- •27. Методология исчисления валового внутреннего продукта и национального дохода
- •28. Межотраслевой баланс производства и распределения продукции в снс
- •29. Система макроэкономических показателей, применяемая в международной статистической практике
- •30. Предмет, метод, функции и система показателей социальной статистики
- •1. Общество, его основные характеристики и дифференциация
- •2. Условия жизни
- •3. Уровень жизни (материальная сторона)
- •4. Способ жизни и качественные аспекты жизни
- •Расчет коэффициентов корреляции Кэндела и Спирмена . [-1;1]
- •31.Статистическое исследование социальной структуры и социальной мобильности населения
- •32.Статистическое исследование жизненного уровня населения
- •33.Статистическое исследование дифференциации населения по денежным доходам
- •34.Статистическое исследование сферы обслуживания и охраны здоровья населения
- •35.Предмет, задачи и система показателей демографической статистики
- •36.Статистическое исследование численности, размещения и состава населения
- •37.Статистическое исследование естественного движения населения
- •38.Статистическое исследование миграционного движения населения.
- •39.Статистическое исследование воспроизводства населения
- •40. Понятие, принципы и методы демографического прогнозирования
- •41.Случайные величины. Закон распределение вероятностей дискретной случайной величины
- •42. Функция распределения и плотность вероятности случайной величины, их свойства
- •43. Основные числовые характеристики случайной величины и их свойства
- •44.Биноминальный и нормальный законы распределения случайной величины
- •45.Парные и частные коэффициенты корреляции, их свойства
- •46. Множественные коэффициенты корреляции и детерминации, их свойства
- •47. Понятие генеральной совокупности и выборки из нее
- •48. Определение точечной оценки (статистики) и основные требования, предъявляемые к точечной оценке (несмещенность, состоятельность, эффективность)
- •49. Интервальные оценки параметров генеральной совокупности
- •50. Интервальная оценка генеральной средней нормально распределенной генеральной совокупности.
- •51. Интервальная оценка генеральной дисперсии нормально распределенной генеральной совокупности.
- •52. Статистические гипотезы и правила их проверки. Статистические критерии.
- •53. Сущность дисперсионного анализа. Основные задачи, решаемые с его помощью
- •54. Определение оценок параметров классической линейной модели множественной регрессии с помощью метода наименьших квадратов
- •55. Факторный и компонентный анализ как методы снижения размерности
- •56. Кластерный анализ как метод многомерной классификации
- •57. Проверка значимости уравнения множественной регрессии и его коэффициентов. Интервальное оценивание коэффициентов уравнения регрессии
- •58. Гомо- и гетероскедастичность остатков в регрессионных моделях.
- •59. Обобщенный метод наименьших квадратов (омнк). Свойства омнк-оценок
- •60. Дискриминантный анализ как метод многомерной классификаций с обучением
59. Обобщенный метод наименьших квадратов (омнк). Свойства омнк-оценок
Состоятельные, несмещенные и эффективные оценки коэффициентов регрессионной модели с гетероскедаскичными или коррелированными случайными ошибками определяется с помощью ОМНК.
Нормальная линейная регрессионная модель строится на основании следующих предпосылок о случайных ошибках:
Дисперсия случайной ошибки уравнения регрессии является величиной, постоянной для всех наблюдений:
Случайные ошибки уравнения регрессии не коррелированны между собой, то есть ковариация случайных ошибок любых двух разных наблюдений равна 0: , где
В случае гетероскедастичности остатков нарушается первое из перечисленных свойств , где , а в случае автокорреляции остатков нарушается второе свойство . Регрессионная модель, для которой не выполняются указанные свойства, называется обобщенной линейной регрессионной моделью.
В матричном виде обобщенную линейную регрессию можно записать так: , где Х – неслучайная матрица факторных переменных; - случайная ошибка регрессионной модели с нулевым матожиданием и дисперсией , , - ковариационная матрица случайных ошибок обобщенного регрессионного уравнения.
Для нормальной регрессионной модели дисперсия случайной ошибки определялась из условия постоянства дисперсий случайных ошибок.
В обобщенной регрессионной модели ковариационная матрица случайных ошибок строится исходя из условия непостоянства дисперсий регрессионных остатков :
В ковариационной матрице случайных ошибок и заключается основное отличие обобщенной линейной регрессионной модели от нормальной линейной модели регрессии.
Теорема Айткена.
В классе линейных несмещенных оценок неизвестных коэффициентов обобщенной регрессионной модели оценка будет иметь наименьшую ковариационную матрицу.
Формула для расчета матрицы ковариаций ОМНК – оценок обобщенной регрессии: .
– является неизвестным параметром модели, который нужно оценить:
.
Где n,p –размерность матрицы.
содержание
60. Дискриминантный анализ как метод многомерной классификаций с обучением
Дискриминантный анализ является одним из методов многомерного статистического анализа. Цель дискриминантного анализа состоит в том, чтобы на основе различных характеристик (признаков, параметров) объекта классифицировать его, то есть отнести к одной из нескольких групп (классов) некоторым оптимальным способом. Отличительным свойством дискриминантного анализа является то, что исследователю заранее известно число групп (классов) на которые нужно разбить рассматриваемую совокупность объектов. Задача состоит в том, чтобы построить решающее правило, позволяющее по результатам измерений параметров объекта указать группу, к которой он принадлежит. Число групп заранее известно, также известно, что объект заведомо принадлежит к определенной группе. Такой метод классификации еще называется методом распознавания образов «с учителя».
Рассматривая задачу классификации при наличии обучающих выборок («классификации с обучением» как ее еще называют) в терминах статичного варианта задания исходных статистических данных на «входе» задачи нужно иметь n классифицируемых объектов, представленных данными вида:
Когда каждая i-я строка матрицы отражает значения p характеризующих i-й объект признаков , ,…,
Обучающие выборки , j=1, 2,…,k, каждая j-я из которых определяет значения анализируемых признаков на объектах (то есть i=1, 2,…,n), о которых априори известно, что все они принадлежат j-му классу, причем число k различных выборок равно общему числу всех возможных классов (так, что каждый класс представлен своей порцией выборочных данных).
На «выходе» задачи мы должны иметь результат следующей формы: если число классов k и их смысл известен заранее, то каждое из n классифицируемых многомерных наблюдений должно быть снабжено «адресом» (номером) класса, к которому оно принадлежит.
Дискриминантный анализ применяется, когда исследователь имеет информацию о характере распределения в группах. При использовании дискриминантного анализа вначале формируются обучающие выборки, которые являются носителями информации о распределении внутри каждого класса. Данные обучающих выборок формируются на этапе предварительного анализа экспертами в конкретной рассматриваемой области. НА основе обучающих выборок определяются дискриминантные и классификационные функции, позволяющие с минимальной вероятностью ошибки отнести каждый объект к тому или иному классу.
Узловым моментом в задаче многомерной классификации является выбор метрики расстояния, от которого решающим образом зависит окончательный вариант разбиения объектов на классы при заданном алгоритме разбиения. При этом решение данного вопроса зависит в основном от цели исследования, физической и статистической природы k-мерного вектора наблюдений Х, полноты априорных сведений о характере вероятностного распределения Х. Здесь k – число рассматриваемых показателей.
Расстояние Махаланобиса.
Здесь k и l — номера объектов, xk, xl — их векторы признаков, С — ковариационная матрица признаков
Основные характеристики
Учитывает возможную корреляцию между переменными
Если корреляция между переменными отсутствует, то расстояние Махаланобиса равно расстоянию Евклида
Евклидово расстояние.
Здесь k и l — номера объектов, xk, xl — их векторы признаков
Основные характеристики
Каждая переменная вектора признаков дает одинаковый вклад наряду с остальными — считается что они ортогональны
Если между переменными имеется корреляция то они будут иметь непропорциональное влияние на результаты анализа
На первоначальном этапе анализа правильности формирования обучающих выборок, она проверяется на корректность на основе статистических критериев: расстояния Махаланобиса и апостериорной вероятности. Предполагая, что распределение внутри каждой группы подчиняется k-мерному нормальному закону распределения, опеределяется вероятность попадания отдельного i-Го наблюдения в каждую группу (апостериорная вероятность). Отнесение экспертом i-го объекта в j-ю группу считается ошибочным, если расстояние Махаланобиса от объекта до центра его группы значительно выше, чем от него до центра других групп, а апостериорная вероятность попадания в свою группу ниже критического значения. В этом случае объект считается некорректно отнесенным и должен быть исключен из выборки. После выполнения указанных расчетов составляется классификационная матрица, в которой указывается процент корректно отнесенных к группе наблюдений, а также число правильно и неправильно отнесенных объектов.
В дальнейшем из рассмотрения исключается не корректно отнесенной наблюдение, которому соответствует максимальное значение расстояния Махаланобиса и минимальная апостериорная вероятность правильной классификации. Для оставшихся n-1 наблюдений процедура тестирования повторяется.
Процедура исключения наблюдений продолжается до тех пор, пока общий коэффициент корректности в классификационной матрице не достигнет 100%, то есть все наблюдения обучающих выборок будут правильно отнесены к соответствующим группам.
Полученные на последнем шаге обучающие выборки используются для получения дискриминантных и классификационных функций (классификаторов), которые в дальнейшем могут использоваться для соотнесения новых объектов к той или иной группе.
содержание
Конец
1