Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ОТветы на вопросы ИК.docx
Скачиваний:
23
Добавлен:
03.08.2019
Размер:
6.25 Mб
Скачать
  1. Меры формы

Вариационный ряд - реализации, записанные не в порядке получения, а в порядке возрастания, то есть упорядоченная выборка Выборка - совокупность объектов, отобранных для исследования из генеральной совокупности, а их число n- объём выборки

Доверительный интервал Jγ

интервал, накрывающий параметр с вероятностью γ (γ – доверительная вероятность или уровень доверия)

Математическая статистика - раздел математики, посвящённый математическим методам систематизации, обработки и использования статистических данных для научных и практических выводов

Математическое ожидание - аналог понятия центра масс, то есть «средневзвешенное» значение случайной величины

Математическое ожидание дискретной случайной величины 

сумма произведений всех ее возможных значений на их вероятности:

Метод моментов метод получения оценок параметров, который состоит в том, что если оцениваемый параметр распределения является функцией от моментов распределения (в самом простом случае сам является моментом), то в эту функцию подставляются эмпирические значения Статистика - любая функция (x1,, xn), зависящая от выборки; является случайной величиной

моментов и полученное значение берется в качестве оценки для параметра

Функция распределения F(x) - функция, применяемая для задания случайной величины, равная вероятности того, что случайная величина  примет значение, меньшее х: F(x) = p(<x)

Меры формы (эксцесс, асимметрия)

Если распределение случайной величины симметрично относительно математического ожидания, то все центральные моменты нечётного порядка равны 0.

Если центральный момент нечётного порядка не равен 0, то говорят об асимметрии распределения, которое характеризует коэффициент асимметрии . Если А>0, то кривая распределения пологая слева от мат. ожидания (большее влияние на распределение отрицательного отклонения сл. в.)

Коэффицие́нт асимметри́и — величина, характеризующая асимметрию распределения данной случайной величины.

Рисунок 3 – Графическое изображение разных значений асимметрии

Эксцесс характеризует пологость (крутизну) кривой распределения. – 4-й центральный момент. Смысл «эксцесс» – как быстро уменьшается плотность распределения вблизи её максимального значения.

Рисунок 4 – Графическое изображение эксцесса

Уровень значимости

Критерий – статистика, с помощью которой принимается решение о том, верна основная гипотеза или альтернативная.

Критическая область – область, при попадании в которую значения критерия (статистики), основная гипотеза отклоняется, а принимается альтернативная (ее граница – граница критической области).

Уровень значимости -вероятность попадания в критическую область.

ft (х) – плотность распределения статистики  - заданый уровень значимости -t и +t - границы критической области (критическая область заштрихована).

Статистическая гипотеза – понятие более емкое, чем просто оценка значения неизвестного параметра. Пусть с помощью статистического эксперимента мы хотим проверить простую гипотезу о том, что неизвестное среднее равно некоторому значению 0. Эта гипотеза будет основной. Альтернативной ей является также простая гипотеза 0 или сложная гипотеза, что 0 или что 0.

При решении таких задач также применяется аппарат построения для соответствующей статистики области I, вероятность попадания в которую достаточно близка к 1. При попадании статистики, построенной по выборке, в эту область принимается основная гипотеза; в противном случае, если значение статистики попало в область, противоположную I, принимается альтернативная гипотеза.

В задачах о проверке гипотез принято область, противоположную I, называть критической, а число =1 - уровнем значимости. Уровень значимости  обычно берут равным 005, иногда 0,01. При =005 мы, проверяя на деле истинную гипотезу о том, что =0, будем ее отбрасывать с вероятностью 0,05, т.е. в среднем 5 из 100 истинных гипотез. Эту ошибку , когда отбрасывается основная гипотеза, хотя она истинна, называют ошибкой первого рода, в отличие от ошибки второго рода, которую совершают, приняв основную гипотезу, когда она ложна. В простых случаях областями I оказываются уже знакомые нам доверительные интервалы, При проверке гипотезы 0 мы строим с доверительной вероятностью 1 при альтернативной

5 Методы анализа статистических данных , корреляционный и регрессионный анализ

  1. Корреляционный анализ состоит в определении степени связи между двумя случайными величинами X и Y. В качестве меры такой связи используется коэффициент корреляции. Коэффициент корреляции оценивается по выборке объема п связанных пар наблюдений (xi, yi) из совместной генеральной совокупности X и Y. Существует несколько типов коэффициентов корреляции, применение которых зависит от измерения (способа шкалирования) величин X и Y.

Для оценки степени взаимосвязи величин X и Y, измеренных в количественных шкалах, используется коэффициент линейной корреляции (коэффициент Пирсона), предполагающий, что выборки X и Y  распределены по нормальному закону.

Коэффициент корреляции — параметр, который характеризует степень линейной взаимосвязи между двумя выборками, рассчитывается по формуле:

Коэффициент корреляции изменяется от -1 (строгая обратная линейная зависимость) до 1 (строгая прямая пропорциональная зависимость). При значении 0 линейной зависимости между двумя выборками нет.

  1. Регрессио́нный (линейный) анализ — статистический метод исследования зависимости между зависимой переменной Y и одной или несколькими независимыми переменными X1,X2,...,Xp. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Терминология зависимых и независимых переменных отражает лишь математическую зависимость переменных (см. Ложная корреляция), а не причинно-следственные отношения. Уравнение регрессии выглядит следующим образом: Y=a+b*X При помощи этого уравнения переменная Y выражается через константу a и угол наклона прямой (или угловой коэффициент) b, умноженный на значение переменной X. Константу a также называют свободным членом, а угловой коэффициент - коэффициентом регрессии или B-коэффициентом. В большинстве случав (если не всегда) наблюдается определенный разброс наблюдений относительно регрессионной прямой. Остаток - это отклонение отдельной точки (наблюдения) от линии регрессии (предсказанного значения).

6) Дисперсионный анализ

Полученные в эксперименте данные можно анализировать методом дисперсионного анализа ANOVA (analysis of variance). Назначение метода дисперсионного анализа – разделить суммарную изменчивость данных, определяемую суммой квадратов отклонений от среднего значения, на вклады каждого из факторов и ошибку. Метод аналогичен разделению мощности сигнала на вклады различных гармоник. Чтобы определить какие факторы оказывают значимое влияние, выполняются F-тесты.

Измерения проводимые при повторах позволяют оценить только ошибку измерений путем среднего по повторам и обычно не используют для оценки ошибки эксперимента. Дисперсия ошибки может сравниваться с дисперсией, которая возникает, когда фактор устанавливается с одного уровня на другой. Если величина результирующего изменения велика по сравнению со стандартным отклонением, вызванным репликой, то тогда фактор считается статистически значимым и наоборот.

Дисперсионно можно оценить следующим выражением, называемым в дисперсионном анализе F-отношением:

где - дисперсия воздействия факторов, деленная на число степеней свободы :

- дисперсия ошибки, равная сумме квадратов ошибки деленной на число степеней свободы ошибки :