- •2. Классификация измерений и погрешностей измерений.
- •3. Формы представления погрешностей. Свойства случайных погрешностей.
- •4. Основные понятия теории вероятностей. Геометрическая вероятность.
- •5. Основные формулы комбинаторики. Примеры использования
- •6. Теорема сложения вероятностей и ее следствия
- •8.Формула полной вероятности. Формула Бейеса
- •9. Формула Бернулли. Примеры использования.
- •10.Дискретные и непрерывные случайные величины и их характеристики.
- •12. Свойства плотности и функции распределения вероятностей
- •13.Начальные и центральные моменты для дискретных и непрерывных случайных величин.
- •15. Закон больших чисел и центральная предельная теорема
- •17 Точечные и интервальные оценки.
- •18.Понятие доброкачественной оценки
- •19. Методы получения доброкачественных оценок. Метод максимального правдоподобия.
- •20. Равномерный закон распределения случайных величин
- •21. Биномиальный закон распределения
- •22. Локальная и интегральная теоремы Лапласа
- •23. Нормальный закон распределения случайных величин. M(X), d(X), σ.
- •24. Показательное (экспоненциальное) распределение. M(X), d(X), σ
- •26.Распределение Стьюдента
- •27. Распределение хи-квадрат. M(X), d(X), σ
- •28. Гамма распределение
- •29. Мешающие параметры, необходимость их выявления. Критерии Аббе и Граббса
- •30. Приближённые методы исследования ряда случайных величин на соответствие закону распределения.
- •31.Характеристики формы, их вычисление и суть
- •32. Графический критерий исследования ряда погрешностей на соответствие нормальному закону распределения
- •33. . Точные критерии исследования ряда случайных величин. Критерии Пирсона и Колмогорова.
- •34.Основные методы наименьших квадратов. Способы составления систем нормальных уравнений. Метод наименьших квадратов
- •35.Линейная и квадратичная аппроксимация. Построение линий тренда.
- •37.Полиномиальные преобразования при помощи функции нескольких переменных
- •38 . Оценка точности в методе наименьших квадратов.
- •39. Понятие веса. Классическая обработка неравноточных измерений
- •40.Классическая обработка равноточных измерений. Задача эталонирования
- •41.Выявление мешающих параметров непараметрическими методами. Критерий Хэмпэла
- •44.Адаптивная оценка Хогга. Два способа вычисления индикатора k
- •45.Выявление эффектов гетероскедастичности
- •46. Методы выявления систематического влияния. Критерии серий.
- •47. Методы выявления эффектов автокорреляции. Критерий Дарбина-Уотсона.
- •48. Второй центральный смешанный момент (ковариация).
- •49. Парные, частные и множественные коэффициенты корреляции
- •50. Выявление значимости связей.
- •51. Коэффициент достоверности аппроксимации. Оценка надёжности по критерию Фишера.
- •52. Понятие экстраполяции (прогнозирование результатов измерений)
- •53. Фундаментальная теорема переноса ошибок имеет вид:
- •54. Оценка точности функций зависимых результатов измерений.
33. . Точные критерии исследования ряда случайных величин. Критерии Пирсона и Колмогорова.
Т.к. все предположения о характере того или иного распределения – это гипотезы, то они должны быть подвергнуты статистической проверке с помощью критериев согласия, позволяющие отвергнуть или подтвердить правильность выдвинутой при выравнивании ряда гипотезы о характере распределения в эмпирическом ряду.
. Критерий Колмогорова l основан на определении максимального расхождения между накопленными частотами и частостями эмпирических и теоретических распределений: или , где D и d – соответственно максимальная разность между накопленными частотами и накопленными частостями эмпирического и теоретического рядов распределений; N – число единиц совокупности. Рассчитав значение l, по таблице Р(l) определяют вероятность, с которой можно утверждать, что отклонения эмпирических частот от теоретических случайны. Вероятность Р(l) может изменяться от 0 до 1. При Р(l)=1 происходит полное совпадение частот, Р(l)=0 – полное расхождение. Если l принимает значения до 0,3, то Р(l)=1. Основное условие использования критерия Колмогорова – достаточно большое число наблюдений.
Критерий согласия Пирсона – один из основных: где k – число групп, на которые разбито эмпирическое распределение,– наблюдаемая частота признака в i-й группе,– теоретическая частота. Для распределениясоставлены таблицы, где указано критическое значение критерия согласиядля выбранного уровня значимостии степеней свободы df– вероятность ошибочного отклонения выдвинутой гипотезы.
df -- число групп в ряду распределения минус число связей: df = k –z. Z-число показателей эмпирического ряда, использованных при вычислении теоретических частот.
Для оценки существенности расчетное значение сравнивается с табличным. При полном совпадении теоретического и эмпирического распределений, в противном случае>0. Если>, то при заданном уровне значимости и числе степеней свободы гипотезу о несущественности (случайности) расхождений отклоняем. В случае, если, заключаем, что эмпирический ряд хорошо согласуется с гипотезой о предполагаемом распределении и с вероятностью Р=(1-a) можно утверждать, что расхождение между теоретическими и эмпирическими частотами случайно. Критерий согласия Пирсона используется, если объем совокупности достаточно велик, при этом частота каждой группы должна быть не менее 5.
34.Основные методы наименьших квадратов. Способы составления систем нормальных уравнений. Метод наименьших квадратов
— математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от искомых переменных. Он может использоваться для «решения» переопределенных систем уравнений (когда количество уравнений превышает количество неизвестных), для поиска решения в случае обычных (не переопределенных) нелинейных систем уравнений, для аппроксимации точечных значений некоторой функции. МНК является одним из базовых методов регрессионного анализадля оценки неизвестных параметров регрессионных моделей по выборочным данным.Составление и решение нормальных уравнений.
;
;
. . ;.. Тогда,
.
Выполнив сложение, получаем систему 2-х нормальных уравнений в обозначениях Гаусса:
[aa]Δφ+[ab]Δω+[al]=0
[ab]Δφ+[bb]Δω+[bl]=0
Так как ui=aiΔφ+biΔω+li, то
[au]=0
[bu]=0
= =
Таким образом получено правило Крамера, где D-главный определитель системы, а DΔφи DΔω- определители для Δφ и Δω соответственно.Контроль правильности решения получают подстановкой найденных неизвестных в так называемое суммарное уравнение, полученное суммированием нормальных уравнений.([aa]+[ab])Δφ+([ab]+[bb])Δω+([al]+[bl])=0 .Способ решения нормальных уравнений по правилу Крамера при n>2 становится трудоёмким и не всегда устойчивым при малых значениях D. Другими способами решения системы нормальных уравнений являются: -способ последовательного исключения искомых величин;-способ последовательных приближений (итерации. Первый из них применяется главным образом при неавтоматизированных вычислениях, осуществляемых в ручную или на каркуляторах. Все расчеты выполняются в специальных схемах. Наиболее употребима схема Гаусса-Зейделя, в которой вычисления сводятся к простым однообразным действиям , предусмотрены постоянный контроль правильности вычислений и оценивание точности полученных результатов.Способ итерации легко реализуется на ЭВМ , к недостатку стоит отнести итерационную процедуру, которая не даёт конечного решения, но быстродействие современных ЭВМ снимает этот вопрос.