- •1.Элементы комбинаторики: размещения, перестановки, сочетания.
- •2.Случайный эксперимент. Примеры.
- •3. Случайные события. Виды случайных событий.
- •6. Относительная частота.
- •7. Теорема сложения вероятностей. Привести пример.
- •8. Зависимые и независимые события.
- •9.Формула полной
- •10. Схема Бернулли. Формула Бернулли.
- •12. Локальная формула Муавра-Лапласа.
- •13. Интегральная формула
- •14. Случайная величина. Виды случайных величин.
- •15. Дискретная случайная величина. Ряд распределения.
- •17. Математическое ожидание дискретной св и его смысл.
- •18. Дисперсия дискретной случайной
- •20. Распределение Пуассона и его числовые
- •21. Непрерывные случайные величины.
- •25. Показательный закон распределения. Привести пример.
- •27. Система двух дискретных св. Функция распределения и её свойства.
- •28. Безусловные законы распределения составляющих системы св
- •29.Корреляционный момент и коэффициент корреляции. Свойства коэффициента корреляции.
- •30. Основные задачи математической статистики.
- •31. Генеральная и выборочная совокупности (гс и вс). Свойство репрезентативности выборки.
- •32. Статистический ряд, интервальный статистический ряд, статистическое распределение.
- •33. Полигон и гистограмма статистического ряда.
- •34. Эмпирическая функция распределения и её основные свойства.
- •35. Статистическая оценка неизвестных параметров распределения. Виды оценок.
- •36. Классификация точечных оценок (состоятельные, несмещённые, эффективные).
- •37.Выборочное среднее и свойство устойчивости среднего.
- •38. Выборочная оценка дисперсии. Несмещённая оценка дисперсии.
- •43. Эмпирическая линейная регрессия.
- •44. Примеры задач линейного программирования.
- •45. Общая и каноническая злп. Переход от общей задачи к канонической.
- •46. План злп, область допустимых планов, базисный
- •47. Графический метод решения злп.
- •48. Симплекс-метод решения злп: идея метода и построение первоначального базисного плана. Симплексная таблица.
- •49.Симплекс-метод решения злп: переход к новому плану.
- •50. Метод искусственного базиса (м-задача)
- •51. Транспортная задача. Математическая постановка задачи.
- •52. Условие разрешимости тз. Закрытая модель тз
- •53. Построение первоначального опорного плана тз
- •54. Условия оптимальности опорного плана. Метод потенциалов.
- •55. Циклы в транспортной задаче. Построение нового опорного плана.
- •56. Прямая и двойственная задачи.
- •57. Связь между решениями прямой и двойственной задачи (основные теоремы)
- •58. Геометрическая интерпретация двойственной задачи.
- •59. Нахождение решения двойственной задачи.
- •60. Экономическая интерпретация двойственных задач.
38. Выборочная оценка дисперсии. Несмещённая оценка дисперсии.
Выборочной дисперсией называют среднее арифметическое квадратов отклонения наблюдаемых значений наблюдаемых значений признака от их среднего значения .
Если все значения , , …, признака выборки объёма n различны, то .
Если же значения признака , , …, имеют соответственно частоты , , …, , причём + +…+ =n, то .
Исправленная дисперсия является несмещённой оценкой генеральной дисперсии:
.
39. Доверительная вероятность оценки и доверительный интервал. Надёжностью (доверительной вероятностью) оценки Ѳпо Ѳ* называют вероятность γ, с которой осуществляется неравенство . Обычно надёжность задаётся наперёд, причём в качестве γберут число, близкое к единице. Наиболее часто задают надёжность, равную 0,95, 0,99 и 0,999.
Доверительным называют интервал(Ѳ*-δ, Ѳ*+δ), который покрывает неизвестный параметр с заданной надёжностью γ.
40. Доверительные интервалы для математического ожидания СВ, имеющей нормальный закон распределения. Пусть количественный признак генеральной совокупности распределен нормально. Известно среднее квадратическое отклонение этого распределения -. Требуется оценить математическое ожидание а по выборочной средней. Найдем доверительный интервал, покрывающий а с надежностью . Выборочную среднюю будем рассматривать как случайную величину ( она изменяется от выборки к выборке), выборочные значения признака- как одинаково распределенные независимые СВ с математическим ожиданием каждой а и средним квадратическим отклонением . Примем без доказательства, что если величина Х распределена нормально, то и выборочная средняя тоже распределена нормально с параметрами .Потребуем, чтобы выполнялось равенство Заменив Х и «сигму», получим
Получим
41. Критерий согласия X2 Критерий согласия хи-квадрат используется для проверки гипотезы о совпадении эмпирического и теоретического (постулируемого) распределений дискретных случайных величин. Критерий основывается на сравнении наблюденных и ожидаемых (теоретических) встречаемостей. Статистика критерия равна сумме квадратов разностей между наблюденными и ожидаемыми встречаемостями, деленных на ожидаемые встречаемости:
Хи-квадрат сравнивает нашу теорию с практикой. Если получилась большая выборка, оформляем в виде интервального статистического ряда и строим гистограмму. Гистограмма показывает нам гипотезу о законе распределения. Хи-квадрат сравнивается с критической. Если хи-квадрат <критической, то принимаем гипотезу. Но иногда это обман. Мы можем выбрать неправильную гипотезу, а хи-квадрат покажет, что это верная гипотеза.
42. Метод наименьших квадратов.— один из методов регрессионного анализа для оценки неизвестных величин по результатам измерений, содержащих случайные ошибки.
Метод наименьших квадратов применяется также для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений.
Когда искомая величина может быть измерена непосредственно, как, например, длина отрезка или угол, то, для увеличения точности, измерение производится много раз, и за окончательный результат берут арифметическое среднее из всех отдельных измерений. Это правило арифметической середины основывается на соображениях теории вероятностей; легко показать, что сумма квадратов уклонений отдельных измерений от арифметической середины будет меньше, чем сумма квадратов уклонений отдельных измерений от какой бы то ни было другой величины. Само правило арифметической середины представляет, следовательно, простейший случай метода наименьших квадратов.