- •Основи теорії ймовірностей і статистичні методи обробки даних у психологічних і педагогічних експериментах.– Львів: Видавничий центр лну імені Івана Франка, 2006. – 168 с.
- •І. Основи теорії ймовірностей
- •Формула повної ймовірності
- •Формули Байєса
- •Задачі до розділу і.
- •Іі. Випадкова величина Поняття випадкової величини
- •Функція розподілу випадкової величини
- •Щільність розподілу неперервно розподіленої випадкової величини
- •Характеристики розподілу випадкової величини
- •Математичне сподівання випадкової величини
- •Дисперсія та стандартне відхилення випадкової величини. Асиметрія і ексцес.
- •Квантилі
- •Деякі дискретні розподіли Розподіл Бернуллі
- •Біномний розподіл
- •Апроксимаційні формули Муавра-Лапласа Локальна теорема Муавра-Лапласа Якщо у схемі Бернулі величина , коли , то
- •Функція розподілу двовимірної випадкової величини
- •Умовні закони розподілу
- •Коваріація і коефіцієнт кореляції
- •Коваріаційна матриця і матриця парних кореляцій
- •Граничні закони теорії ймовірностей Нерівність Чебишева
- •Теорема Чебишева
- •Закон Бернуллі
- •Теорема Ляпунова
- •Задачі до розділу іі.
- •Ііі. Елементи математичної статистики
- •Генеральна сукупність і вибірка
- •Дискретний варіаційний ряд
- •Інтервальний варіаційний ряд
- •Точкові та інтервальні оцінки
- •Поняття про статистичну перевірку гіпотез
- •Задачі до розділу ііі.
- •Іv. Методи математичної обробки даних у психології Ознаки і змінні. Шкали вимірювання ознак
- •Перевірка гіпотези про однорідність вибірки
- •Перевірка гіпотези про узгодженість розподілів
- •Критерій Пірсона
- •Критерій Колмогорова
- •Критерій Смирнова
- •Перевірка гіпотези про рівність двох дисперсій
- •Виявлення відмінностей у рівні досліджуваної ознаки Критерій Розенбаума
- •Критерій Манна-Уітні
- •К ритерій Стьюдента
- •І. Вибірки взяті з однієї генеральної сукупності
- •Іі. Вибірки взяті з різних генеральних сукупностей
- •Перевірка наявності зсуву у значеннях досліджуваної ознаки
- •Критерій знаків
- •Критерій Вілкоксона
- •Парний t-тест Стьюдента
- •Перевірка впливу фактора на зміну рівня досліджуваної ознаки
- •Критерій Краскела-Уоллеса
- •Критерій тенденцій Джонкхієра
- •Критерій Фрідмана
- •К ритерій тенденцій Пейджа
- •Однофакторний дисперсійний аналіз
- •П еревірка наявності зв’язку між двома ознаками
- •Зв'язок ознак, виміряних у номінативних шкалах
- •Зв'язок ознак, виміряних у порядкових шкалах
- •Зв'язок ознак, виміряних в інтервальних шкалах
- •Задачі до розділу іv.
- •Критичні значення розподілу
- •Критичні значення розподілу Фішера-Снедекора
- •Критичні значення критерію Розенбаума
- •Критичні значення критерію Манна-Уітні
- •Критичні значення критерію знаків
- •Критичні значення критерію Вілкоксона
- •Критичні значення критерію Краскела-Уоллеса
- •Критичні значення критерію Джонкхієра
- •Критичні значення критерію Фрідмана
- •Критичні значення критерію Пейджа
- •Критичні значення рангового коефіцієнта кореляції Спірмена
- •Д о д а т о к 2: Елементи вищої математики Матриці, визначники, системи лінійних рівнянь Поняття матриці. Операції над матрицями.
- •Визначник матриці. Обернена матриця
- •Системи лінійних алгебричних рівнянь
- •Вступ до математичного аналізу
- •Числові послідовності та їх границі
- •Границя функції в точці. Односторонні границі
- •Неперервність функції
- •Диференціальне числення функцій однієї змінної Похідна функції в точці
- •Диференційовність функції
- •Монотонність функції. Екстремуми
- •Похідні вищих порядків
- •Інтегральне числення функцій однієї змінної Первісна функції. Невизначений інтеграл
- •В изначений інтеграл
- •Невластиві інтеграли
- •Частинні похідні функцій багатьох змінних
- •Д о д а т о к 3: Деякі команди Maple 8.
- •Алфавітний покажчик
- •Основи теорії ймовірностей і статистичні методи аналізу даних у психологічних і педагогічних експериментах
Коваріаційна матриця і матриця парних кореляцій
Коваріаційною матрицею п-вимірного випадкового вектора називатимемо квадратну матрицю розмірності п, елементами якої є парні коваріації компонент випадкового вектора Х. Коваріаційна матриця є симетричною (оскільки ), а елементами головної діагоналі є дисперсії відповідних компонент випадкового вектора. Дійсно .
У попередньому прикладі коваріаційна матриця має вигляд
.
Оскільки коваріація двох незалежних компонент вектора дорівнює нулю, то коваріаційна матриця відображає структуру залежності компонент випадкового вектора Х. Зокрема, якщо всі компоненти випадкового вектора стохастично незалежні, то коваріаційна матриця діагональна.
Матрицю , складену з коефіцієнтів лінійної кореляції компонент та випадкового вектора Х, називають матрицею парних кореляцій або кореляційною матрицею. Як і коваріаційна матриця, вона є симетричною. Діагональні елементи кореляційної матриці дорівнюють 1. Кореляційна матриця випадкового вектора з незалежними компонентами є одиничною.
У попередньому прикладі матриця парних кореляцій має вигляд
.
Коваріаційна матриця пов’язана з матрицею парних кореляцій співвідношенням
,
де — діагональна матриця, елементами головної діагоналі якої є середні квадратичні відхилення відповідних компонент випадкового вектора. Зокрема, якщо компоненти вектора мають одиничні дисперсії, то і збігаються.
Вправа. Переконайтесь в істинності останнього співвідношення для наведених коваріаційної і кореляційної матриць.
Граничні закони теорії ймовірностей Нерівність Чебишева
Якщо випадкова величина має математичне сподівання М і середнє квадратичне відхилення σ, тоді для довільного має місце нерівність
(ІІ.31)
Нерівність (ІІ.31) називають нерівністю Чебишева. Вона дозволяє оцінити імовірність великого відхилення значення випадкової величини від свого математичного сподівання. Разом з нею розглядають нерівність
, (ІІ.32)
яка дозволяє оцінити ймовірність протилежної події.
Доведемо нерівність (ІІ.31). Дійсно, для дискретно розподіленої випадкової величини маємо
. Звідки .
Для неперервно розподіленої випадкової величини маємо
. Звідки , що і треба було довести.
Зауважимо, що нерівність Чебишева не передбачає інформації про характер розподілу випадкової величини. Якщо ж відомий розподіл випадкової величини, то можна не тільки оцінити, але й визначити імовірність відхилення випадкової величини від свого математичного сподівання більше, ніж на задану величину.
Теорема Чебишева
Нехай випадкові величини — попарно незалежні і мають однакові математичні сподівання М і однакові обмежені дисперсії . Тоді для усередненої випадкової величини і для як завгодно малого справджується рівність
. (ІІ.33)
Дійсно випадкова величина має математичне сподівання М і дисперсію . Застосувавши до нерівність (ІІ.32) отримуємо
. (ІІ.34)
Переходячи в останній нерівності до границі при , дістаємо (ІІ.33).
Зауважимо, що теорема Чебишева може бути поширена на випадкові величини з довільними математичними сподіваннями і довільними обмеженими в сукупності дисперсіями.
Суть теореми Чебишева полягає в тому, що хоча окремі випадкові величини можуть набувати далеких від свого математичного сподівання значень, однак для достатньо великого їх числа усереднена випадкова величина практично не відхиляється від свого математичного сподівання.
Теорема Чебишева має важливе практичне значення. При вимірюванні деякої величини результати вимірювань можна розглядати як випадкові величини . Всі вони попарно незалежні, мають однакове математичне сподівання і обмежені дисперсії, і якщо їх досить багато, то на підставі теореми Чебишева можна стверджувати, що середнє арифметичне цих вимірювань практично не відрізняється від істинного значення вимірюваної величини.
З іншого боку на теоремі Чебишева ґрунтується вибірковий метод досліджень. Для визначення характеристик великої сукупності досліджуваних об'єктів нема потреби досліджувати кожен з них. Достатньо вивчити порівняно невелику випадкову вибірку з цієї сукупності.