- •Поняття випадкового процесу. Прості та складені випадкові події.
- •Операції над подіями.
- •Класичне означення імовірності.
- •Основні формули комбінаторики.
- •5. Геометрична ймовірність.
- •Статистична ймовірність.
- •Залежні та незалежні події. Умовна ймовірність.
- •Найімовірніше число появи випадкової події.
- •Локальна теорема Лапласа.
- •Інтегральна теорема Лапласа.
- •Використання інтегральної теореми.
- •Формула Пуассона.
- •Дискретні та неперервні величини. Закони розподілу їх ймовірностей.
- •Функція розподілу ймовірностей та її властивості.
- •Щільність ймовірностей та її властивості.
- •Математичне сподівання.
- •24. Властивості математичного сподівання.
- •Мода та медіана.
- •Дисперсія та середньоквадратичне відхилення.
- •Властивості дисперсії.
- •Початкові та центральні моменти.
- •Асиметрія та ексцес.
- •Система двох дискретних випадкових величин.
- •Закон розподілу ймовірностей дискретної двомірної величини.
- •Коефіцієнт кореляції та його властивості.
- •Функція розподілу ймовірностей системи двох випадкових величин та її властивості.
- •34. Щільність розподілу двомірної випадкової величини.
- •Основні числові характеристики системи двох неперервних випадкових величин (х,у).
- •Ймовірність влучення випадкових точок у прямокутник.
- •Функція 1-ого випадкового аргументу.
- •Математичне сподівання функції 1-ого випадкового аргументу.
- •Функції 2-х випадкових аргументів.
- •Математичне сподівання суми двох випадкових аргументів.
- •Біноміальний розподіл.
- •Розподіл х2.
- •Математичне сподівання і дисперсія при нормальному розподілу.
- •Емпірична функція розподілу.
- •Статистичні оцінки параметрів генеральної сукупності. Статистичні гіпотези.
- •Точкові статистичні оцінки.
- •Інтервальні статистичні оцінки.
- •Нульова й альтернативна гіпотези.
- •Область прийняття гіпотези. Критична область.
- •Алгоритм перевірки правильності нульової гіпотези.
- •Помилки першого та другого роду.
- •Елементи дисперсійного аналізу. Однофакторний дисперсійний аналіз.
- •Двофакторний дисперсійний аналіз.
- •Елементи теорії регресії і кореляції.
- •Рівняння лінійної парної регресії. Коефіцієнт кореляції.
- •Визначення параметрів в0, в1.
- •Властивості в0, в1.
- •Довірчі інтервали для в0, в1.
- •Множинна лінійна регресія
Помилки першого та другого роду.
Висунута гіпотеза може бути правильною чи неправильною, тому виникає необхідність її перевірки. Оскільки перевірку проводять статистичними методами, то її називають статистичною. В результаті перевірки гіпотези в двох випадках може бути прийняте неправильне рішення, тобто можуть бути допущені помилки двох родів.
Помилка першого роду полягає в тому, що буде відхилена правильна гіпотеза.
Помилка другого роду полягає в тому, що буде прийнята неправильна гіпотеза.
Наслідки цих помилок різноманітні і можуть мати тяжкі наслідки.
_________________________________
Елементи дисперсійного аналізу. Однофакторний дисперсійний аналіз.
Дисперсійний аналіз. Його сутність полягає в тому, що загальну дисперсію досліджуваної ознаки розділяють на окремі компоненти, які обумовлені впливом певних конкретних чинників.
Відповідно до дисперсійного аналізу будь-який його результат можна подати у вигляді суми певної кількості компонент.
У разі проведення дисперсійного аналізу досліджуваний масив даних, одержаних під час експерименту, поділяють на певні групи, які різняться дією на результати експерименту певних рівнів факторів. Вважається, що досліджувана ознака має нормальний закон розподілу, а дисперсії в кожній окремій групі здобутих значень ознаки однакові. Ці припущення необхідно перевірити.
Однофакторний аналіз. Нехай потрібно дослідити вплив на ознаку Х певного одного фактора. Результати експерименту ділять на певне число груп, які відрізняються між собою ступенем дії фактора.
_________________________________
Двофакторний дисперсійний аналіз.
Нехай необхідно визначити вплив двох факторів А і В на певну ознаку Х. Для цього необхідно, щоб дослід здійснювався при фіксованих рівнях факторів А і В, а також їх одночасній дії на ознаку. При цьому дослід здійснюватимемо n раз для кожного з рівнів факторів А і В.
Позначимо через конкретне значення ознаки Х, якого вона набуває при i-му експерименті, j-му рівні фактора A і k-му рівні фактора В.
Результат експерименту зручно подати у вигляді таблиці, яка поділена на блоки, в кожному з яких ураховується на певних рівнях факторів А і В їх вплив на конкретні значення ознаки
Перелік варіант У=уі, Х=хі та відповідних їм частот утворюють двовимірний статистичний розподіл вибірки, що реалізована з ген. сукупності, елементам цієї вибірки притаманні кількісні ознаки Х і У.
Загальні числові характеристики ознаки Х:
Для величини У відповідно.
Кореляційний момент, вибірковий коефіцієнт кореляції
Якщо К = 0, то кореляційного зв’язку немає, якщо К≠0, то цей зв'язок існує.
|rB|≤1, -1≤rB ≤1
_________________________________
Елементи теорії регресії і кореляції.
Показником, що вимірює стохастичний зв’язок між змінними, є коефіцієнт кореляції, який свідчить з певною мірою ймовірності, наскільки зв’язок між змінними близький до строгої лінійної залежності.
За наявності кореляційного зв’язку між змінними необхідно виявити його форму функціональної залежності (лінійна чи нелінійна), а саме: ;
;
Наведені можливі залежності між змінними X і Y називають функціями регресії. Форму зв’язку між змінними X і Y можна встановити, застосовуючи кореляційні поля, які зображені на рисунках
Між ознаками Х та Y може існувати статистична залежність і за відсутності кореляційної. Але коли існує кореляційна залежність між ознаками Х та Y, то обов’язково між ними існуватиме і статистична залежність
_________________________________