- •1. Случайные события.
- •2. Классическое определение вероятности и ее свойства.
- •3.Аксиоматическое определенияе вероятности
- •4.Формулы комбинаторики. Гипергеометрическое распределение.
- •5. Условная вероятность. Независимость событий.
- •6. Формула полной вероятности. Формула Байеса.
- •7. Схема независимых испытаний Бернулли.
- •8. Предельные теоремы в схеме Бернулли. Теорема Пуассона.
- •10. Плотность распределения вероятностей и ее свойства.
- •11. Математическое ожидание и его свойства.
- •Свойства м
- •12. Дисперсия и ее свойства.
- •13. Коэффициент корреляции и ковариация.
- •14. Моменты.
- •15. Основные дискретные распределения случайных величин.
- •1. Биноминальное распределение.
- •2. Распределение Пуассона.
- •3. Геометрическое распределение.
- •16. Равномерное и показательное распределение.
- •17. Нормальное распределение.
- •18. Двумерная функция распределения и ее свойства.
- •19. Двумерная плотность вероятности и ее свойства.
- •20. Независимость случайных величин
- •21. Условный закон распределения.
- •22. Неравенство Чебышева. Сходимость случайных последовательностей.
- •24. Центральная предельная теорема.
- •25. Выборочный метод.
- •26.Эмпирическая функция распределения и её свойства.
- •27. Полигон и гистограмма.
- •28. Числовые характеристики выборки.
- •29. Точечное оценивание.
- •30.Стандартная ошибка точечной оценки
- •32. Доверительные интервалы.
- •33. Распределение х2 Стьюдента и Фишера.
- •34. Доверительные интервалы для оценки математического ожидания при известном .
- •35. Доверительные интервалы для оценки матожидания нормального распределения при неизвестном .
- •36. Проверка статистических гипотез.
- •37. Построение критической области.
- •38. Критерий согласия Пирсона.
- •40. Сравнение дисперсий двух нормальных выборок.
- •42. Дисперсионный анализ.
- •43. Парная регрессия.
- •44 .Парный коэффициент корреляции, его св-ва
- •45.Проверка гипотезы о достоверности выборочного коэффиц. Коррелеляции
- •46. Критерий Манна-Уитни.
43. Парная регрессия.
Пусть изучается взаимосвязь между двумя количественными признаками Х и У. Х и У могут быть независимы, связаны между собой функциональной зависимостью и корреляционной. завис-тью. При корреляции завис-ть изм-ний кажд. отд. знач-я Х необязат-но влечет за собой изм-е Y, однако изм-е привод. к изм-ю .
Завис-ть вида y=f(x)+, - ошибка оценки. Чтобы установить вид завис-ти строится поле корреляции. На ОхOу наносят координаты (xi, yj) и по располож-ю точек делают вывод о виде завис-ти. Пусть вид завис-ти линейный.
Коэф-ты b0 и b1 найдем по методу наименьш. квадратов х, у–выбор. знач-я , n–объем выборки.
теорет. знач-я y. Найдем b0 и b1 такие, при кот. ф-я S достиг. минимума.
Методика построения ур-я регрессии
44 .Парный коэффициент корреляции, его св-ва
Выборочным коэффициентом корреляции признаков Х и У называется величина:
.
Квадрат коэффициента корреляции называется коэффициентом детерминации
.
Свойства выборочного коэффициента корреляции:
1. .
2. Если Х и Y независимы, то коэффициент корреляции равен 0.
3. Если X и Y связаны линейной зависимостью , то причем при , при .
Если , то говорят, что X и Y связаны корреляционной зависимостью, тем более тесной, чем ближе к 1. Коэффициент корреляции служит для количественной характеристики зависимости между изучаемыми признаками.
45.Проверка гипотезы о достоверности выборочного коэффиц. Коррелеляции
Пусть по выборке объема n найден выборочный коэффициент корреляции, причем . Но это еще не означает, что коэффициент корреляции генеральной совокупности будет также отличаться от нуля. Проверим нулевую гипотезу Н0 о равенстве нулю коэффициента корреляции генеральной совокупности при конкурирующей гипотезе .
Если нулевая гипотеза будет отклонена, то это будет означать, что коэффициент корреляции значимо отличается от нуля, а Х и Y коррелированны, т.е. связаны линейной корреляционной зависимостью. Если нулевая гипотеза принята, то величины не связаны линейной зависимостью.
В качестве статистики при проверке нулевой гипотезы принимается случайная величина
,
46. Критерий Манна-Уитни.
Пусть имеется две независимых выборки Х,У обьемами n1, n2.
Пусть по их законе распределения ничего неизвестно.
F(x)=F
G(y)=G
Поставим задачу сравнения этих ф-ций. Критерий проверки таких гипотез наз.- непараметрическим. Суть этих критериев состоит в том, что они не используют исходные количественные данные.
H0: F(x)= G(y)
H1: F(x)≠ G(y)
Критерий Манна-Уитни не использует количество данных, а основано на понятиях >< - оно наз. ранговым.
Две выборки Х,У объединяются в одну и упорядочиваются по возрастанию. Каждое исходное значение заменяется своим рангом – номером по порядку объединенной выборки.
R 1,i – ранг i-го значения из выборки х.
R 2,j – ранг j-го значения выборки y.
Подсчитаем сумму рангов 1 и 2 выборки:
R 1 = ∑ R 1,i . R 2 = ∑ R 2,j
Обозначим R=min { R 1, R 2 }
Статистика Манна-Уитни имеет вид: U =R – ½* n1 (n1 +1), R 1 < R 2.
MU= (n1 * n2)/2 DU= ((n1 + n2)/12 )* (n1 * n2 )
Распределение статистики U имеет спец. вид n1 / n2 =α< +∞, но при n1, n2 →+∞ распределение U быстро стремится к нормальному. Это сходимость настолько быстрая, что при n1 * n2 >8 можно пользоваться нормальным распределением при проверке H0. В этом случае нужно сделать преобразование стандартизации для нормального распределения.
Zнабл.=(U-MU)/√DU и по табл. норм. распред. на основании выбронного ур-ния значимости нах. Zкр.
Если Zнабл< Zкр, то нет основания отвергать H0,
Если ׀ Zнабл׀> Zкр, то отвергаем гепотизу H0 и принимаем H1.