- •1.Случайные события. Действия над событиями.
- •2.Классическое определение вероятности и ее свойства.
- •3.Аксиоматическое определение вероятности.
- •4. Формулы комбинаторики. Гипергеометрическое распределение.
- •5. Условная вероятность. Независимость событий.
- •6. Формула полной вероятности. Формула Байеса.
- •7. Схема независимых испытаний Бернулли.
- •8. Предельные теоремы в схеме Бернулли.
- •9. Функция распределения вероятностей и её свойства.
- •10. Плотность распределения вероятностей и её свойства.
- •11. Математическое ожидание и его свойства.
- •12. Дисперсия и ее свойства.
- •13. Коэффициент корреляции и ковариация.
- •14. Моменты
- •15. Основные дискретные распределения случайных величин.
- •16. Равномерное и показательное распределение.
- •17. Нормальное распределение.
- •18. Двумерная функция распределения и ее свойства.
- •19. Двумерная плотность вероятности и ее свойства.
- •20. Независимость случайных величин
- •21. Условный закон распределения.
- •22. Неравенство Чебышева. Сходимость случайных последовательностей.
- •23.Теорема Чебышева. Теорема Бернулли.
- •24. Центральная предельная теорема.
- •25. Выборочный метод.
- •26. Эмпирическая функция распределения.
- •27. Гистограмма и полигон.
- •28. Числовые характеристики выборки.
- •29. Точечное оценивание.
- •30. Стандартная ошибка точечной оценки
- •32. Распределение , Стьюдента и Фишера.
- •33. Доверительные интервалы для оценки математического ожидания нормального распределения при известном.
- •35 Проверка статистических гипотез.
- •36. Построение критической области.
- •37. Критерий согласия Пирсона.
- •38. Вычисление теоретических частот для нормального распределения.
- •40.Сравнение средних двух нормальных выборок.
- •41. Дисперсионный анализ.
- •42. Парная регрессия.
- •43. Парный коэффициент корреляции, его свойства.
- •44. Проверка гипотез о достоверности коэффициента корреляции.
42. Парная регрессия.
Интересует установление взаимосвязи между двумя признаками X и Y.
X и Y могут быть независимы, связаны между собой функциональной либо корреляционной зависимостью. При корреляции зависимость изменений каждого отдельного значения Х необязательно влечет за собой изменение Y, однако изменение приводит к изменению .
Зависимость вида y=f(x)+, - ошибка оценки.
Чтобы установить вид зависимости строится поле корреляции. На XOY наносят координаты (xi, yj) и по расположению точек делают вывод о виде зависимости.
Пусть вид зависимости линейный:
Коэффициенты b0 и b1 найдем по методу наименьших квадратов
где xi , yi – выборочные значения; n – об. Выборки.
теоретические значения y.
Найдем b0 и b1 такие, при которых функция S достигает минимума.
{
Перейдем к средним значениям, поделив на n.
{
(2)
Методика построения уравнения регрессии:
43. Парный коэффициент корреляции, его свойства.
(4)
Коэффициент обладает все теми же свойствами, что и теоретический коэффициент корреляции.
-
если x и y независимы, то 0.
-
-1<= 1
-
если x и y связаны линейной зависимостью, т.е. при , то
b>0, =1 b<0, =-1
Таким образом коэффициент является количественной характеристикой зависимости x и y. Чем ближе к единице, тем теснее и ближе к линейной зависимости между X и Y.
44. Проверка гипотез о достоверности коэффициента корреляции.
Пусть на выборке объема n найден коэффициент корреляции X и Y и он отличен от 0. Возможно, при этом, что генеральный коэффициент корреляции равен 0, а выборочное отличие от 0 случайно.
Проверим
H0: =0 H1:
Для проверки гипотезы H0 используем свойство T
При справедливости H0 эта случайная величина имеет распределение Стьюдента с (n-2) числом степеней свободы. Проверка H0 осуществляется следующим образом
-
вычисляется наблюдаемое значение критерия
-
по таблице критических точек распределения Стьюдента
max
|Тнабл|>Tкр, то H0 отвергается и принимается H1, следовательно X и Y связаны между собой достоверной корреляционной зависимостью. |Тнабл|<Tкр, нет основания отвергнуть H0, то недостоверно отличается от 0 (случайно) и между X и Y нет корреляционной зависимости. Методика построения уравнения регрессии
1