- •1. Случайные события.
- •2. Классическое определение вероятности и ее свойства.
- •3.Аксиоматическое определенияе вероятности
- •4.Формулы комбинаторики. Гипергеометрическое распределение.
- •5. Условная вероятность. Независимость событий.
- •6. Формула полной вероятности. Формула Байеса.
- •7. Схема независимых испытаний Бернулли.
- •8. Предельные теоремы в схеме Бернулли. Теорема Пуассона.
- •10. Плотность распределения вероятностей и ее свойства.
- •11. Математическое ожидание и его свойства.
- •Свойства м
- •12. Дисперсия и ее свойства.
- •13. Коэффициент корреляции и ковариация.
- •14. Моменты.
- •15. Основные дискретные распределения случайных величин.
- •1. Биноминальное распределение.
- •2. Распределение Пуассона.
- •3. Геометрическое распределение.
- •16. Равномерное и показательное распределение.
- •17. Нормальное распределение.
- •18. Двумерная функция распределения и ее свойства.
- •19. Двумерная плотность вероятности и ее свойства.
- •20. Независимость случайных величин
- •21. Условный закон распределения.
- •22. Неравенство Чебышева. Сходимость случайных последовательностей.
- •24. Центральная предельная теорема.
- •25. Выборочный метод.
- •26.Эмпирическая функция распределения и её свойства.
- •27. Полигон и гистограмма.
- •28. Числовые характеристики выборки.
- •29. Точечное оценивание.
- •30.Стандартная ошибка точечной оценки
- •32. Доверительные интервалы.
- •33. Распределение х2 Стьюдента и Фишера.
- •34. Доверительные интервалы для оценки математического ожидания при известном .
- •35. Доверительные интервалы для оценки матожидания нормального распределения при неизвестном .
- •36. Проверка статистических гипотез.
- •37. Построение критической области.
- •38. Критерий согласия Пирсона.
- •40. Сравнение дисперсий двух нормальных выборок.
- •42. Дисперсионный анализ.
- •43. Парная регрессия.
- •44 .Парный коэффициент корреляции, его св-ва
- •45.Проверка гипотезы о достоверности выборочного коэффиц. Коррелеляции
- •46. Критерий Манна-Уитни.
10. Плотность распределения вероятностей и ее свойства.
Плотностью распределения вероятностей Св называется производная функции распределения:
. Или Р=F’(x)
Свойства плотности вероятности:
1. , , так как это производная неубывающей функции.
2. ,
3.
3. .
4. Свойство нормировки:
.
В частности, если все возможные значения случайной величины заключены в интервале от a до b, то
.
СВ называется распределенной по равномерному закону, если ее плотность вероятности принимает постоянное значение в пределах заданного интервала, а вне этого интервала:
11. Математическое ожидание и его свойства.
Мат. Ожид. дискретной СВ называется сумма произведений всевозможных её значений на вероятности этих значений.
,
если этот ряд сходится абсолютно.
Замеч. Если мат. Ожидание равно бесконечности, то говорят, что оно не существует.
характеризует среднее значение случайной величины, взвешенное по вероятности.
Мат ожид. непрерывной СВ с плотностью вероятности называется интеграл
=
если он сходится абсолютно.
Свойства м
1. , c=const
2. М суммы СВ равно сумме их м ожиданий:
.
3. Для независимых СВ и М произведения равно произведению Мат ожиданий
= .
Следствие Постоянный множитель выносится за знак мат. ожидания
12. Дисперсия и ее свойства.
Дисперсией называется математическое ожидание квадрата отклонения случайной величины от своего мат. ожидания.
Выполним преобразования:
,
.
Для дискретной случайной величины с законом распределения (xi pi ) дисперсия равна
D=(xi-M)2 pi , или
D =
Для непрерывной случайной величины с плотностью вероятности дисперсия равна
.
Дисперсия характеризует рассеяние возможных значений вокруг своего математического ожидания.
Средним квадратическим отклонением называется корень квадратный из дисперсии.
Свойства дисперсии
1.Дисперсия постоянной равна нулю. DC=M(C-MC)2=M(C-C)2=М(0)=0
2. Для независимых случайных величин дисперсия суммы равна сумме дисперсий.
3. Если и = const, то
Следствие
Постоянный множитель выносится за знак дисперсии в квадрате
.
.
13. Коэффициент корреляции и ковариация.
Коэффициентом корреляции называется
( 1, 2)=
Свойства
1.
2. если 1 и 2 независимы, то коэффициент корреляции равен 0. Обратное не верно. Если =0, то говорят, что 1 и 2 некоррелированы.
3.если 1 и 2 связаны линейной зависимостью 2=a1+b, то в этом случае ( 1, 2)=1. Причем если а >0, то ( 1, 2)=1; если а<0, то
( 1, 2)=-1.
Если , то говорят, что 1 и 2 связаны корреляционной зависимостью, тем более тесной, чем ближе к 1.
Коэффициент корреляции служит для количественной характеристики меры линейной ависимости случайных величин.
Ковариацией случайных величин
1, 2Называется мат. Ожидание. произведения отклонений случайных величин от своих Мат ожид.
Cov( 1, 2)=M(( 1-M 1)( 2-M 2))=cov ( 1, 2)=М ( 1 ∙ 2) – М(1)М(2) (св-во мат. ожи.)
Свойства ковариации
1. cov( 1, 1)=M( 1-M 1)2=D 1
2. для независимых случайных величин ковариация равна 0
cov ( 1, 2)=М ( 1 ∙ 2) – М(1)М(2)= М(1)М(2) - М(1)М(2) =0
Обратное не верно. Можно привести пример, когда ковариация равен 0, но случайные величины зависимы.
3. Постоянный множитель выносится за знак ковариации . cov (с 1, 2)=с* cov ( 1, 2)
4.
Ковариация служит для качественной характеристикой зависимости м/у случ. вел-ми.