- •1. Общие понятия теории рядов. Свойства рядов. Необходимы признак сходимости числового и функционального ряда
- •Комплексные числа.
- •Геометрическое изображение комплексных чисел.
- •Действия над комплексными числами.
- •6. Производная функций комплексных переменных. Условие Коши-Риммена.
- •Классическое определение вероятности.
- •Операции над событиями
- •Теоремы сложения и умножения вероятности, совместные и несовместные события, зависимые и независимые события.
- •2. Нормальный закон распределения.
- •2.1.Интегральная и дифференциальная функции распределения. Вероятность попадания в заданный интервал.
- •2.2. Вычисление вероятности заданного отклонения
- •2.3. Правило трех сигм
- •3. Показательное распределение.
- •3.1. Интегральная и дифференциальная функции распределения.
- •3.2. Числовые характеристики.
- •3.3. Функция надежности.
- •36. Распределение непрерывной двумерной случайной величины. Совместная плотность распределения и распределение компонент в отдельности.
- •37. Условие независимости и коррелированности случайных величин. Связь между этими понятиями.
- •38. Числовые характеристики двумерной случайной величины. Математическое ожидание компонент, дисперсия и ковариационный момент
- •39. Коэффициент ковариации случайных величин и её свойства
- •Закон больших чисел теоремы Чебышева, Бернули, Химчина
- •41. Основные задачи математической статистики. Выборка. Вариационный ряд.
- •Эмпирическая функция распределения и ее свойства
- •Точечные оценки параметров распределения, их свойства
- •Точечная оценка математического ожидания, ее свойства
- •Точечная оценка дисперсии, ее свойства
- •Интервальные оценки. Доверительные вероятности
- •Доверительный интервал для неизвестного математического ожидания нормально распределенной случайной величины при известной дисперсии
- •Доверительный интервал для неизвестного математического ожидания нормально распределенной случайной величины при неизвестной дисперсии
- •Стохастическая и корреляционная зависимость
- •Линейная корреляционная зависимость, уравнение линейной регрессии
37. Условие независимости и коррелированности случайных величин. Связь между этими понятиями.
Случайные величины называются независимыми, если закон распределения одной из них не зависит от того какое значение принимает другая случайная величина. Понятие зависимости случайных величин является очень важным в теории вероятностей. Условные распределения независимых случайных величин равны их безусловным распределениям. Определим необходимые и достаточные условия независимости случайных величин.
Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы функция распределения системы (X, Y) была равна произведению функций распределения составляющих.
Две случайные величины X u Y называют коррелированными, если их корреляционный момент (или коэффициент корреляции) отличен от нуля; X u Y называют некоррелированными величинами, если их корреляционный момент равен нулю.
Две коррелированные величины также и зависимы. Обратное утверждение не всегда имеет место, т. е. если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. Другими словами, корреляционный момент двух зависимых величин может быть не равен нулю, но может и равняться нулю.
Корреляционным моментом случайных величин и называют математическое ожидание произведения отклонений этих величин:
Для вычисления корреляционного момента дискретных величин используют формулу
а для непрерывных величин
Корреляционный момент служит для характеристики связи между величинами и .
Теорема 5.3.
Корреляционный момент двух независимых случайных величин и равен нулю.
Из теоремы 5.3 следует, что если корреляционный момент двух случайных величин и не равен нулю, то и — зависимые случайные величины.
Коэффициентом корреляции случайных величин и называют отношение корреляционного момента к произведению средних квадратических отклонений этих величин:
Очевидно, коэффициент корреляции двух независимых случайных величин равен нулю (так как ).
38. Числовые характеристики двумерной случайной величины. Математическое ожидание компонент, дисперсия и ковариационный момент
39. Коэффициент ковариации случайных величин и её свойства
Закон больших чисел теоремы Чебышева, Бернули, Химчина
Изучение статистических закономерностей позволило установить, что при некоторых условиях суммарное поведение большого количества случайных величин почти утрачивает случайный характер и становится закономерным (иначе говоря, случайные отклонения от некоторого среднего поведения взаимно погашаются). В частности, если влияние на сумму отдельных слагаемых является равномерно малым, закон распределения суммы приближается к нормальному. Математическая формулировка этого утверждения дается в группе теорем, называемой законом больших чисел.
41. Основные задачи математической статистики. Выборка. Вариационный ряд.
Теория Вероятности изучает закономерности массовых серий случайных испытаний. Т.е. мы находим неслучайные характеристики случайных событий, которые могут произойти. В математической статистике изучают вероятностные характеристики случайных величин на основании наблюдений. Основными задачами математической статистики являются:
- определение способов отбора данных, которые наиболее точно характеризуют изучаемые случайные явления. На основании этих данных рассматривается несколько задач:
Оценка неизвестной функции распределения. Т.е. в качестве модели рассматривается некоторая случайная величина, над которой проводятся n независимых испытаний, в результате которых получаются значения x1, x2, … ,xn.
Если закон распределения неизвестен. В частности во многих случаях СВ распределена по показательному закону. Тогда требуется на основании наблюдений найти параметры нормального закона распределения. Т.е. математическое ожидание и дисперсию. Причем, одна из этих величин может быть известна, а требуется определить другую.
Статистическая проверка гипотез. В этом случае о СВ выдвигается какое-то предположение, которое проверяется на основании наблюдения.
Генеральная совокупность – СВ, а также множество ее значений. Может быть как конечной, так и бесконечной.
Выборка - набор значений x1, x2, … ,xn, которые получаются в результате проведенных над генеральной совокупностью n независимых измерений. Выборочное значение обычно записывают в виде ковариационного ряда, т.е повторяющиеся значения записывают сколько раз они повторялись.
-
x1
x2
…
x4
…
n1
n2
…
n4
…
w1
w2
…
w4
…
Числа ni называют частотами число n = n1+n2+…+nk называют объемом выборки.