- •Оглавление
- •Глава 1. Теория вероятностей 10
- •Глава 2. Математическая статистика 44
- •Глава 3. Случайные процессы 67
- •Введение
- •Глава 1. Теория вероятностей
- •1.1. Случайные события Основные понятия теории вероятностей
- •Основные определения
- •Операции над случайными событиями
- •Элементы комбинаторики
- •Классическое определение вероятности
- •Свойства вероятности
- •Вопросы для самопроверки
- •1.2. Теоремы сложения и умножения вероятностей Теорема сложения вероятностей
- •Теорема умножения вероятностей Условная вероятность
- •Обобщенная теорема умножения вероятностей
- •Независимость случайных событий
- •Вопросы для самопроверки
- •1.3. Формула Бернулли. Формула полной вероятности Повторение испытаний. Формула Бернулли
- •Формула полной вероятности
- •Вопросы для самопроверки
- •1.4. Дискретные случайные величины
- •Закон распределения дискретной случайной величины
- •Биномиально распределенные случайные величины
- •Математическое ожидание случайной величины
- •Свойства математического ожидания
- •Дисперсия случайной величины
- •Свойства дисперсии
- •Функция распределения случайной величины
- •Свойства функции распределения
- •Вопросы для самопроверки
- •1.5. Непрерывные случайные величины
- •Плотность вероятности непрерывной случайной величины
- •Cвойства функции плотности вероятности
- •Нормальное распределение
- •Правило трех сигм
- •Независимость случайных величин. Коэффициент корреляции
- •Свойства коэффициента корреляции
- •Предельные теоремы теории вероятностей
- •Закон больших чисел в форме Чебышева
- •Следствия из закона больших чисел
- •Центральная предельная теорема (теорема Ляпунова)
- •Вопросы для самопроверки
- •Глава 2. Математическая статистика
- •2.1. Основные понятия математической статистики
- •Приемы обработки выборок
- •Построение гистограммы относительных частот
- •Точечные оценки параметров генеральной совокупности
- •Дополнительные свойства точечных оценок
- •Проверка взаимозависимости генеральных совокупностей. Выборочный коэффициент корреляции
- •Интервальные оценки параметров генеральной совокупности
- •Вопросы для самопроверки
- •2.2. Статистическая проверка статистических гипотез
- •Этапы проверки статистических гипотез
- •Проверка гипотез о параметрах генеральных совокупностей
- •Проверка гипотезы о виде распределения генеральной совокупности. Критерий согласия Пирсона
- •Вопросы для самопроверки
- •Глава 3. Случайные процессы
- •3.1. Элементы теории случайных процессов Определение случайного процесса
- •Основные характеристики случайных процессов
- •Свойства математического ожидания
- •Дисперсия случайного процесса и ее свойства
- •Корреляционная функция случайного процесса и ее свойства
- •Нормированная корреляционная функция
- •Взаимная корреляционная функция и ее свойства
- •Нормированная взаимная корреляционная функция
- •Производная и интеграл от случайной функции
- •Интеграл от случайной функции и его характеристики
- •Вопросы для самопроверки
- •Заключение
- •Библиографический список
Нормированная корреляционная функция
= /( (t1) (t2)) – называется нормированной корреляционной функцией, здесь (t) = (Dx(t))½.
Докажем, что | | ≤ 1. Это следует из того, что при фиксированных t1 и t2 величина равна коэффициенту корреляции двух случайных величин, Х(t1) и Х(t2), соответствующее свойство которого доказано в пункте 5.3.
Используя свойство 1 корреляционной функции, получим:
= / Dx(t) = 1.
Нормированная корреляционная функция имеет следующий вероятностный смысл: чем ближе | | к 1, тем линейная связь между сечениями Х(t1) и Х(t2) сильнее; чем ближе | | к 0, тем эта связь слабее.
Пример. Пусть X(t) = N(a, σ). Найдем mx(t), Dx(t), , .
Согласно свойству 2 математического ожидания и свойству 3 дисперсии приходим к соотношениям:
mx(t) = M[ N(a, σ)] = M[N(a, σ)] = a,
Dx(t) = D[ N(a, σ)] = D[N(a, σ)] = σ².
Имеем далее
= N(a, σ)– mx(t) = (N(a, σ) – a) = (a, σ).
Тогда по свойству 4 корреляционной функции получим:
= M[ ] = M[ (a, σ) (a, σ)] =
= М[ (a, σ)] = σ².
В результате = /( (t1) (t2)) = 1.
Из последнего равенства следует, что случайные процессы Х(t1) и Х(t2) линейно зависимы.
Взаимная корреляционная функция и ее свойства
Для оценки степени зависимости двух случайных процессов X(t) и Y(t) вводится взаимная корреляционная функция
= M[ ].
Случайные процессы X(t) и Y(t) называют коррелированными, если ≠0 для некоторых t1, t2, и некоррелированными, если = 0 для всех t1, t2.
Свойства .
1. = .
2. Пусть X1(t) = X(t)+φ(t), Y1(t) = Y(t)+ (t), где φ(t), (t) – неслучайные функции. Тогда = .
3. Пусть X1(t) = X(t)φ(t), Y1(t) = Y(t) (t), где φ(t), (t) – неслучайные функции. Тогда = φ(t1) (t2) .
Свойства 1–3 доказываются точно так же, как аналогичные свойства для корреляционной функции.
Нормированная взаимная корреляционная функция
= /( (t1) (t2)) – называется нормированной взаимной корреляционной функцией, здесь
(t) = (Dx(t))½, ( ) = (D (t))½.
Нормированная взаимная корреляционная функция имеет те же свойства, что и нормированная корреляционная функция, в частности, | | ≤ 1.
Характеристики суммы случайных функций
Пусть X(t) и Y(t) – случайные функции. Положим Z(t) = X(t) + + Y(t). Тогда по свойству 3 математического ожидания имеем m (t) = m (t) + m (t).
Cправедливо утверждение:
= + + + .
Доказательство. По определению
= M[ ]. (15)
Найдем выражение для и подставим его в правую часть равенства (15). Для этого докажем, что = + . Действительно = Z(t) – mz(t) = X(t)+ Y(t) – M[X(t)+ Y(t)]= + + . Подставляя в (15) и привлекая свойство 3 математического ожидания, получим:
= M[( + )( + )] = M[ +
+ + + ] = M[ ] +
+ M[ ]+M[ ]+M[ ].
Согласно определениям корреляционной функции и взаимной корреляционной функции утверждение доказано.
Следствие 1. Пусть X(t) и Y(t) – некоррелированные случайные функции (т.е. = 0 для всех t1, t2).
Тогда = + , Dz(t) = Dx(t)+Dy(t).
В самом деле, первое равенство следствия 1 вытекает из доказанного утверждения при = = 0, второе следует из первого при t1 = t2 = t.
Следствие 2. Пусть в условиях следствия 1 Y(t) ≡ Y – случайная величина. Тогда = + Dy. Доказательство следует из формулы = M[ ] = Dy и следствия 1.
Пример. Пусть X(t) = tU, Y(t) = t²V, где U и V – некорре-лированные случайные величины ( = 0), причем M(U) = 3, M(V) = 5, D(U) = 6, D(V) = 0.2. Найдем mz(t), Dz(t), , где Z(t) = X(t) + Y(t).
Согласно свойствам математического ожидания M[Z(t)] = M[X(t)] + M[Y(t)] = 3t + 5t². Из следствия 1 получим = + . Вычислим и .
Имеем = M[ ] = M[t1 t2 ] =
= t1 t2 M[ ] = t1 t2 D(U) = 6 t1 t2. Аналогичным образом получим = 0.2(t1 t2)2. Следовательно, = 6 + + 0.2 (t1 t2)2, Dz(t) = = 6t2+0.2t4.