- •Классическое определение вероятности.
- •2 Основные правила и формулы комбинаторики: перестановки, размещения, сочетания.
- •Выборки элементов с повторениями
- •3 Случайные события и алгебра событий. Непосредственное вычисление вероятностей
- •4 Основные теоремы теории вероятностей.
- •Случайные величины (дискретные и непрерывные). Закон распределения дискретной случайной величины.
- •Пространство элементарных событий
- •Алгебра событий
- •Вероятность
- •Определение случайной величины
- •Классификация
- •Методы описания
- •Функция распределения вероятностей случайной величины. Плотность распределения.
- •Законы равномерного и нормального распределений
- •Свойства
- •Моделирование нормальных случайных величин
- •Центральная предельная теорема
- •I b Законы равномерного распределений
- •II b Равномерный закон распределения.
- •Вероятность попадания в заданный интервал нормальной случайной величины
- •Числовые характеристики случайных величин.
- •10 Схема повторных испытаний. Формула Бернулли. Предельные теоремы в схеме Бернулли (Пуассона, Муавра-Лапласа).
- •Предмет и основные задачи математической статистики.
- •Классификация статистической информации.
- •Классификация статистических методов
- •Понятия “генеральная совокупность”, “выборочная совокупность” и “репрезентативная совокупность ”. Способы выбора из генеральной совокупности.
- •Статистическое распределение выборки. Эмпирическая функция распределения. Графическое изображение статистического распределения.
- •Числовые характеристики распределений: мода, медиана, среднее.
- •Числовые характеристики распределений: генеральная средняя и дисперсия; выборочная средняя и дисперсия.
- •1.2.Выборочная средняя.
- •1.3. Генеральная дисперсия.
- •1.4.Выборочная дисперсия.
- •Функциональная, статистическая и корреляционная зависимости. Выборочное уравнение регрессии. Отыскание параметров выборочного уравнения прямой линии среднеквадратичной регрессии.
- •Элементы теории корреляции. Коэффициент корреляции Пирсона.
- •9 Элементы теории корреляции. Коэффициент ранговой корреляции Спирмена.
- •В каких случаях можно обойтись без ранжирования
- •10 Точечные оценки параметров распределенияи методы их нахождения. Метод моментов.
- •4.1. Точечная оценка параметров распределения
- •Преимущества и недостатки метода
- •11 Точечные оценки параметров распределения и методы их нахождения. Понятие о методе наименьших квадратов. Метод наименьших квадратов (расчёт коэффициентов)
- •Интервальные оценки. Построение доверительного интервала для оценки математического ожидания при известной дисперсии.
4 Основные теоремы теории вероятностей.
Теорема сложения вероятностей несовместимых событий .. Зависимые и независимые события, условные вероятности. Умножение вероятностей. Вероятностьпоявления хотя бы одной случайной действия. Теорема сложения вероятностей совместных событий .. Надежность системы. Формулы полной вероятности Байеса.
Если случайные события А1, А2, ..., Аn попарно несовместны, то вероятность появления хотя бы одного из этих событий равна сумме их вероятностей. ) = Р (А1) + Р (А2) + ... + Р (Аn). Сумма вероятностей полной группы случайных событий равна единице Р (А1) + Р (А2) + ... + Р (Аn) = 1 Суммавероятности противоположных событий равна единице Р (А) + Р (A) = 1 Зависимые и независимые события, условные вероятности. Формулировка Обозначение Случайные события А и В называются зависимыми, если вероятность появления одного из них зависит от появления или непоявления второго события.
Случайные события А и В называются зависимыми, если вероятность появления одного события не зависит от появления или непоявления другого Вероятность события В, вычисленная при условии наступления события А, называют условной вероятностью события В. РА (В) или Р (В / А) Если события А и В независимы, то условная вероятность равна безусловной вероятности РА(В) = Р (В) Умножение вероятностей Формулировка Аналитический запись Вероятность совместной появления двух случайных событий А и В равна произведению вероятностей одного из этих событий и условной вероятности второго события при условии, что первое поле появилась Р (А · В) = Р (А) · РА (В) = Р (В) · РВ (А) < br> Вероятность совместной появления двухнезависимых случайных событий А и В равна произведению вероятностей этих событий. Р (А · В) = Р (А) · Р (В) В случае конечной числа независимых случайных событий Р (А1 · А2 · ... · n) = Р (А1) · Р (А2) · ... · Р (Аn) 4. Вероятность появления хотя бы одного случайного события 5. Теорема сложения вероятностей совместных событий. Формулировка Аналитическийзапись Если случайные события А и В совместимы, то вероятность их объединения равна сумме их вероятностей без вероятности их совместного появления. Р (А U В) = Р (А) + Р (В) — Р (А · В) Если события А и В независимы Если события А и В зависимы Р (А U В) = Р (А) + Р (В) — Р (А) · Р (В) Р (А U В) = Р (А) + Р (В ) - Р (А) · РА (В) 6.Надежность системы Определение. Надежностью системы называют вероятность его безотказной работы в определенное время t. Система Формулы для вычисления надежности Формулы полной вероятности и Байеса Формулировка Формула Формула полной вероятности.
Если случайно событие А может наступить только совместно с одной из несовместимых между собой событий В1, В2, ..., Вn, образующих полную группу, тогда вероятность события а вычисляется по формуле: Формула Байеса
Она используется, когда событие F, которая может наступить только с одной из гипотез А1, А2, ..., Аn, образующих полную группу событий, состояласьи необходимо сделать количественную переоценку априорных вероятностей этих гипотез Р (А1), Р (А2), ..., Р (Аn), известных до испытания, т.е. нужно найти апостериорные (после опыта) условные вероятности гипотез РF (А1), РF (А2) , ..., РF (n) Теорема. Вероятность появления хотя бы одного из событий А1, А2, ... Аn, независимых в совокупности, равнаразницы между единицей и произведением вероятностей противоположных событий x01001, x01002, ..., x0100n:
Это взято с реферата и единственное, что более мене объясняет хоть что-то.