- •Оглавление
- •1) Исследователь вносит гипотезу о структуре ящика
- •2) Определение неизвестных коэффициентов a0 и a1 модели
- •3) Проверка
- •Линейная множественная модель
- •Звено первого порядка
- •Звено второго порядка (колебательное звено)
- •1. Линейный коэффициент корреляции
- •3. Коэффициент корреляции двух динамических рядов
- •4. Корреляция внутри динамического ряда
- •5. Поиск периодичности ряда
- •7. Связь двух признаков
- •Аналитический способ решения задачи 1
- •Численный способ решения задачи 1
- •Формально-математический способ
- •Методы Рунге-Кутты третьего и четвертого порядков
- •Метод Эйлера с итерациями
- •Метод Милна
- •Уравнение диффузии
- •Уравнение тепломассопереноса
- •Задача анализа (прямая задача)
- •Задача синтеза (обратная задача)
- •Тренажеры
- •Метод Монте-Карло
- •Моделирование случайного события
- •Моделирование полной группы несовместных событий
- •Метод ступенчатой аппроксимации
- •Метод усечения
- •Метод взятия обратной функции
- •Свойства нормального распределения
- •Табличный метод генерации нормально распределенных чисел
- •Метод генерации нормально распределенных чисел, использующий центральную предельную теорему
- •Метод Мюллера
- •Биномиальное распределение
- •Нормальное распределение
- •Распределение Пуассона
- •Пуассоновский поток
- •Моделирование неординарных потоков событий
- •Моделирование нестационарных потоков событий
- •Анализ временной диаграммы
- •Синтез смо
- •Принцип Δt
- •Особенности реализации принципа Δt
- •Принцип особых состояний
- •Принцип последовательной проводки заявок
- •Объектный принцип моделирования
- •Марковский процесс с дискретным временем
- •Марковские случайные процессы с непрерывным временем
- •Вычисление средних
- •Вычисление геометрии распределения
- •Оценка (по Колмогорову) совпадения эмпирического закона распределения с теоретическим
- •Оценка точности статических характеристик
- •Голосование
- •Ранжирование
- •Точность и доверие к результатам экспертизы. Оценка экспертов
- •Практика № 01. Регрессионные модели
- •1Решение задачи регрессионного анализа
Биномиальное распределение
Пусть имеется некое событие A. Вероятность появления события A равна p, вероятность непоявления события A равна 1 – p, иногда ее обозначают как q. Пусть n — число испытаний, m — частота появления события A в этих n испытаниях.
Известно, что суммарная вероятность всех возможных комбинаций исходов равна единице, то есть:
1 = pn + n · pn – 1 · (1 – p) + Cnn – 2 · pn – 2 · (1 – p)2 + … + Cnm · pm · (1 – p)n – m + … + (1 – p)n.
|
Математическое ожидание M биномиального распределения равно:
M = n · p,
где n — число испытаний, p — вероятность появления события A.
Среднеквадратичное отклонение σ:
σ = sqrt(n · p · (1 – p)).
Пример 1. Вычислить вероятность того, что событие, имеющее вероятность p = 0.5, в n = 10 испытаниях произойдет m = 1 раз. Имеем: C101 = 10, и далее: P1 = 10 · 0.51 · (1 – 0.5)10 – 1 = 10 · 0.510 = 0.0098. Как видим, вероятность наступления этого события достаточно мала. Объясняется это, во-первых, тем, что абсолютно не ясно, произойдет ли событие или нет, поскольку вероятность равна 0.5 и шансы здесь «50 на 50»; а во-вторых, требуется исчислить то, что событие произойдет именно один раз (не больше и не меньше) из десяти.
Пример 2. Вычислить вероятность того, что событие, имеющее вероятность p = 0.5, в n = 10 испытаниях произойдет m = 2 раза. Имеем: C102 = 45, и далее: P2 = 45 · 0.52 · (1 – 0.5)10 – 2 = 45 · 0.510 = 0.044. Вероятность наступления этого события стала больше!
Пример 3. Увеличим вероятность наступления самого события. Сделаем его более вероятным. Вычислить вероятность того, что событие, имеющее вероятность p = 0.8, в n = 10 испытаниях произойдет m = 1 раз. Имеем: C101 = 10, и далее: P1 = 10 · 0.81 · (1 – 0.8)10 – 1 = 10 · 0.81 · 0.29 = 0.000004. Вероятность стала меньше, чем в первом примере! Ответ, на первый взгляд, кажется странным, но поскольку событие имеет достаточно большую вероятность, вряд ли оно произойдет только один раз. Более вероятно, что оно произойдет большее, чем один, количество раз. Действительно, подсчитывая P0, P1, P2, P3, …, P10 (вероятность того, что событие в n = 10 испытаниях произойдет 0, 1, 2, 3, …, 10 раз), мы увидим:
C100 = 1, C101 = 10, C102 = 45, C103 = 120, C104 = 210, C105 = 252, C106 = 210, C107 = 120, C108 = 45, C109 = 10, C1010 = 1;
P0 = 1 · 0.80 · (1 – 0.8)10 – 0 = 1 · 1 · 0.210 = 0.0000…; P1 = 10 · 0.81 · (1 – 0.8)10 – 1 = 10 · 0.81 · 0.29 = 0.0000…; P2 = 45 · 0.82 · (1 – 0.8)10 – 2 = 45 · 0.82 · 0.28 = 0.0000…; P3 = 120 · 0.83 · (1 – 0.8)10 – 3 = 120 · 0.83 · 0.27 = 0.0008…; P4 = 210 · 0.84 · (1 – 0.8)10 – 4 = 210 · 0.84 · 0.26 = 0.0055…; P5 = 252 · 0.85 · (1 – 0.8)10 – 5 = 252 · 0.85 · 0.25 = 0.0264…; P6 = 210 · 0.86 · (1 – 0.8)10 – 6 = 210 · 0.86 · 0.24 = 0.0881…; P7 = 120 · 0.87 · (1 – 0.8)10 – 7 = 120 · 0.87 · 0.23 = 0.2013…; P8 = 45 · 0.88 · (1 – 0.8)10 – 8 = 45 · 0.88 · 0.22 = 0.3020… (самая большая вероятность!); P9 = 10 · 0.89 · (1 – 0.8)10 – 9 = 10 · 0.89 · 0.21 = 0.2684…; P10 = 1 · 0.810 · (1 – 0.8)10 – 10 = 1 · 0.810 · 0.20 = 0.1074…
Разумеется, P0 + P1 + P2 + P3 + P4 + P5 + P6 + P7 + P8 + P9 + P10 = 1.