Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции объединенные.doc
Скачиваний:
27
Добавлен:
08.11.2019
Размер:
5.25 Mб
Скачать

1 Математические основы теории информации.

Теория вероятностей — это наука, изучающая закономерности случайных явлений.

Случайное событие — такое событие, может произойти или не произойти при осуществлении определенного комплекса условий. Примеры: вирусная атака; отказ оборудования, ошибка пользователя.

Случайные события называются несовместимыми, если они не могут появиться одновременно. Случайные события образуют полную группу попарно несовместимых событий, если при каждом испытании (исходе) должно появиться только одно из них.

Достоверное событие — такое, вероятность которого равна 1, т.е. при данном комплексе условий это событие непременно должно произойти: P{A}=1.

Если полная группа состоит из 2–х несовместимых событий, т.е. наступление одного из них равносильно ненаступлению другого, то такие случайные события называются взаимно противоположными. При этом:

, (2.1)

т.е. (2.2)

Невозможное событие — такое, которое не может произойти ни при каком повторении испытания: .

Случайные события A и B называются независимыми, если наступление одного из них не может влиять на наступление другого.

а) Сумма событий:

б) Произведение событий:

Рисунок — a) сумма событий; б) произведение событий.

Вероятность P{A} (статистическое определение) — это относительная частота появления события при достаточно большом числе одинаковых ситуаций (испытаний): (2.3)

Основные свойства вероятностей:

  • ; (2.4)

  • ; (2.5)

  • Для несовместных событий: ; (2.6)

  • Условная вероятность: ; (2.7)

  • Для независимых случайных событий: ; (2.8)

Случайные величины.

Случайная величина  — это числовая функция, заданная на множестве элементарных событий.

Дискретная случайная величина. Величина называется дискретной случайной величиной, если все ее возможные значения образуют конечную или бесконечную последовательность чисел и если принятие ею каждого из указанных значений есть случайное событие с определенной вероятностью.

Возможное значение

X1

X2

Xk

Вероятность (p)

p1

p2

pk

Закон распределения вероятностей величины .

Закон распределения:

Рисунок — Закон распределения.

Для полной группы событий . (2.9)

Математическое ожидание: . (2.10)

Дисперсия: (2.11) характеризует меру отклонения случайной величины от ее математического ожидания.

Среднеквадратическое отклонение: . (2.12)

Непрерывная случайная величина:

а) Интегрирующая функция распределения:

б) Дифференцирующая функция распределения (плотность распределения вероятности):

Математическое ожидание: (2.13)

Дисперсия: (2.14)

Среднеквадратическое отклонение: (2.15)

Статистические оценки:

  • Для математического ожидания дискретной случайной величины:

(2.16)

  • Для дисперсии:

(2.17)

Законы распределения случайных величин:

Распределение Пуассона: (2.18)

Экспоненциальный закон: (2.19)

Нормальный закон: (2.20)

Рисунок — Правило “трех сигм”.

Правило "трех сигм" (для нормального закона распределения):

; (2.21)

В диапазоне ;

Центральная предельная теорема (А.М.Ляпунов, 1900г.):

Сумма достаточно большого количества независимых случайных величин, каждая из которых пренебрежимо мала по сравнению с суммой, стремится в пределе к нормально распределенной случайной величине.

Закон больших чисел:

C ростом числа событий N относительная частота события приближается к вероятности p этого события. Более строго, справедливо следующее утверждение:

для любого вероятность отклонения частоты от p на величину, меньшую , при приближается к 1, т.е. . (2.22)

Пример 1.

Два стрелка независимо друг от друга стреляют по одной и той же цели; вероятность попадания для первого стрелка равна P{A} = 0,9, для второго: P{B} = 0,8.

Требуется определить вероятность поражения цели, т.е. вероятность того, что хотя бы один стрелок попадет в цель.

Решение: .

Пример 2. Условная вероятность

Пусть в коробке находится N шаров, одинаковых на ощупь, но различающихся по цвету и по рисунку:

K — количество цветных шаров (N–K белых);

L — количество шаров с рисунком (N–L без рисунка);

M — количество цветных шаров с рисунком.

Допустим, что событие A — заключается в появлении цветного шара; событие B — в появлении шара с рисунком. Тогда A*B — появление цветного шара с рисунком.

Используя данные обозначения, можно записать:

 — условная вероятность события B при условии осуществления события A.

Аналогично:

Для независимых случайных событий: ;

Пример 3.

Из колоды (36 карт) достают 2 карты. Какова вероятность того, что обе карты — это тузы?

Решение: Пусть A — появление 1–го туза; B — появление 2–го туза. Тогда вероятность вынуть 2 туза подряд:

, где P{A} — вероятность достать 1–й туз, P{B/A} — вероятность достать 2–й туз (при условии, что 1–я карта также была тузом).