Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ПРАКТ_1_МАТЕМ_ВВЕДЕНИЕ.doc
Скачиваний:
23
Добавлен:
02.04.2015
Размер:
544.77 Кб
Скачать

1.2. Теория вероятностей

Основные определения

Def. Случайное событие – некоторое событие, которое в результате опыта при выполнении определённых условий может наступить, а может не наступить.

Замечание. Следует отметить, что с точки зрения исследователя, наблюдающего это события, каждый раз условия опыта абсолютно одинаковы, тем не менее, в одном случае событие наступает, а в другом – нет. Это происходит из-за того, что мы не знаем о существовании каких-то факторов, влияющих на событие, или знаем, но не можем их зафиксировать.

Тем не менее, факт наступления случайного события подчиняется определённой закономерности.

Def. Вероятность случайного события А – величина P(А), 0  P(А)  1, определяющая объективную возможность наступления случайного события. Событие называется достоверным, если при выполнении определённых условий оно всегда наступает, его вероятность равна 1. Событие называется невозможным, если при выполнении определённых условий оно никогда не наступит, его вероятность равна 0.

Def. Несколько событий называются несовместными, если никакие два из них не могут произойти вместе. В противном случае, события называются совместными.

Def. События образуютполную группу, если

- сумма их вероятностей равна 1;

- для любых событияинесовместны.

В простейшем случае вероятность можно вычислить по формуле

, (1.3)

где m – число случаев, благоприятствующих наступлению события А, n – общее число случаев. При этом предполагается, что все случаи равновероятны.

Пример 1.2. Бросается игральная кость. Чему равна вероятность того, что выпавшее число очков делится на 3?

Решение. Общее число случаев – 6. Если кость симметрична, то все они равновероятны. Из них благоприятствуют наступлению события 2 случая (3 и 6 очков). Следовательно, вероятность интересующего события равна 1/3.

Вероятность наступления хотя бы одного из двух несовместных событий равна сумме вероятностей каждого события в отдельности.

P(A или В) = Р(А) + Р(В).

Сумма вероятностей полной группы несовместных событий равна 1.

.

Сумма вероятностей противоположных событий равна I.

, отсюда .

Def. Событие А называют независимым от события В, если вероятность события А не зависит от того, произошло или не произошло событие В. Событие А называется зависимым от события В, если вероятность события А меняется в зависимости от того, произошло событие В или нет.

Пример 1.3.

1) Бросаются две монеты. Событие А – появление герба на 1-й монете; Событие В – появление герба на 2-й монете.

В данном случае событие А не зависит от того, произошло событие В или нет. Событие А не зависит от В.

2) В урне 2 белых шара и 1 чёрный. Сначала Петя, потом Саша вынимают из урны по одному шару. События: А – Петя вынул белый шар; В – Саша вынул белый шар.

Вероятность события А в любом случае равна 2/3. А вероятность события В зависит от исхода события А. Если А наступило, значит в урне остался 1 белый шар и 1 чёрный. Тогда Р(В) = 1/2. А если А не наступило, то в урне осталось 2 белых шара и тогда Р(В) = 1. Следовательно, В зависит от А.

Вероятность совместного появления двух независимых событий равна произведению вероятностей каждого события в отдельности:

Р(А и В)(А) Р(В).

В примере 1.3 1) Р(А и В)=1/2 1/2 =1/4.

Def. Условной вероятностью Р(А/В) или РВ(А) события А при условии В называется вероятность события А, вычисляемая при условии, что событие В произошло.

Вероятность появления двух зависимых событий равна произведению вероятности появления одного из них на условную вероятность другого.

Р(А и В) = Р(В) Р(А/В) = Р(В) РВ(А).

В примере 1.3 2) Р(А)=2/3, Р(В/А) = 1/2. Р(А и В) = Р(А) Р(В/А) = 1/3.

Проверить этот результат можно непосредственно по формуле (1.3). Для этого рассмотрим все возможные исходы: 1) Б и Б; 2) Б и Ч; 3) Ч и Б. Все исходы равновероятны, благоприятен исход 1). Значит Р(А и В) = 1/3.

Формула полной вероятности. Формула Байеса

Пусть имеется полная группа попарно несовместных событий Н1, Н2,..., Нn. Событие А может появиться только вместе с одним из событий Нi. Тогда справедлива следующая формула полной вероятности.

(1.4)

События Н1, Н2,..., Нn. называются гипотезами.

Если теперь в результате проведения опыта зафиксировано появление события А, то это позволяет переоценить вероятности гипотез. А именно, вероятность гипотезы Нi, при условии, что событие А уже произошло, может быть пересчитана по формуле Байеса:

. (1.5)

Пример 1.4. Число бракованных среди 6 изделий заранее неизвестно и все предположения о количестве бракованных равновероятны. Взятое наудачу изделие оказалось бракованным. Найти вероятность того, что:

а) число бракованных равнялось i = 0, 1,….,6;

б) взятое бракованное изделие было единственным (i =1).

Решение. Обозначим через Нi, гипотезу, состоящую в том, что среди 6 изделий бракованных i = 0,….,6. Согласно условию .

Событие А – взятое наугад изделие бракованное, а тогда .

По формуле полной вероятности (1.4), найдем

а) Теперь по формуле Байеса (1.5), найдем вероятность того, что среди изделий i бракованных, если событие уже А произошло:

.

б) Подставим в полученную формулу значение i = 1: .

Ответ: ; 0,048.

Задачи

15. Литье в болванках поступает из двух заготовительных цехов: 75% – из первого и 25% – из второго. При этом материал первого цеха имеет 15% брака, а второго – 20 %. Найти вероятность того, что одна, взятая наугад, болванка окажется стандартной.

16. Две перфораторщицы набили на разных перфораторах по одинаковому комплекту перфокарт. Вероятность того, что первая перфораторщица допустила ошибку, равна 0,06, а вторая – 0,09. При сверке перфокарт была обнаружена ошибка. Найти вероятность того, что ошиблась первая перфораторщица (предполагается, что оба перфоратора были исправны).

17. На склад поступает продукция трех фабрик. Продукция первой фабрики составляет 20%, второй – 46%, а третьей – 34%. Известно, что средний процент нестандартных изделий для первой фабрики равен 3%, для второй – 2% и для третьей – 1%. Найти вероятность того, что взятое наугад изделие произведено на первой фабрике, если оно окажется нестандартным.

Случайные величины

Def. Случайная величина (СВ) – это величина, которая в результате опыта может принимать те или иные значения, неизвестные заранее.

Случайная величина  может принимать такие значения, которые можно перенумеровать – х1, х2 и т.д. Такие случайные величины называются дискретными. Пример – число очков, выпадающих на игральной кости. Непрерывными называются СВ, возможные значения которых заполняют сплошь некоторую область числовой оси. Пример – значение температуры некоторого тела.

Def. Закон распределения случайной величины – это любое соотношение, устанавливающее связь между возможным значением случайной величины и соответствующей вероятностью принятия этого значения.

Законы распределения имеют несколько форм.

Для дискретной СВ необходимо задать соответствие между возможными значениями  = х1,  = х2, … случайной величины и вероятностями Р( = хi) = pi, с которой эти значения принимаются. Задать это соответствие можно таблично, аналитически (в виде формулы) и графически.

Пример 1.5. Пусть бросаются две монеты. СВ  – число выпадений герба. Очевидно, возможны следующие значения : х1 = 0; х2 = 1; х3 = 2. Несложно подсчитать, что соответствующие вероятности равны: р1 = 1/4; р2 = 1/2; р3 = 2. Составим таблицу:

Таблица 1.1

хi

0

1

2

рi

1/4

1/2

1/4

которая представляет собой табличное задание закона распределения СВ  = (число выпадения герба на двух монетах).

Для непрерывной СВ существуют следующие формы записи закона распределения: функция распределения и плотность распределения.

Def. Функцией распределения случайной величины  называется функция F(х) = F (х) = P( < x), которая определяет вероятность того, что случайная величина  примет значение, меньше фиксированного неслучайного числа x, т.е. наступит событие < x.

Свойства F(x):

1. F(х) – неубывающая функция, удовлетворяющая условию 0  F(x)  1, F(–∞) = 0, F(∞) = 1.

2. Вероятность попадания случайной величины в заданный интервал [a, b] равна: P(a    b) = F(b) – F(a).

Def. Плотностью распределения случайной величины  называется функция f(x) = f (x) = (х).

Свойства f(x).

1. 0  f(x) для любого х.

2. Формула обращения:

. (1.6)

3. – аналог свойства 2F(x).

4. – условие нормировки.

Квантиль. Часто возникает задача по известной вероятности р определить значение b, при котором р = Р( < b) = F (b). Для её решения необходимо найти обратную функцию F(–1) (у) к F (х). Тогда b = tp = F(–1) (p). Вычисляемая по этой формуле величина tp называется р-квантилем данного закона распределения.

Например, для СВ примера 1.5 значение t = 1 является 3/4–квантилем, т.к.согласно таблице 1.1 Р( < 1) = F (1) = 3/4.

Числовые характеристики случайной величины. Закон распределения СВ является её исчерпывающей характеристикой. Однако получить его достаточно трудно. Поэтому часто для изучения свойств СВ используют их числовые характеристики (параметры).

Def. Числовые характеристики (параметры) СВ – некоторые неслучайные величины, значения которых характеризует определённое свойство СВ.

Примеры параметров СВ.

1. Математическое ожидание (МО) – характеризует среднее значение, принимаемое СВ (центр тяжести).

Вычислительные формулы:

М[] = m = – для дискретной СВ; (1.7)

М[] = m = – для непрерывной СВ. (1.8)

Отметим свойства математического ожидания:

1. Если с – неслучайная величина, то M[c] = c.

2. Если  – СВ, а с – неслучайная, то M[c] = cM[].

3. M[ + ] = M[] + M[].

4. Из свойства 3 следует: если  – СВ, то  =  – M[] – это СВ, у которой M[] = 0.

2. Дисперсия. – характеризует среднюю величину разброса значений СВ относительно МО.

Вычислительные формулы:

D[] = – для дискретной СВ; (1.9)

D[] = D = – для непрерывной СВ. (1.10)

Величина v = называется среднеквадратичным отклонением.

Отметим свойства дисперсии.

1. Если с – неслучайная величина, то D[c] = 0.

2. Если  – СВ, а с – неслучайная, то D[c] = c2 D[].

3. Из свойства 2 следует: если  – СВ, то  = – это СВ, у которойD[] = 1.

Задачи

18. Случайная величина  задана функцией распределения

F(х)=

Определить вероятность того, что в результате испытаний случайная величина примет значение, большее 0,5, но меньшее 0,8. Найти f(x), М[Х], D[X].

19. Функция f(x) задана выражением

f(х)=

Найти С и F(х). Построить графики этих функций. Найти вероятность попадания случайной величины в интервал (0, ).

20. Найти математическое ожидание и дисперсию случайной величины X, если плотность вероятностей ее

f(х)=

Примеры основных законов распределения непрерывных СВ

1. Равномерный закон – вероятностная характеристика случайной величины , равномерно распределенной на интервале [a, b]. Плотность распределения имеет вид:

Вероятность попадания значений СВ  в любую область длины  из отрезка [a, b] равна и, следовательно, не зависит от размещения этой области в пределах отрезка [a, b] (поэтому распределение и называется равномерным).

График плотности равномерного распределения

Функция распределения СВ

Математическое ожидание: ; дисперсия:.

2. Нормальный закон. СВ распределена по нормальному закону с параметрами m и  ( >0), если ее плотность имеет вид

Известно, что М[]=m, D[]= 2. Тот факт, что СВ распределена по нормальному закону с параметрами m и  будем сокращённо обозначать N(m, ).

Функция нормального распределения F(x) не выражается в конечном виде, т.к. интеграл вида (1.6) аналитически не вычисляется. Поэтому для вычисления значений F(x) используются справочные таблицы либо специальные функции, встроенные в различные математические пакеты. Так, в пакете MathCad используется функция pnorm(x, m, ), а в Excel – НОРМРАСП(x, m, ).

График плотности нормального распределения:

Для аналитических выкладок используется стандартное обозначение функции нормального распределения: U(х) = – функция Лапласа.

  1. Показательный (экспоненциальный) закон. СВ  называется показательно распределенной с параметром > 0, если ее плотность имеет вид

.

; .

График плотности показательного распределения

4. Логарифмически нормальный (логнормальный) закон.

,

где m и  – параметры распределения: M[] = ;D[] = .

Графики плотности логнормального распределения при различных параметрах

Задачи

21. Размер диаметра детали, выпускаемой цехом, распределен по нормальному закону с параметрами m = 5 см;  = 0,5 см. Найти вероятность того, что диаметр наудачу взятой детали составит от 4 до 6 см.

22. Случайная величина Х имеет нормальное распределение с параметрами m = 0;  = 1. Что больше: Р(–0,5 < Х < 0,1) или Р(1< Х < 2)?

23. При измерении расстояний до удаленных предметов ошибка подчинена нормальному закону со средним значением, равным 20 м и средним квадратическим отклонением 40 м. Определить вероятность того, что измеренное расстояние отклоняется от действительного в ту или иную сторону не более, чем на 30 м.

Предельные теоремы

Предельные теоремы теории вероятностей – соотношения, условием соблюдения которых является неограниченное возрастание числа наблюдений N. Рассмотрим основные из них.

1) Теорема Бернулли. Если проводится N независимых испытаний, в каждом из которых случайное событие А происходит с вероятностью р, то относительная частота появления событии А при N   сходится по вероятности к р. То есть , гдеm(A) – число наступлений события А.

2) Центральная предельная теорема. Если – независимые, одинаково распределенные случайные величины с математическим ожиданиема и дисперсией 2, то распределение суммы приN   неограниченно приближается к нормальному распределению с матожиданием Na и дисперсией N2:

= U() – U(), (1.11)

где U(х) – функция Лапласа (функция нормального распределения, интеграл вероятности).

3) Теорема Муавра-Лапласа. Если проводится N независимых испытаний, в каждом из которых случайное событие А происходит с вероятностью р, то распределение величины m(A) при N   неограниченно приближается к нормальному распределению с матожиданием N p и дисперсией N p(1– p). То есть

= U() – U(). (1.12)

Задачи

24. Дисперсия каждой из 4500 независимых, одинаково распределенных случайных величин k равна 5. Найти вероятность того, что среднее арифметическое этих случайных величин отклонится от своего математического ожидания не более чем на 0,04.

25. Случайная величина  – средняя арифметическая независимых и одинаково распределенных случайных величин k, k=1,2,..., n с D(k) = 5. Сколько нужно взять таких величин, чтобы случайная величина  с вероятностью не меньшей 0,9973 имела отклонение от своего математического ожидания, не превосходящее 0,01?