Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Ответы на вопросы по Прикладной Математике

.pdf
Скачиваний:
46
Добавлен:
11.02.2015
Размер:
114.82 Кб
Скачать

Теория вероятностей

Теория вероятностей – это математическая наука, изучающая закономерности в случайных явлениях

Случайное явление – это такое явление, которое при неоднократном воспроизведении одного и того же опыта протекает каждый раз несколько по-иному.

Устойчивость частот – если, например, подбрасывать монетку много раз, то тем ближе значение выпадения каждой стороны к 0,5.

Математические законы теории вероятностей – отражение реальных статистических законов, объективно существующих в массовых случайных явлениях природы.

Вероятность – числовая характеристика, описываюшая случайную величину.

Основные формулы комбинаторики

Комбинаторика – изучает кол-во комбинаций, подчиненных определенным условиям, которые можно составить из элементов заданного конечного множества.

Правило суммы – если некоторый обьектт А может быть выбран из совокупности объектов m способами, а другой объект В может быть выбран n способами, то выбрать либо А, либо В можно m+n способами.

Правило произведения – если объект А можно выбрать из совокупности объектов m способами и после каждого такого выбора объект В можно выбрать n способами, то пара объектов (A*B) в указанном порядке может быть выбрана m*n способами.

Перестановки – комбинации, состоящие из одних и тех же n различных элементов и отличающиеся только порядком их расположения.

P = n!

Размещения – комбинации, составленные из n различных элементов по m элементов, которые отличаются либо составом элементов, либо их порядком.

Am

= n(n − 1)(n − 2)...(n m + 1) =

n!

 

n

 

(n m)!

 

 

Сочетания – комбинации, составленные из n различных элементов по m элементов, которые отличаются хотя бы одним элементом.

Cnm =

n!

(m!(n m)!)

 

Пространство элементарных событий

Пространство элементарных событий – множество Ω.

Элементарное событие – ω элемент множества Ω. Случайные события

1

Случайное событие – или просто событие – подмножество множества Ω. Событие, которое при осуществлении определенной совокупности условий может либо произйти, либо не произойти.

Сумма двух событий А и В – событие А+В (или АUB), состоящее из всех элементарных событий, принадлежавших по крайней мере, одному из событий А или В. То есть или А или В или АиВ.

Произведение АВ (или А∩В) – событие, состоящее из элементарных событий, принадлежащих и А и В. То есть происходит и А и В одновременно.

Разность А-В или А/В – событие, состоящее из элементов множества А, не принадлежащих В. То есть А – произошло, В – нет.

Достоверное событие – событие, которое в течение опыта обязательно должно произойти.

Невозможное событие – событие, которое в данном опыте произойти не может.

Противоположное событие – противоположное А – не А, если оно заключается в том что событие А – не произошло.

Несовместное событие – если событие А*В=0. (попадание и промах при одном и том же выстреле).

Если из наступления события А следует наступление события В, то говорят, что событие В является подмножеством события А.

А*А=А А+А=А (А+В)С=АС+ВС

Аксиомы теории вероятностей

Вероятность (классическая) – события А – отношение числа благоприятных исходов к общему числу экспериментов. Отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных событий.

P(A) = mn

где m – число элементарных исходов, благоприятствующих А, n – число всех возможных элементарных исходов.

Свойства вероятности:

1)Вероятность достоверного события равна 1.

2)Вероятность невозможного события равна 0.

3)Вероятность случайного события есть положительное число, заключенное между нулем и единицей.

Частота или статистическая вероятность события

Частота (относительная частота) события А – в данной серии опытов – отношение числа опытов, в которых появилось событие А, к общему числу произведенных опытов.

W (A) = mn

2

где m – число появлений события А, n – общее число произведенных опытов.

Статистическая вероятность – частота события А.

Вероятность вычисляется до опыта, а частота – после опыта.

Свойство устойчивости – в различных опытах частота изменяется мало (тем меньше, чем больше произведено испытаний), колеблясь около некоторого постоянного числа.

Геометрическая вероятность

Геометрическая вероятность – вероятность попадания точки в область (отрезок, часть плоскости и т.д.) Если обозначить меру (длину, площадь, объем) области через mes, то вероятность попадвния точки, брошенной наудачу в область g – часть области G равна

P = mesGmesg

Полная группа событий

Полная группа событий – несколько событий образуют полную группу, если в результате испытания появится хотя бы одно из них. Появление хотя бы одного события из группы является событие достоверное.

Сумма вероятностей событий, образующих полную группу равна 1.

Противоположные события

Противоположные события – два единственно возможных события, образующих полную группу. Например, попадание и промах при высреле по цели – два противоположных события.

Сумма вероятностей противоположных событий равна 1. Если вероятность одного события обозначают p, то вероятность другого события обозначают q.

Условная вероятность

Условная вероятность PA(B) – вероятность события В, вычисленную в предположении, что событие А уже наступило.

Теорема Вероятность совместного появления двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило.

P(AB)=P(A)*PA(B)

Формула полной вероятности

Теорема Вероятность события А, которое может наступить лишь при услвии появления одного из несовместных событий В1, В2, … Вn, образующихполную группу, равна сумме произведений вероятностей каждого из этих событий на соответствующую условную вероятность события А.

Формула полной вероятности

3

P(A)=P(B1)*PB1(A)+ P(B2)*PB2(A)+…+ P(Bn)*PBn(A)

Формула Бейеса (Байеса)

PA (B1 ) =

 

P(B1 ) * PB1 (A)

P(B1 ) * PB1

(A) + P(B2 ) * PB2 (A) + ¼ + P(Bn ) * PBn (A)

 

Независимые события

Независимое событие – событие В называют независимым от события А, если появление события А не изменяет вероятности события В, т.е. если условная вероятность события В равна его безусловной вероятности PA(B)=P(B).

Если событие В не зависит от события А, то и событие А не зависит от события В, т.е. свойство независимости событий взаимно.

Для независимых событий справедлива следующая теорема

P(AB)=P(A)*P(B)

Т.е. вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий.

Независимые события – если вероятность их совмещения равна произведению вероятностей этих событий, в противном случае, события называют зависимыми.

Попарно независимые – если каждые два из них попарно независимы.

Независимые в совокупности – если независимы каждые два из них и независимы каждое событие и все возможные произведения остальных.

Вероятность совместного появления нескольких событий, независимых в совокупности, равна произведению вероятностей этих событий.

Вероятность появления хотя бы одного события

Теорема Вероятность появления хотя бы одного из событий А1, А2, … Аn, независимых в совокупности, равна разности между единицей и произведением вероятностей противоположных событий.

P(A) = 1- q1q2 ...qn

Если события имеют одинаковую вероятность, то

P(A) = 1- qn

Формула Бернулли

Теорема Вероятность того, что в испытании Бернулли «успех» наступит ровно m раз равна

P (m) = C m · pm · qnm = C m · pm · (1- p)nm

n

n

n

4

Предельные теоремы в схеме Бернулли

Теорема (теорема Пуассона) Если число испытаний велико, n->∞ и p->0 так, что их произведение стремиться к некоторому положительному числу n*p->λ, то

 

 

æ

λ m ö

 

 

P(m) = C m · pm · qnm

=

ç

 

÷

· e− λ

при n>100, n*p<30

 

n

 

ç

÷

 

 

 

è

m! ø

 

 

Теорема (Локальная теорема Муавра-Лапласа) Если вероятность з появления события А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность Pn(k) того, что событие А появится в n испытаниях ровно k раз приближенно равна (тем точнее, чем больше n) значению функции

 

 

 

1

 

 

 

1

 

 

x2

 

 

1

 

 

y =

 

 

 

 

·

 

· e 2

=

 

 

· ϕ (x)

 

 

 

 

 

 

 

 

 

 

 

 

 

n ·

p · q

 

2 · π

n · p · q

 

 

 

 

 

 

 

 

 

 

 

 

при x =

(k n

p)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n · p · q

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Теорема (Интегральная Теорема Лапласа) Если вероятность наступления события А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность Pn(k1,k2) того, что событие А появится в n испытаниях от k1 до k2 раз приближенно равна определенному интегралу

Pn (k1 , k2 ) =

 

1

 

 

 

 

 

 

 

 

 

 

òxx′′

e

x2

 

 

 

 

 

 

 

 

 

2 · π

2

dz

 

 

 

 

при

x¢ =

(k1 - n · p)

и

 

 

x¢¢ =

(k2 - n · p)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n ·

p · q

 

 

 

n ·

p · q

 

 

 

 

 

 

 

 

Случайные величины

Случайная величина – величина, которая в результате опыта может приять то или иное значение, неизвестно заранее, какое именно.

Дискретная (прерывная) случайная величина – случайная величина, имеющая отдельные друг от друга значения, которые можно перенумеровать. Например, число выпадений герба при нескольких подбрасываниях монеты, число выпавших очков при подбрасывании игральной кости.

Непрерывная случайная величина – случайная величина, возможные значения которой непрерывно заполняют какой-то промежуток. Например, при изменении температуры или скорости значения случайной величины непрерывно заполняют какой-то промежуток, так как сама эта величина непрерывна по своей физической природе.

Закон распределения – случайной величины – всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями. Закон распределения может иметь различные формы.

5

Ряд распределения случайной величины – таблица, где перечислены возможные (различные) значения случайной величины x1, x2,… xn и соответствующие им вероятности p1, p2,… pn, причем сумма всех вероятностей равна 1. Графическое изображение ряда распределения называется многоугольником распределения.

Функция распределения и её свойства.

Функция распределения вероятностей случайной величины X – называют функцию F(x), определяющую вероятность того, что случайная величина X в результате испытания примет значение, меньшее x, т.е.:

F(x)=P(X<x)

Геометрически это равенство можно истолковать так:

Функция распределения – F(x) есть вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, лежащей левее точки x.

Свойства функции распределения:

Свойство 1. Значения функции распределения принадлежат отрезку [0,1]:

0≤F(x)≤1

Свойство вытекает из определения функции распределения как вероятности, а вероятность всегда есть не отрицательное число, не превышающее единицу.

Свойство 2. F(x) – неубывающая функция, т.е.

F(x2)≥F(x1), если x2>x1.

Следствия.

1)Вероятность того, что случайная величина примет значение, заключенное в интервале (a,b), равна приращению функции распределения на этом интервале:

P(a≤X<b)=F(b)-F(a)

Это важное следствие вытекает из доказательства второго свойства, если предположить x2=b, x1=a.

2)Вероятность того, что непрерывная случайная величина примет одно определенное значение, равна нулю. Действительно, положив в предыдущей формуле a=x1, b=x1+Δx имеем

P(x1 X<x1+Δx)=F(x1+Δx)-F(x1).

Свойство 3. Если возможные значения случайной величины принадлежат интервалу (a,b), то 1) F(x)=0 при x≤a, 2) F(x)=1 при x≥b.

1)Пусть x1≤a. Тогда событие X<x1 невозможно (так как все возможные события X меньше x2) и, следовательно, вероятность его равна нулю.

2)Пусть x2≥b. Тогда событие X<x2 достоверно (так как все возможные события X меньше x2) и, следовательно, вероятность его равна единице.

6

Следствие. Если возможные значения непрерывной случайной величины расположены на всей оси x, то справедливы следующие соотношения:

lim F(x) = 0

lim F(x) = 1

x→ − ∞

x→ ∞

Доказанные свойства позволяют представить, как выглядит график функции распределения непрерывной случайной величины.

График расположен в полосе, ограниченной прямыми y=0, y=1 (первое свойство)

При возрастании x в интервале (a,b), в котором заключены все возможные значения случайной величины, график «поднимается вверх» (второе свойство)

При x≤a ординаты графика равны нулю, при x≥b ординаты графика равны единице (третье свойство).

Плотность распределения вероятностей

Плотность распределения непрерывной случайной величины X – функция f(x) – первую производную от функции распределения F(x). Из определения следует, чт функция распределения является первообразной для плотности распределения. Для описания дискретной случайной величины плотность распределения не применима.

Теорема. Вероятность того, что непрерывная случайная величина X примет значение, принадлежащее интервалу (a,b), равна определенному интегралу от прлотности распределения, взятому в пределах от a до b:

P(a < X < b) = òb f (x)dx

a

Геометрически полученный результат можно истолковать так: вероятность того, что непрерывная случайная величина примет значение, принадлежащее интервалу (a,b), равна площади криволинейной трапеции, ограниченной осью Ox, кривой распределения f(x) и прямыми x=a и x=b.

Свойства плотности распределения:

1.Плотность распределения – неотрицательная функция. Так как функция распределения F(x) – неубывающая функция, а плотность распределения f(x) – это ее производна, то она неотрицательна как производная неубывающей функции. График плотности распределения называю кривой распределения.

2.Несобственный интеграл от плотности распределения в пределах от -∞ до +∞ равен единице. Несобственный интеграл от плотности распределения выражает вероятность события, состоящего в том, что случайная величина примет значение, принадлежащее интервалу (-∞, +∞). Очевидно, что такое событие достоверно, следовательно, вероятность его равна единице.

Математическое ожидание и дисперсия случайной величины.

Математическое ожидание дискретной случайной величины – называют сумму произведений всех ее возможных значений на их вероятности.

7

M (X ) = å

xi pi

i=

1

Если дискретная случайная величина X принимает счетное множество возможных значений, то математическое ожидание существует, если ряд в правой части равенства сходится абсолютно.

Математическое ожидание непрерывной случайной величины X, возможные значения которой принадлежат отрезку [a,b], называют определенный интеграл

M (X ) = òb x f (x)dx

a

Если возможные значения принадлежат всей оси Ox, то

M (X ) =

+òx f (x)dx

 

− ∞

Предполагается, что несобственный интеграл сходится абсолютно.

Свойства математического ожидания:

1.Математическое ожидание постоянной величины равно самой постоянной. M(C)=C.

2.Постонный множитель можно выносить за знак математического ожидания. M(CX)=CM(X)

3.Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий.

M(XY)=M(X)+M(Y)

Следствие. Математическое ожидание произведения взаимно независимых случайных величин равно произведению их математических ожиданий.

4.Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий слагаемых.

M(X+Y)=M(X)+M(Y)

Следствие. Математическое ожидание сумы нескольких случайных величин равно сумме математических ожиданий слагаемых.

Дисперсия случайной величины – равна разности между математическим ожиданием квадрата случайной величины и квадратом ее математического ожидания.

D(X)=M(X2)-[M(X)]2

Свойства дисперсии.

8

1.Дисперсия постоянной величины C равна нулю. D(C)=0

2.Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат. D(CX)=C2D(X)

3.Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин: D(X+Y)=D(X)+D(Y)

Следствие 1. Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме дисперсий этих величин.

Следствие 2. Дисперсия суммы постоянной величины и случайной равна дисперсии случайной величны.

4. Дисперсия разности двух независимых случайных величин равна сумме их дисперсий:

D(X-Y)=D(X)-D(Y)

Среднеквадратичное отклонение случайной величины X – квадратный корень из дисперсии.

1

σ (X ) = [D(X )}]2 = D(X )

Некоторые часто встречающиеся распределения

Биноминальное распределение

Пусть проводится n независимых испытаний, в каждом из которых событие А может появиться или не появиться. Вероятность наступления события во всех испытаниях постоянна и равна p (следовательно, вероятность непоявления события А тоже постоянна и равна q=(1-p). Рассмотрим в качестве дискретной случайной величины X число появления события А в этих испытаниях. Формула Бернулли является аналитическим выражением искомого закона распределения:

Pn (k) = Cnk pk qnk

M=n*p

D=n*p*q

Распределение Пуассона

Если производится n независимых испытаний, вероятность появления события А в каждом из которых равна p, а n велико (n→∞, p→0, a n*p→λ, 0<λ<∞), то используют не формулу Бернулли, а прибегают к асимптотической формуле Пуассона. (n>100, n*p<30)

P(x = m) = m e− λ ) m!

Математическое ожидание и дисперсия для данного распределения равны λ=n*p.

Геометрическое распределение

9

Пусть проводятся независимые испытания, в каждом из которых вероятность появления события А равна p (0<p<1) и, следовательно, вероятность его непоявления рана q=1-p. Испытания заканчиваются, как только появится событие А. Таким образом, если событие А появилось при k-ом испытании, то в предыдущих k-1 испытаниях оно не появлялось. Вероятность этого события

P(X = k) = qk − 1 p

Полагая в этой формуле k=1, 2,…, n имеем геометрическую прогрессию с первым членом p и знаменателем q (0<q<1). По этой причине распределение и называют геометричесикм.

Гипергеометрическое распределение

Рассмотрим следующую задачу. Пусть в партии из N изделий M стандартных (M<N). Из партии случайно отбирают n изделий. Обозначим через X случайную величину - число m стандартных изделий среди n отобранных. Очевидно, возможные значения X таковы 0,1,2,…min(M,n). Найдем вероятность того, что X=m, используя классическое определение вероятности

P(X = m) =

C m C nm

M N M

CNn

 

Равномерное распределение

Распределение вероятностей называется равномерным, если на интервале, которому принадлежат все возможные значения случаной величины, плотность распределения сохраняет постоянное значение. Итак, если известно, что величина распределена на отрезке [a,b], то искомая плотность вероятности:

f (x) = 0

x a, x > b

F(x) =

1

при

(b a)

a < x b

Можно вычислить, что для равномерного распределения функция распределения будет следующей:

F(x) = 0

 

 

x

a

 

 

 

 

F(x) = (x

a)

при

a <

x b

(b

a)

 

 

 

F(x) = 1

 

 

x >

b

 

 

 

При вычислении математического ожидания и дисперсии получаются следующие результаты:

M =

a + b

 

2

D = (b a)2 12

Показательное распределение

Показательным (экспоненциальным) называют распределение, которое описывается плотностью

10