Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Бурлов_матем1.doc
Скачиваний:
111
Добавлен:
05.12.2018
Размер:
4.01 Mб
Скачать

2. Основы вероятностных методов анализа и моделирования экономических систем

2.1. Элементарные понятия о случайных событиях, величинах и функциях

Под событием понимается всякий факт, который может про­изойти в данных условиях. Теория вероятностей рассматривает со­бытия в тесной связи с теми условиями, в которых они наступают. Совокупность условий, в которых рассматривается данное собы­тие, называют комплексом условий, а реализацию этого комплекса условий на практике — испытанием. В зависимости от связи между событиями и соответствующими комплексами условий различают достоверные, невозможные и случайные события.

Достоверным называется такое событие, которое наступает каж­дый раз при реализации данного комплекса условий. Достоверное событие будем обозначать через U.

Невозможным называется событие, которое никогда не насту­пает при реализации данного комплекса условий. Невозможное со­бытие будем обозначать символом .

Случайным называется событие, которое может либо наступить при реализации данного комплекса условий, либо не наступить. Достоверное и невозможное события могут рассматриваться как крайние частные случаи случайных событий. Случайные события будем обозначать через А, В, С...

Согласно теоретико-множественному подходу при рассмотре­нии понятия «случайное событие» вводится понятие «элементар­ное событие».

Элементарное событие — это один из нескольких возможных, но несовместных исходов того или иного опыта (испытания). Сово­купность или множество их составляют пространство элементар­ных событий.

В общем случае пространство элементарных событий может быть любой природы: конечным и бесконечным, дискретным и не­прерывным. Пространство элементарных событий является сино­нимом достоверного события, так как один из его элементов не­пременно наступит. Кроме того, существует понятие «пустое мно­жество». Это — множество, не содержащее элементарных событий. Очевидно, что пустое множество является синонимом невозмож­ного события. При изучении случайных событий в ходе разработ­ки математических моделей экономических систем используется, как правило, не одно, а группа событий, между которыми сущест­вуют определенные соотношения, позволяющие выражать одни со­бытия через другие.

Рассмотрим эти соотношения.

1. Событие А содержится в событии В(А В). Если при каж­дом испытании, при котором происходит событие А, непременно происходит и событие В, то говорят, что событие А содержится в событии В или принадлежит событию В.

  1. Тождественные события = В). Если событие А содержится в событии В, а событие В содержится в событии А, то говорят, что события А и В тождественны или равносильны.

  2. Произведение событий. Произведением (или пересечением) событий А и В называется событие С, состоящее в совместном на­ступлении этих событий. Другими словами, множество С содержит элементы, принадлежащие множествам А и В. Произведение собы­тий записывается в виде:

С = или С =, (2.1)

A =

где — знак пересечения.

  1. Несовместные события. События А и В называются несо­вместными, если их совместное появление при испытании невоз­можно. Условие несовместности записывается в виде:

(2.2)

5. Сумма событий (объединение событий). Суммой событий А и В называется событие С, состоящее в наступлении хотя бы одного из этих событий. Множество С содержит элементы, принадлежа­щие хотя бы одному из множеств А или В:

С =A+B или С =, (2.3)

A =A+A

Где - знак объединения.

6. Полная группа событий. События А и В составляют полную группу событий, если при реализации заданного комплекса усло­вий непременно появится хотя бы одно из этих событий. Сумма всех таких событий есть событие достоверное:

С = А + В = U. (2.4)

7. Противоположное событие. Два события А и (читается «не А») называются противоположными, если они составляют полную группу несовместных событий, т.е. удовлетворяют условию:

А+= U; =. (2.5)

Всякому событию при данном комплексе условий соответству­ет определенная степень возможности. Более возможные события при многократных испытаниях в среднем наступают чаще, а менее возможные - реже. Частотой события называется отношение чис­ла испытаний, в которых появилось данное событие, и общего чис­ла испытаний. Частота события А равна:

(2.6)

где п - общее число проведенных испытаний;

т(А) - число испытаний, в которых наступило событие А.

Частота достоверного события U равна единице:

Частота невозможного события равна нулю:

Частота случайного события А находится в интервале [0; 1]:

Следует отметить, что частота случайного события обладает ус­тойчивостью, что доказывается и формулируется в теореме Я. Бернулли, относящейся к закону больших чисел.

Свойство устойчивости частоты случайного события отражает связь между комплексом условий и возможностью наступления событий при данном комплексе. Количественной мерой степени возможности появления события для заданного комплекса усло­вий является вероятность события. Чем более возможно появле­ние случайного события, тем больше его вероятность. Наоборот, чем менее возможно появление события, тем меньше его вероят­ность.

Вероятность и частота события тесно связаны между собой. Зная частоту, вычисленную при достаточно большом числе испы­таний, есть все основания считать ее близкой к соответствующей вероятности и полагать, что

.7)

Такой способ определения вероятности события Р(А) называет­ся статистическим.

Свойства вероятностей событий

1. Вероятность невозможного события равна нулю, т.e.

Р() = 0.

2.Для любого события А вероятность противоположного собы­тия равна

Р()= 1-Р(А) .(2.8)

3. Если событие А влечет за собой событие В, т. е. А B, то

Р(А)Р(В). (2.9)

4. Вероятность события А заключена между нулем и единицей, т. е.

0 Р(А) 1. (2.10)

5. Вероятность двух событий А и В равна сумме вероятностей этих событий без вероятности их произведения:

P(A+B)=P(A)+P(B)-P(AB) (2.11)

Вероятность события определяется при условии реализации не­которой совокупности условий. Если никаких ограничений, кроме упомянутых условий, при вычислении вероятности Р(А) не налага­ется, то такие вероятности называются безусловными. Однако в ря­де случаев приходится находить вероятности событий при условии, что произошло некоторое событие B, имеющее положительную ве­роятность. Такие вероятности называются условными и обознача­ются Р(А/В).

Событие А называется независимым от другого события В, если вероятность события А не изменяется от того, наступает событие В или нет. В противоположном случае событие А называется зависи­мым от события В. Следовательно, если события А и В независи­мые, то Р(А/В) = Р(А).

Вероятность произведения двух событий равна произведению вероятности одного из этих событий на условную вероятность дру­гого при условии, что первое произошло:

(2.12)

Вероятность произведения независимых событий равна:

. (2.13)

Вероятность произведения п случайных событий равна произ­ведению вероятности одного из них на условные вероятности ос­тальных, вычисленных при условии, что все предшествующие со­бытия произошли.

Правило сложения вероятностей двух событий записывается сле­дующим образом:

Р(А + В) = Р(А) + Р(В) - Р(АВ). (2.14)

Читается это правило так: вероятность наступления хотя бы од­ного из двух событий равна сумме вероятностей этих событий без вероятности их совместного наступления.

Если события несовместны, то правило сложения вероятностей принимает вид:

Р(А + В) = Р(А) + Р{В). (2.15)

Если несовместные события составляют полную группу, т. е.

и

то (2,16)

Случайные события могут быть представлены через случайные величины. Понятие «случайная величина» расширяет область при­менения вероятностных методов в решении практических задач, позволяет исследовать более сложные случайные явления. Случай­ной называется такая величина, которая в результате испытания (реализации определенного комплекса условий) может принять то или иное значение, причем до испытания неизвестно, какое имен­но. Если повторять испытания, то результатом каждого будет ка­кое-либо одно значение случайной величины из множества воз­можных.

Случайные величины подразделяются на дискретные и непре­рывные.

Множество значений дискретной случайной величины конечно или счетно, например:

  • количество отказов автомобилей автопредприятия в течение ра­бочей смены;

  • число рабочих, пришедших в бухгалтерию завода в течение од­ного часа получать заработную плату, и т. д.

Множество значений непрерывной случайной величины пред­ставляет собой множество всех точек, принадлежащих какому-ли­бо интервалу числовой оси, например:

  • расход топлива на километр пробега;

  • время безотказной работы автомобиля и т. д.

Кроме дискретной и непрерывной случайных величин встреча­ются случайные величины смешанного типа, для которых наряду с участками непрерывных значений имеются отдельные, изолиро­ванные значения.

Для того чтобы задать случайную величину,, прежде всего необ­ходимо задать множество значений, которые она может принимать. Однако одного перечня значений случайной величины еще недо­статочно для каких-либо существенных выводов. Нужно еще знать, как часто, т. е. с какой вероятностью, она принимает эти значения. Ответ на поставленный вопрос дает исчерпывающая характеристи­ка случайной величины - закон ее распределения.

Закон распределения представляет собой соотношение, позволя­ющее определить вероятность появления случайной величины в любом интервале (и, в частности, вероятности любых значений случайной величины).

Основными формами закона распределения являются: ряд рас­пределения, функция распределения и плотность распределения.

Ряд распределения представляет собой таблицу, в которой пере­числены возможные значения случайной величины и соответству­ющие им вероятности:

В таблице i-е значение случайной величины X; ,- — вероят­ность появления i-го значения случайной величины X.

При этом

Эмпирический ряд распределения представляет собой таблицу, в которой перечислены наблюдаемые значения (фактические реали­зации) случайной величины и соответствующие им частоты:

В таблице -i фактическая (наблюдаемая) реализация случай­ной величины Х; — количество появлений (частота) величины

Ряды распределения, образованные из значений случайной ве­личины, характеризующей качественный признак, называются ат­рибутивными. Ряды распределений, образованные из значений слу­чайной величины, характеризующей количественный признак яв­ления (события), называются вариационными.

Ряд распределения не может служить характеристикой непре­рывной случайной величины, поскольку значения этой величины нельзя перечислить, так как множество их несчетно. Кроме того, вероятность отдельного значения непрерывной случайной величи­ны равна нулю.

Для характеристики непрерывной случайной величины опреде­ляют вероятность появления значения случайной величины мень­шего х, где х — текущая переменная, т. е. определяют вероятность события X < х. Вероятность этого события зависит от х, т. е. явля­ется функцией х. Эта функция называется функцией распределения случайной величины X и обозначается F(x):

F(x) = Р(Х < х). (2.17)

Таким образом, функцией распределения случайной величины X называется функция аргумента х, равная вероятности того, что случайная величина X примет любое значение, меньшее х.

Вероятность попадания случайной величины в полузамкнутый интервал [а, Ь) равна разности значений функции распределения в точках b и а:

(2.18)

Функция распределения есть неубывающая функция, значения которой начинаются с нуля и доходят до единицы, причем в от­дельных случаях функция может иметь скачки — разрывы. Функ­цию распределения дискретной случайной величины можно опре­делить, зная ее ряд распределения, по формуле:

(2.19)

где суммирование распространяется на значения которые меньше х.

Следует отметить, что функция распределения дискретной слу­чайной величины увеличивается скачками каждый раз, когда X при своем изменении проходит через какое-нибудь из возможных зна­чений х, причем величина скачка равна вероятность этого значе­ния. Между двумя соседними значениями величины X функция F(x) постоянна.

Поскольку для непрерывной случайной величины нельзя ис­пользовать в качестве характеристики вероятность появления ее отдельных значений, то определяют вероятность появления слу­чайной величины в пределах малого интервала [х, х + х), примы­кающего к х. Разделив эту вероятность на длину интервала х, на­ходят среднюю плотность вероятности и при неограниченном уменьшении длины интервала переходят к пределу, который явля­ется плотностью распределения в точке х:

(2.20)

Плотность распределения f(x) есть предел отношения вероятно­сти попадания случайной величины на малый участок и длины это­го участка при ее неограниченном уменьшении.

Вероятность попадания случайной величины на произвольный участок [а, b) равна:

(2.21)

Интеграл в бесконечных пределах от плотности распределения равен единице, т. е. Это очевидно, так как указанный интеграл выражает вероятность достоверного события — попадания случайной величины на участок от - до , а значит, ра­вен единице.

График плотности распределения называется кривой распределе­ния, лежащей в верхней полуплоскости. Кривая распределения совместно с осью абсцисс ограничивает площадь, равную единице (рис. 2.1).

Рис. 2.1. График плотности распределения (кривая распределения)

Вероятность попадания на участок [я, Ь) равна площади огра­ниченной кривой распределения, опирающейся на участок [а, b) (на рис. 1.1, — заштрихованная площадь).

Плотность распределения есть производная функции распреде­ления. С другой стороны:

откуда

. (2.22)

Величину F(x) называют интегральной функцией распределе­ния величины X. Величина f(x) - дифференциальная функция рас­пределения случайной величины X. Для оценки особенностей зако­нов распределения случайных величин определяют числовые ха­рактеристики этих величин.