Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекция по системнику / Тема 7_Лекция 8_Выбор в условиях риска.doc
Скачиваний:
21
Добавлен:
25.04.2015
Размер:
201.22 Кб
Скачать
  1. Дерево решений

  • точка, в которой необходимо принять решение

  • точка, в которой может быть получен случайный результат

Рис.3. Дерево решений

Процесс выбора при наличии риска может быть представлен в виде графа – так называемого дерева решений. Дерево решений показывает решения, которые могут быть приняты, возможные результаты и вероятности получения этих результатов при осуществлении каждого из этих решений.

Пример. Предположим, что предприниматель рассматривает вопрос о разработке и выпуске новой продукции. Если продукция будет принята покупателем, предприниматель получит прибыль, но если продукция не будет пользоваться спросом, он не оправдывает своих затрат. Предприниматель исходит из того, что его новая продукция будет распродана с вероятностью 50%. Ему поступило предложение поручить другой фирме обследование рыночного спроса с соответствующей оплатой этой работы. Анализируя предшествующие отчеты, предприниматель может быть уверен на 90%, что если эта фирма даст рекомендацию на освоение новой продукции, то она будет принята покупателем. Следовательно он имеет следующие варианты выбора решения:

  • оставить ассортимент продукции прежним;

  • разрабатывать новую продукцию;

  • прежде заплатить за изучение рыночного спроса и затем последовать рекомендациям фирмы.

Дерево решения, соответствующее этой задаче, представлено на рис. 3. Здесь на концах ветвей проставлены значения возможной прибыли при каждом из трех решений при условии, что в случае изучения рыночного спроса фирме, проводящей такое исследование надо заплатить 2106 руб.

Если сопоставить каждой из ветвей (решению), соответствующей определенному результату некоторую вероятность, то можно рассчитать полезность каждого решения.

2. Энтропия системы. Принцип максимизации энтропии

В рассмотренном примере существовала возможность дать рекомендации для выбора решения, поскольку были известны вероятности случайных событий. Однако часто возникают ситуации, когда эти вероятности неизвестны.

Ранее в курсе рассматривались 3 вида неопределенностей в системах: а) из-за недостаточного знания; б) расплывчатость; в) случайная неопределенность.

Для неопределенности случайного объекта существует количественная мера (неопределенности), называется энтропией.

Рассмотрим простейший вариант – случайное событие. Пусть некоторое событие может произойти с вероятностью Р1 = 0,99 и не произойти с вероятностью Р2 = 0,01, а другое событие имеет вероятности Р1 = Р2 = 0,5. Очевидно, что в 1-м случае результатом опыта «почти наверняка» является наступление события, во втором случае неопределенность исхода так велика, что от прогноза лучше воздержаться.

Если мы имеем дело со случайной числовой величиной, то для характеристики различности распределений используется дисперсия или доверительный интервал.

Дх = для дискретной величины и

Дх =

Однако эти величины имеют смысл лишь для случайных числовых величин и не могут применяться к случайным объектам, состояния которых различаются качественно (например, выбор тех или иных команд или спортсменов при жеребьевке и т.п.).

Следовательно, мера неопределенности, связанной с распределением случайного события должна быть некоторой его числовой характеристикой, функционалом от распределения, но никак не связанным с тем, в какой шкале измеряются реализации случайного объекта.

Такой мерой неопределенности случайного объекта А с конечным множеством возможных состояний А1 …Аn с соответствующими вероятностями р1…рn величину,

Н = -

которая называется энтропией случайного объекта А (или распределения рi).

Действительно, любая большая система может рассматриваться как система, которая принимает некоторое множество состояний S1, S2, …Sn с вероятностями Р1, Р2, ….Pn соответственно. Энтропия системы, будучи, как видно из формулы, математическим ожиданием логарифма вероятности пребывания системы в некотором состоянии S, рассматривается в качестве меры разнообразия для множества возможных состояний S.

Эта функция соответствует выделенной К.Шенноном в теории информации «мере неопределенности». Если выбор любого состояния равновероятен, то неопределенность выбора максимальна и определяется общим числом возможных вариантов:

Н = - .

Величина Н(n) эквивалентна понятию энтропии в статистической физике H = klnW, где W (Е) – статистический вес системы, или количество возможных квантовых состояний физической системы, внутренняя энергия которой не превосходит Е.

В связи со всем сказанным выше можно записать и еще одно утверждение в отношении энтропии:

Энтропия Н рассматриваемой системы является мерой ее неупорядоченности.

Пример с голосованием: если n кандидатов имеют одинаковую вероятность получения голоса любого заданного избирателя, то, очевидно, что Pi = - вероятность того, что избиратель выберет i-го кандидата. Если все избиратели голосуют за какого-то определенного кандидата, то можно с определенностью сказать, за какого избирателя подает голос любой произвольно выбранный избиратель. Такое распределение будет полностью упорядоченным ( Н = Нmin).

Рассмотрим следующую задачу.

Рассчитать энтропию системы, состоящей из избирателей и 5 кандидатов на государственный пост для следующих вариантов:

  1. результаты социологического опроса произвольно выбранных 1000 избирателей говорят о том, что за каждого из 5 кандидатов выступает приблизительно 200 опрошенных;

  2. в пользу 1-го кандидата высказалось 400 опрошенных

2-го 500

3-го 50

4-го 40

5-го всего 10 опрошенных

  1. в пользу 1-го кандидата высказалось  700 опрошенных

в пользу 2-го 250

3-го 30

4-го 15

5-го 5

Пример:

n = 5 неупорядоченная более упорядоченная система

система

Pi = lnPi = -1,609 P1 = 0,4 lnp1 = - 0,916

P2 = 0,5 lnp2 = - 0,693

P3 = 0,05 lnp3 = - 2,996

P4 = 0,04 lnp4 = - 3,219

P5 = 0,01 lnp5 = - 4,605

Полностью упорядоченная система

Р1 = 1

Р2…Р5 = 0.

Принцип максимизации энтропии заключается в том, что в ситуациях, когда распределение вероятностей или значения вероятностей нам неизвестны, мы задаем их, исходя из следующего утверждения:

Система находится в равновесии, когда энтропия максимальна, что соответствует полному беспорядку. В рассмотренном примере это соответствует ситуации, когда нам ничего неизвестно о распределении пристрастий избирателей, и мы принимаем вероятность избрания любого кандидата равной Pi = , что будет соответствовать максимуму энтропии. Это также соответствует равновесному и наиболее вероятному состоянию системы.

Энтропия системы, таким образом, является весьма полезной величиной при моделировании систем в условиях случайной неопределенности.