Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

В. Давнис Прогнозные модели экспертных предпочтений

.pdf
Скачиваний:
194
Добавлен:
14.08.2013
Размер:
3.39 Mб
Скачать

 

 

О к о н ч а н и е

т а б л . 3.12

1

2

3

4

Курский

0

Фатежский

1

Курчатовский

0

Хомутовский

0

Льговский

0

Черемисиновский

0

Мантуровский

0

Щигровский

0

Сравнение табл. 3.11 и 3.12 позволяет сделать вывод о том, что результаты моделирования с использованием построенной модели и экспертные оценки, в основном, совпадают. В целом, Курская область действительно малопривлекательна. Однако по ряду районов (Горшеченскому, Рыльскому, Суджанскому, Фатежскому) имеются расхождения во мнениях. Это может свидетель­ ствовать о том, что эксперты располагают дополнительной инфор­ мацией о тенденциях, которые пока еше не нашли отражение в официальной статистике, но проявление которых ожидается в ближайшем будущем.

В подобных ситуациях следует рекомендовать корректирующие уточнения базовой модели (*) с учетом субъективных мнений экспертов. Возможны различные варианты подобного уточнения. Предлагаемая нами методика позволяет это делать.

3.5. Модели множественного выбора в экспертном оценивании будущего

3.5.1. Мультиномиальная

логит-модель

множественного выбора

 

Рассмотрим случай, когда перед экспертами стоит задача выбора не среди двух, а среди целого множества альтер­ нативных вариантов. По результатам их выбора, оформленным в виде псевдовыборки, требуется построить модель, с помощью которой можно будет осуществлять прогнозные расчеты эксперт­ ных предпочтений в виде соответствующих вероятностей. Для решения этой задачи можно воспользоваться мультиномиальной логит-моделью, которая по сути является обобщением логит-мо- дели бинарного выбора. Ниже достаточно подробно описывается мультиномиальная логит-модель и некоторые детали, характери­ зующие особенность ее построения и анализа.

Предварительно все варианты множественного выбора нумеру­ ются в произвольном порядке: 0, 1, 2, ..., /. (Нумерация начата

100

с 0 только для того, чтобы было единообразие с предыдущей кодировкой 0 и 1.) Вероятность наступления того или иного ва­ рианта описывается полиномиальной логит-моделью

Р(>',=7') = ^

' 7 = 0 , 1 , 2 , . . . , / .

(3.100)

Вектор независимых переменных х(. = р w;] составлен из двух подвекторов, каждый из которых имеет собственную смысловую нагрузку. Компоненты вектора z7 принято называть атрибутами и понимать их как показатели, по которым различаются альтерна­ тивы. В свою очередь, компоненты вектора w( называют харак­ теристиками, понимая под ними описание индивидуальных черт тех лиц, которые осуществляли выбор альтернатив.

Оценка параметров модели (3.100) не дает однозначного ре­ зультата, так как вместе с вычисленными коэффициентами b идентичные вероятности позволяют получить вектор b + d. Избе­ жать этой неоднозначности позволяет операция нормализации (стандартизации), смысл которой в том, чтобы для одного из ва­ риантов, например yt = /, положить by = 0. Тогда оценивается не / + 1 функция, a / функций одного вида

Р(У,- = У') = —1=1

' 7 = 1,2,...,./,

(3.101)

1+1У'ь'

после чего определяется еще одна функция через значения этих / функций путем вычитания их суммы из единицы:

1 + 2 У "

(3.102)

7=0

 

Это одна из особенностей построения полиномиальной логитмодели. В соответствии с этой особенностью компьютерные па­ кеты рассчитывают только коэффициенты первых / зависимостей b0, b,,..., b / p по которым вычисляются в соответствии с (3.101) первые /вероятностей Р(у, = 0), Р(у(. = 1),... , PCv, = / — 1). Ве­ роятность выбора последнего варианта Р(у- = J) компьютером не рассчитывается, а определяется отдельно с помощью (3.102).

101

Форма логит-модели, применяемой для бинарного выбора, опи­ сание которой приведено выше, легко получается из полиномиаль­ ной при J = 2. В силу того, что логит-модель является частным случаем полиномиальной, ее часто называют биномиальной.

Оценивание коэффициентов модели осуществляется путем чис­ ленного решения уравнений правдоподобия. Для записи самого уравнения правдоподобия, а точнее его логарифмической формы, удобно ввести переменную */.., которая принимает значение 1, если в /-м наблюдении (z'-м индивидуумом) был выбран у'-й аль­ тернативный вариант среди (/ + 1)-го, и 0 — в противном слу­ чае. Тогда для каждого /' только одно из й-- будет равно 1.

Используя введенную переменную dp запишем функцию лога­ рифмического правдоподобия

1пь=££^1п

Xybi.

(3.103)

(=1 у=0

Sе ' к

 

Дифференцируя это выражение по b, получим систему уравне­ ний максимального правдоподобия

{ \

—-it'.—0 ' -I

к=0

 

 

 

к=0

х,=

 

1=1 ;=0

Pj

х,Ь,

 

 

 

 

 

 

к=0

 

•54

х , Ь ,

 

 

 

1 - е '

*; = £ [ < * , , - Р у К = 0 ,

У =0,1,2,.../-!. (3.104)

1=1

2у,ь<

 

 

 

 

 

 

 

 

к=0

)

 

 

102

Заметим, что ву'-м блоке уравнений суммирование идет по всем /, причем если в /-м случае был выбран у'-й вариант, т.е. y-t = j , то в квадратных скобках имеем [1 — Р^], в противном случае [— Р.]. Решение этой системы с учетом того, что Ьу = 0, осуществ­ ляется численно с помощью метода Ньютона — Рафсона. Ком­ пьютерная реализация устроена таким образом, и об этом уже го­ ворилось, что нулевые значения получают параметры той модели, которая соответствует последней из указанных альтернатив. Дру­ гими словами, если бы мы захотели, чтобы Ь0 = 0, а не Ьу, то данные, соответствующие альтернативе с номером у ~ О, долж­

ны быть введены последними.

Для реализации метода Ньютона — Рафсона требуется матрица частных производных второго порядка. Кроме того, с помощью этой матрицы определяются характеристики надежности самой модели. Поэтому имеет смысл выписать эту матрицу в общем виде:

Э21пЬ

Э

"

 

 

х,Ь,

 

 

 

 

 

 

 

 

 

 

dlt

 

Х ; =

 

 

 

 

 

 

х ,Ь,

 

 

 

 

 

к=0

 

x,b,

j

x,bt х b

x,b,

 

V"

 

е ' ' Xie

 

e

e

' '

 

 

к=0

 

 

 

х,. х,.=

/=1

 

 

 

 

 

 

 

 

 

 

=-1

 

 

 

х.Ь,

 

1 ( 7 = 0 - -

x,bj х,х,.=

1=1 ЗУА

 

 

 

5У"

 

*=0

 

 

 

(t=0

)

 

 

 

 

 

 

=-ik№j=i)-P«)h'x,

(3.105)

В полученном выражении

1(/ = I)

принимает значение 1 при

у = / и 0 — в противном случае. Это позволяет

осуществлять

селекцию, так как результатом произведения РЛ(/ =

/) является Р...

103

Матрица состоит из ^-блоков, каждый из которых имеет раз­ мер по числу оцениваемых параметров, т.е. + 1) х (т + 1), где т — число объясняющих переменных. Данные объясняющих переменных должны обеспечивать обратимость этой матрицы.

Практически нет строгих ограничений на количество оценива­ емых альтернатив, однако следует помнить, что каждая новая альтернатива требует дополнительного введения в модель т + 1 параметров.

Коэффициенты модели трудно интерпретируемы. Нелинейный характер не позволяет непосредственно через коэффициенты про­ следить связь между уровнем вероятности и атрибутами (фактора­ ми). Поэтому естественно для этих целей использовать предель­ ный анализ. Дифференцируя по /-му атрибуту в /-й точке у'-ю вероятность, получаем предельный эффект в виде

 

 

 

 

 

 

"

 

 

 

 

 

<%

 

д

 

 

 

 

 

дх/

УГ

Х / Ь /

 

 

 

 

dxj

 

 

 

 

 

 

 

J .

 

 

 

 

 

 

 

_к=0

 

х,Ь ( 1J> " Л. ЛЪ,-е^(ех-ь10+е^Ьп

+-

+ е^Ьи)

 

к=0

)

 

 

 

 

 

 

 

 

 

 

 

х,Ь,

 

 

 

х,Ь,

 

 

 

 

x,b,

 

 

2>

 

 

X:b„

-bm+-

x,b,

 

 

 

 

 

 

 

J к

lj

 

 

 

\+-

+ x,b.

 

j

 

ию

j

е • '

х, Ь,

 

E

x,b,

 

\ п

хЪ,

 

 

 

 

 

 

 

 

 

 

 

k=0

 

k=0

 

 

 

k=0

 

 

 

 

 

 

=Рцк-ьа]

 

(3.106)

При расчетах по этой формуле нужно помнить, что вектор Ь0 в соответствии с принятым соглашением нулевой, и поэтому первое слагаемое при определении математического ожидания коэффициента равно нулю.

104

Таким образом, предельный эффект, получаемый при измене­ нии /-го атрибута (1-й независимой переменной) представляет собой произведение вероятности P(yj = J) на разность коэффици­ ента, стоящего перед 1-й переменной и средней величиной это­ го коэффициента.

Предельный эффект зависит от атрибута, причем механизм этой зависимости реализуется через вероятность и через среднюю вели­ чину коэффициента, при определении которой задействована та же самая вероятность. При высокой вероятности так же, как и при малой, предельный эффект незначительный. Это объясняется тем, что при больших Р.. в средней величине коэффициента Ь, доми­ нирует величина Ьц и разность между ними близка к нулю. При малых значениях Р.. разность большая, но значение самой вероят­ ности близко к нулю, а следовательно, и величина предельного эффекта небольшая. Обобщая, можно утверждать, что 8Г -> 0 в двух случаях: когда Р.. -> 0 и когда Р.. —> 1. Своего максимально­ го значения он достигает тогда, когда вероятность близка к 0,5, т.е. имеет место ситуация с самым большим уровнем неопределен­ ности при выборе /-го варианта. Это естественно, так как имен­ но в этой ситуации наиболее ценна любая информация, уточня­ ющая наше представление о выборе альтернатив.

Фактически предельный эффект является функцией, с помо­ щью которой можно ранжировать атрибуты по степени их влия­ ния на выбор конкретного варианта. Кроме того, для каждого атрибута с помощью предельного эффекта можно определить тот вариант, на выбор которого изменение данного атрибута влияет сильнее всего. Безусловно, подобный анализ интересен, однако он не дает прямого ответа на главный вопрос: "Как изменится неопределенность выбора при изменении атрибута?" Ответ можно получить, если использовать энтропийный показатель для оценки уровня неопределенности ситуации множественного выбора.

Обычно интерес вызывает анализ конкретной ситуации. Пусть это ситуация с номером /. Тогда неопределенность выбора в /-и ситуации можно определить с помощью выражения

J

(3.107)

Hi =-l fy logzVy.

j=0

Если вероятность изменяется на величину предельного эффекта дп то, естественно, изменяется и величина энтропийного показателя

Hi+AHi = -i(Pу=оiJ+Sij)\og2(Pij+S0).

(з.108)

 

105

При AHj < 0 увеличение соответствующего атрибута снижает уровень неопределенности множественного выбора в г-й ситуации на величину ДЯ(. Если неравенство в противоположную сторону, то такое же самое изменение атрибута увеличивает уровень неопре­ деленности.

Величину ДЯ, будем называть предельным информационным эф­ фектом, имея в виду, с одной стороны, содержательный смысл этой величины, а с другой — механизм ее определения через предельный эффект атрибута. Понять, в каких ситуациях следу­ ет ожидать отрицательное значение предельного информационного эффекта, а в каких — положительное, весьма сложно. Гораздо проще вычислить ДЯ(. как разность между значениями, определя­ емыми в соответствии с (3.108) и (3.107). И все же рассмотрим механизм формирования величины предельного информационно­ го эффекта

ДЯ, = - Е (Р//+ 8и) log2(P^+ S^+i

?y Iog2 Py =

 

7=0

 

7=0

 

= -£(P//+<%)iog2

р У*П

 

 

 

 

7=0

 

-SPylogjP//-

S ^ l O & V

rPy+Sy

+ SP//log2P!/ =

i(P l/+5 (/)l0 82

P„

7=0

7=0

7=0

7=0

 

 

 

(Py+S^

(3.109)

 

7=0

7=0

P„

 

 

Полученное значение должно быть отрицательным, чтобы уве­ личение соответствующего атрибута снизило неопределенность ситуации множественного выбора. Знак выражения (3.109) зави­ сит от 8,у. Причем одновременно для всех j предельный эффект 8.. не может иметь один и тот же знак^ так как в его составе сомно­ житель, равный отклонению br ~br

Для каждой i-Pt ситуации множественного выбора можно запи­

сать

 

Д Я , = - £ V ° S 2 V

2 (Py+^)log24+V

jer

jeJ+

106

- S S0\og2Pir

X (P//+5^)log2

(3.110)

JEJ+

jeJ-

 

где J~(J+) — множество тех вариантов, для которых by ~ b, име­ ет отрицательный (положительный) знак. Следовательно, знак Д//, определяется знаком верхних слагаемых, если они по величи­ не превосходят нижние, и наоборот, если не превосходят. Зна­ чения этих сумм различны для разных /, а это значит, что в од­ них ситуациях предельный эффект будет направлен на снижение неопределенности, а в других — на повышение.

В моделях множественного выбора энтропийный анализ играет важную роль, так как лицу, принимающему решение на основе результатов моделирования, необходимы оценка уровня неопреде­ ленности смоделированной ситуации и возможные варианты ее снижения.

3.5.2. Модели множественного выбора в задачах оценки инвестиционных проектов

Рассмотрим прикладные возможности модели множе­ ственного выбора на следующем примере.

ОАО "Жемчужина" приняло решение об открытии нескольких точек общественного питания, предварительно получив разреше­ ние на строительство одной из этих точек в центре г. Воронежа, второй — в городском районе, удаленном от центра, и третьей — на Ростовской автотрассе (недалеко от города). В каждом из указанных мест можно реализовать один из трех вариантов: от­ крыть или ресторан, или кафе, или бистро. В свою очередь, на эффективность выбранного варианта влияют различные факторы, среди которых можно выделить наиболее существенные, связан­ ные с выбором типа кухни (национальной, традиционной и сме­ шанной), ориентации на потенциальных посетителей (имеющих высокие, средние и ниже среднего доходы), а также максималь­ ное количество обслуживаемых одновременно клиентов.

Руководству ОАО "Жемчужина" необходимо для каждого мес­ та, отведенного под строительство, выбрать вариант, который с наименьшим риском обеспечит прибыльное долговременное фун­ кционирование соответствующей точки общественного питания. Для объективной оценки риска было решено изучить все аспекты, связанные с этим бизнесом в г. Воронеже.

107

Компания "Эксперт", специализирующаяся на маркетинговых исследованиях, предоставила ОАО "Жемчужина" данные о наи­ более успешных ресторанах, кафе и бистро, функционирующих на территории г. Воронежа (табл. 3.13).

Т а б л и ц а 3.13

Данные о функционировании предприятий общественного питания г. Воронежа

 

Тип

Место

Тип

пред­

располо­

кухни

п/п

приятия

жения

 

 

У

х,

Х2

1

2

3

4

1

Ресторан

Центр

Традиционная

2

Ресторан

Район

Национальная

города

 

 

 

3

Кафе

Центр

Смешанная

4

Бистро

Автотрасса

Национальная

5

Кафе

Автотрасса

Национальная

6

Кафе

Район

Традиционная

города

 

 

 

7

Ресторан

Район

Традиционная

города

 

 

 

8

Кафе

Центр

Традиционная

9

Ресторан

Автотрасса

Национальная

10

Кафе

Район

Традиционная

города

 

 

 

11

Кафе

Район

Смешанная

города

 

 

 

12

Ресторан

Центр

Смешанная

13

Ресторан

Автотрасса

Традиционная

14

Кафе

Автотрасса

Смешанная

15

Бистро

Автотрасса

Смешанная

16

Ресторан

Центр

Национальная

17

Бистро

Район

Национальная

города

 

 

 

18

Кафе

Район

Национальная

города

 

 

 

Уровень

дохода

посетителей

Х3

5

Высокий

Высокий

Средний

Ниже

среднего

Высокий

Средний

Высокий

Ниже

среднего

Высокий

Высокий

Средний

Средний

Высокий

Высокий

Ниже

среднего

Средний

Средний

Высокий

Максимальное число одновре­ менно обслужи­ ваемых клиентов

Х4

6

60

45

20

15

35

60

50

15

50

30

10

40

45

35

20

35

25

25

108

О к о н ч а н и е

1

2

3

4

5

19

Ресторан

Район

Традиционная

Высокий

города

 

 

 

 

20

Бистро

Автотрасса

Традиционная

Средний

21

Бистро

Центр

Смешанная

Ниже

среднего

 

 

 

 

т а б л . 3.13

6

60

20

10

Задача состоит в выборе варианта для каждого отведенного под строительство места, обладающего наименьшим риском получения отрицательного результата. Для решения поставленной задачи можно использовать модель множественного выбора.

Для числового представления исходных данных введем коды, приведенные в табл. 3.14.

 

Т а б л и ц а 3.14

Таблица условных кодов

Тип предприятия общественного

Тип кухни:

питания:

1 — смешанная

0 — ресторан

2 — традиционная

1 — кафе

3 — национальная

2 — бистро

Уровень дохода потенциальных

Место расположения:

1 — центр города

потребителей:

2 — городской район, удален­

1 — высокий

ный от центра

2 — средний

3 — автотрасса

3— ниже среднего

Используя введенные коды, сформируем таблицу данных для построения модели (табл. 3.15).

В результате выполнения необходимых действий в пакете STATIST1CA 6.0 были получены расчетные характеристики муль­ тиномиальной логит-модели, которые отражены в табл. 3.15—3.18.

 

 

 

 

 

 

 

 

Т а б л и ц а

3.15

 

 

Числовое представление исходных данных

 

п/п

У

Х!

*>

X,

Х4

№ п/п

У

х,

Х7

* i

*4

1

0

1

2

1

60

12

0

1

1

1

40

2

0

2

3

1

45

13

0

3

2

1

45

3

1

1

1

2

20

14

1

3

1

1

35

4

2

3

3

3

15

15

2

3

1

3

20

5

1

3

3

1

35

16

0

1

3

2

35

6

1

2

2

2

60

17

2

2

3

2

25

109

Соседние файлы в предмете Анализ данных