Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Управление и оптимизация / Voronin - Matematicheskiye modeli organizatsiy 2008

.pdf
Скачиваний:
61
Добавлен:
02.09.2019
Размер:
4.06 Mб
Скачать

является гладкой, выпуклой, неубывающей функцией с нулевой производной при нулевом действии агента. Функция полезности отражает, в том числе, отношение агента к риску – для нейтрального к риску агента она линейная, для несклонного к риску – вогнутая

[7, 53].

Порядок функционирования и информированность участников ОС следующие: центр сообщает агенту систему стимулирования σ~ (z), т.е. зависимость вознаграждения агента от результата его деятельности, после чего агент выбирает свое действие, ненаблюдаемое для центра. Принципиально важно, что в рассматриваемой модели ни центр, ни агент на момент выбора своих стратегий не знают будущего значения результата деятельности.

Агент выберет действие из множества P(σ~ (×)) действий, доставляющих максимум математическому ожиданию его функции полезности, т.е.:

~

~

(6) P(σ (×)) = Arg max

[ òu(σ(z)) p(z, y)dz c(y)].

y³0

 

Пусть выполнена гипотеза благожелательности (при прочих равных агент выбирает наиболее выгодные для центра действия). Тогда задача стимулирования заключается в выборе системы стимулирования σ~ (×), максимизирующей эффективность стимулирования – математическое ожидание функции полезности центра на множестве (6):

(7) max

~

yÎP(σ (×))

[H(y)

ò

~

~

 

σ(z) p(z, y)dz ] → max .

 

 

σ (×)

Общего аналитического решения задачи (7) на сегодняшний день не известно (см. достаточные условия оптимальности различных систем стимулирования в [38]), за исключением нескольких частных случаев, в числе которых – рассматриваемые ниже модель простого активного элемента и модель Парето-агента.

Простой активный элемент. Хрестоматийной моделью вероятностной ОС, в которой удается получить простое аналитическое решение задачи стимулирования, является модель простого активного элемента [1]. Пусть агент нейтрален к риску (линейную функцию полезности при записи всех выражений будем пропускать) интегральная функция F(z, y) распределения p(z, y) может быть представлена в виде:

201

ìF(z), z < y

(8) F(z, y) = í ,

î1, z ³ y

где F(z) – некоторая интегральная функция распределения, зави-

сящая только от результата деятельности. Очевидно, что вероятность того, что результат деятельности окажется строго больше действия, равна нулю. Т.е. наличие неопределенности приводит к тому, что результат деятельности агента оказывается не больше его действия. Организационная система, в которой интегральная функция распределения представима в таком виде, называется системой

спростым активным элементом.

В[38] доказано, что в системе с простым активным элементом в рамках гипотезы благожелательности оптимальна компенсаторная система стимулирования (равная затратам агента).

Нейтральный к риску Парето-агент. Будем называть Парето-

агентом такого агента, у которого p(z, y) = p, y, z), т.е. распределение результатов которого описывается распределением Парето с минимальным значением, равным действию агента (см. выражение (1)). Содержательно, агент выбирает свой уровень усилий (гарантированное значение результата деятельности), и результат будет заведомо не меньше действия, а может оказаться и больше, причем вероятность больших значений результата достаточно высока (распределение Парето принадлежит классу «распределений с тяжелыми хвостами»). Решим задачу (7) для нейтрального к риску (имеющего линейную функцию полезности) Парето-агента с α > 1.

Общим принципом, используемым ниже, является выбор такой системы стимулирования, зависящей от результата деятельности агента, что математическое ожидание ее полезности равно затратам агента в точке плана (или равно значению оптимальной детерминированной системы стимулирования), а точка плана при этом является точкой максимума ожидаемой полезности центра. Из детерминированной теории стимулирования [37] известно, во-первых, что минимальные затраты на реализацию (т.е. побуждению к выбору) любого действия нейтрального к риску агента (при нулевой резервной полезности) равны затратам агента по выбору этого действия. Во-вторых, известно [38], что ожидаемые затраты центра на стимулирование в случае наличия неопределенности не ниже, чем в детерминированном случае. Следовательно, если в условиях вероят-

202

ностной неопределенности удается реализовать некоторое действие так, что математическое ожидание затрат центра на стимулирование равно затратам агента по выбору этого действия, то такая система стимулирования оптимальна.

Математическое ожидание функции полезности агента равно:

~

~

(9) E f

(z, y) = Eσ (z) – c(y).

Линейная система стимулирования. Фиксируем план x ³ 0.

Из результатов решения детерминированных задач стимулирования известно (см. раздел 3.2), что оптимальной линейной системой стимулирования, реализующей план x, является следующая:

(10)sL(x, y) = c’(x) (y – x) + c(x).

Найдем линейную систему стимулирования σ~ L(x, z) = a z + b,

 

 

 

 

 

 

~

 

где a и b – константы, такую, что Eσ L(x, z) = sL(x, y). Легко вычис-

лить, что константы a и

b должны быть

следующими:

a =

α −1

c’(x),

b = c(x) – c’(x) x.

Итак, получаем,

что линейная

 

 

α

 

 

 

 

 

система стимулирования

 

 

~

 

α −1

 

 

 

(11) σ L(x, z) =

 

 

c’(x) z + c(x) – c’(x) x

 

α

 

реализует план x (побуждает агента выбрать действие, совпадающее с планом), и ее математическое ожидание в точности равно (для любого y > 0) оптимальной детерминированной системе стимулирования (10).

Зная, что агент выберет действие, совпадающее с планом, оптимальный план можно найти из решения следующей задачи:

(12) x* = arg max [H(x) – c(x)].

x³0

Отметим, что оптимальный план в рассматриваемой вероятностной модели такой же, что и в соответствующем детерминированном случае. Кроме того, с уменьшением неопределенности (росте a) правая часть выражения (11) стремится к правой части выражения

(10).

Таким образом, в модели нейтрального к риску Парето-агента оптимальна линейная система стимулирования (11), (12).

Компенсаторная система стимулирования. Задача синтеза оптимальной компенсаторной системы стимулирования (см. раздел 3.2) в организационной системе с Парето-агентом заключается в

203

нахождении такой системы стимулирования σ~ K(z), математическое ожидание которой равно затратам агента:

(13)Eσ~ K(z) = c(y), y ³ 0.

Распишем условие (13) более подробно:

(14) a yα +∞ò s~zKα(+1z) dz = c(y), y ³ 0.

y

Решать уравнение (14) относительно σ~ K(z) в общем виде – достаточно сложная задача. Поэтому исследуем ее для случая, когда

агент

имеет

 

функцию

затрат

типа

Кобба-Дугласа:

c(y) =

1 (y)γ (r)1−γ , γ ³ 1, и будем искать решение в классе степен-

 

g

 

 

 

 

 

 

 

 

 

 

ных функций:

 

 

 

 

 

 

 

 

 

 

~

1

 

β1

 

1−β2

 

 

 

 

 

 

(15) σ

K(z) =

 

z

 

r

 

.

 

 

 

 

 

b0

 

 

 

 

 

αγ

 

Подставляя

(15)

в (14),

получаем,

что решение β0 =

,

a - g

 

 

 

 

 

 

 

 

 

 

 

 

β1 = γ, β2 = γ, существует при условии

(16)1 ≤ γ < α.

Таким образом, если выполнено условие (16), то в модели Па-

рето-агента с функцией затрат типа Кобба-Дугласа оптимальна «компенсаторная» система стимулирования

(17) σ~ K(z) = α − γ z γ r 1-γ, ag

в которой план определяется выражением (12).

Отметим, с уменьшением неопределенности (росте a) «компенсаторная» система стимулирования (17) стремится к функции затрат агента, т.е. к компенсаторной системе стимулирования, оптимальной в детерминированном случае.

Тарифная (скачкообразная система) стимулирования. Из-

вестно (см. [37] и раздел 3.2), что в детерминированном случае оптимальна скачкообразная система стимулирования

ìc(x), y ³ x

,

(18) sC(x, y) = í

y < x

î0,

 

204

 

 

в которой оптимальное значение плана определяется выражением

(12).

Рассмотрим следующую скачкообразную систему стимулирования в модели Парето-агента:

~

ì c(x), z ³ x

.

(19) σ

С(x, z) = í

y < x

 

î0,

 

Вычислим математическое ожидание выражения (19):

~

ì1,

 

 

y ³ x

 

ï

 

 

α

 

.

(20) Eσ

С(x, z) = c(x) íæ y ö

 

, y £ x

 

ïç

 

÷

 

 

 

 

 

 

 

îè x ø

 

 

 

Условие выгодности для агента выбора действия x ³ 0 имеет

вид:

c(y)

 

c(x)

 

(21) " y [0; x]

³

.

yα

 

 

 

xα

Таким образом, если выполнено

(22) " y [0; x*]

c(y)

³

c(x* )

,

yα

(x* )α

 

 

 

то в модели Парето-агента оптимальна скачкообразная система стимулирования (19), в которой план определяется выражением (12). Если, дополнительно, агент имеет функцию затрат типа КоббаДугласа, то условие (22) переходит в условие (16).

Отметим, с уменьшением неопределенности (росте α) скачкообразная система стимулирования (19) стремится к скачкообразной системе стимулирования (18), которая оптимальна в детерминированном случае.

Итак, результаты настоящего раздела дают для модели Паретоагента решение задачи синтеза оптимальной системы стимулирования. Показано, что оптимальна линейная система стимулирования, и получен ее явный вид. Приведены достаточные условия оптимальности «компенсаторной» и скачкообразной систем стимулирования.

Отдельного обсуждения заслуживает влияние неопределенности на эффективность стимулирования. Во-первых, все приведенные выше результаты решения задачи стимулирования в условиях неопределенности удовлетворяют принципу соответствия: при предельном переходе («стремлении» неопределенности к «нулю»)

205

вероятностная модель переходит в детерминированную, а оптимальные решения задач стимулирования в условиях неопределенности – в оптимальные решения соответствующих детерминированных задач стимулирования. Во-вторых, эффективность стимулирования Парето-агента (функционирующего в условиях неопределенности) тождественно равна эффективности стимулирования в соответствующей детерминированной организационной системе. Данный факт представляется довольно нетривиальным, так как в [38] доказано, что эффективность стимулирования в условиях вероятностной неопределенности не выше, чем в условиях полной информированности.

3.8.3. Механизмы стимулирования в условиях внутренней неопределенности1

Рассмотрим модель ОС, в которой целевая функция центра имеет вид:

(1) F(s(×), y) = H(y) s(y),

где y ³ 0, а целевая функция агента:

(2) f(s(×), y) = s(y) – c(y, r),

где r Î W = [r -, r+] – тип агента (параметр, характеризующий эффективность его деятельности).

Предположим, что функция затрат агента – гладкая, возрастает и выпукла по действию агента, равна нулю при нулевом действии, убывает по его типу и имеет отрицательную смешанную производную.

Если значения типа агента известны и агенту, и центру (имеет место полная информированность, то есть неопределенность отсутствует), то из результатов раздела 3.1 следует, что оптимальна компенсаторная система стимулирования

ìc(x, r), y = x

,

(3) s*(x, y, r) = í

y ¹ x

î0,

 

с оптимальным планом

(4) x*(r) = arg max [H(y) – c(y, r)].

y³0

1 Настоящий раздел написан совместно с к.т.н. Н.А. Коргиным.

206

Выигрыш центра при этом равен

(5) Φ*(r) = H(x*(r)) – c(x*(r), r).

Пример 3.7. Пусть H(y) = y, c(y, r) = y2 / 2 r, W = [1; 3]. Тогда x*(r) = r, Φ*(r) = r / 2. ·

Пусть имеет место внутренняя неопределенность (асимметричная информированность участников ОС) – центру не известен тип агента, в то время как самому агенту его тип известен. Рассмотрим различные возможные варианты.

Интервальная неопределенность. Если центру известно толь-

ко множество W возможных значений типов агента, то в силу принципа максимального гарантированного результата он вынужден рассчитывать на наихудшее значение типа r - (то есть то значение, при котором затраты агента максимальны). Получаем детерминированную задачу стимулирования (см. раздел 3.1), в которой оптимальна будет компенсаторная система стимулирования

ì

-

), y = x

,

(6) σМГР(x, y) = íc(x, r

 

î0,

 

y ¹ x

 

с оптимальным планом

 

 

(7) xМГР = arg max [H(y) – c(y, r -)].

y³0

Максимальный гарантированный выигрыш центра при этом ра-

вен

(8) ΦМГР = H(xМГР) – c(xМГР, r -).

Пример 3.8. Рассмотрим Пример 3.7. Тогда

xМГР = 1, ΦМГР = 1 / 2.

Потери центра из-за отсутствия информации можно оценить

величиной Φ*(r) ΦМГР = (r – 1) / 2 ³ 0 r Î W. То есть, эффективность стимулирования в условиях неопределенности в рассматри-

ваемом случае не выше, чем в условиях полной информированности. ·

Предположим, что центр использует механизм с сообщением информации: предлагает агенту – «сообщи мне оценку s Î W своего типа, а я ее буду использовать при выборе системы стимулирования».

Если при этом центр принимает сообщенную агентом оценку за истинную, то есть использует систему стимулирования:

207

ìc(x, s), y = x

,

(9) σ (s, x, y) = í

y ¹ x

î0,

 

с оптимальным планом

(10) x(s) = arg max [H(y) – c(y, s)],

y³0

то агенту выгодно сообщать оценку

(11) s*(r) = arg max [c(x(s), s) – c(x(s), r)].

sÎW

Максимальный гарантированный выигрыш центра при этом ра-

вен

(12) Φ(r) = H(x(s*(r))) – c(x(s*(r)), s*(r)).

Очевидно, r Î W Φ(r) ³ ΦМГР.

Пример 3.9. Рассмотрим Пример 3.7. Тогда x(s) = s, и агенту выгодно занижать свой тип в два раза: s*(r) = max {r / 2; r -}. При этом Φ(r) = max {r / 4; 1/2}. В данном случае при r ³ 2 потери центра из-за отсутствия информации можно оценить величиной

Φ*(r) Φ(r) = r / 4 ³ 0 r Î W.

Кроме того, при r ³ 2 имеет место:

Φ(r) ΦМГР = r / 4 – 1 / 2 ³ 0 r Î W.

Опять же, эффективность стимулирования в условиях неопределенности не выше, чем в условиях полной информированности. · Выше мы рассмотрели частный случай, в котором центр принимает сообщенную агентом оценку его типа за истинную. В общем случае центр предлагает агенту так называемое меню контрактов [19, 24, 52, 53], в котором каждый контракт (или план), состоящий из действия, назначаемого агенту, и стимулирования за выполнения данного действия, зависят от сообщенной оценки, то есть π(s) =(y(s), σ(s)). Причем, если при построение механизма стимулирования с сообщением информации выполнены условие совершен-

ного согласования (УСС) [39]:

f (p(s), s) = max f (z, s) ,

z X

где z – произвольная пара (y, σ), а Х – множество значений z, допустимых для агента, то доминантной стратегией агента будет сообщение истинного значения своего типа. Такой механизм называется

механизмом открытого управления. Кроме того, в [39] доказано,

что для ОС, состоящих из центра и одного агента, эффективный механизм управления (механизм стимулирования с сообщением

208

информации) можно без потери эффективности искать в классе механизмов открытого управления.

Вероятностная неопределенность. Предположим, что центру известно распределение вероятностей p(r) типов агента на множестве Ω. Тогда центр может использовать в качестве критерия эффективности механизма стимулирования математическое ожидание ЕΦ своей целевой функции. Построим оптимальный механизм стимулирования с сообщением информации, т.е.

EΦ (π (s)) max ,

π(s)

при условии, что центру не известно значение типа агента, а известно лишь, что тип агента равномерно распределен на множестве Ω = [rmin, rmax]. По аналогии с рассмотренным выше случаем интервальной неопределенности, оптимальный механизм стимулирования с сообщением информации будет являться механизмом открытого управления, т.е. удовлетворять УСС.

Пример 3.10. Рассмотрим Пример 3.7. при условии, что центру известно, что тип агента на множестве его возможных значений распределен равномерно:

F(r) = r - rmin

rmax - rmin

В [24] показано, для выполнения УСС механизм стимулирования должен удовлетворять следующим требования (см. также при-

меры в [53]):

(13)

dσ

(r) −

y(r)

 

dy

(r) = 0 , r Ω ,

ds

r ds

 

 

 

(14)yr(2r) dyds (r) ≤ 0 , r Ω ,

(15)dsdσ (s) ³ 0, dsdy (s) ³ 0, "s Î W .

Условия (13) и (14) являются условиями максимума функции полезности агента при использовании механизма открытого управления и сообщении агентом достоверной информации о своем типе. Условие (15) определяет принципиальное свойство неманипулируемого механизма стимулирования с сообщением информации – действие, выбираемое агентом, и оплата за этот выбор растут с ростом сообщаемой агентом оценки собственного типа. Содержа-

209

тельно, чем лучше охарактеризовал себя работник, тем больший предлагается ему выполнить объем работ за большую оплату.

Если механизм удовлетворяет условиям (13)-(14), то прибыль агента от взаимодействия с центром (его функция полезности ν(r) = ϕ(δ(r), y(r), r) ) может быть записана в следующем виде:

ry(τ)2

(16)ν (r) = rminò 2 dτ .

Проанализировав выражение (16), получаем, что для построения механизма стимулирования, максимизирующего ожидаемую прибыль центра, необходимо максимизировать следующий функционал:

rmax

 

y(r)

2

r

y(τ)

2

 

EΦ(Ω) = ò

[y(r) −

 

ò

 

dτ]ρ(r)dr → max

 

 

2

 

rmin

 

2r

 

rmin

 

y

 

 

 

 

0 y(r), 0 ≤ σ (r).

Не останавливаясь подробно на процессе решения, рассмотренном в [24], приведем вид оптимального механизма стимулирования:

y(r) =

r 2

, r Ω ;

r

 

 

 

 

 

 

max

 

 

s(r) =

4r 3

- rmin3

, r Ω .

 

 

 

 

 

 

 

6r 2

 

 

 

 

 

 

max

 

 

Ожидаемая полезность центра при использовании данного ме-

ханизма стимулирования составит

 

 

EΦ(Ω) =

1

 

(rmax2 + rmax rmin + rmin2 )

 

6r

 

 

 

 

 

 

 

 

 

 

 

max

 

 

Нетрудно показать, что Ω EF(Ω) ³ FМГР .

Интересной особенностью данного механизма является слабая его зависимость от ограничений на стимулирование или выбираемые агентом действия. Пусть R – бюджетное ограничение центра, y+

– максимальный объем работ, который может выполнить агент (или максимальный объем работ, который требуется центру). Тогда рассматриваемая задача может быть представлена в виде задачи динамического программирования:

EΦ(Ω) =

rmax

[y(r) −

y(r)2

r

y(τ)2

dτ]ρ(r)dr → max

ò

 

ò

 

 

2r

2

 

 

 

y

 

rmin

 

 

rmin

 

 

0 ≤ y(r) ≤ y+, 0 ≤ σ (r) ≤ R.

210