Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Управление и оптимизация / Novikov - Teoriya upravleniya organizatsionnimi sistemami 2005

.pdf
Скачиваний:
52
Добавлен:
02.09.2019
Размер:
3.38 Mб
Скачать

несколько, то будем считать, что агент выберет из них действие, наиболее благоприятное (в оговариваемом ниже смысле) для центра (гипотеза благожелательности). Эффективностью системы стимулирования (управления) называется максимальное значение целевой функции центра на множестве действий агента, реализуемых этой системой стимулирования.

Задача стимулирования заключается в назначении центром такой системы стимулирования, при которой агент выбирает наиболее благоприятное для центра действие. Решение рассматриваемой задачи элементарно (см. раздел 2.1): для фиксированной системы стимулирования σ определяется множество действий агента, доставляющих максимум его целевой функции (это множество называется множеством реализуемых действий): P(σ) = {i Î N | fi ³ fj, j Î N}, после чего ищется система стимулирования, которая реализует наиболее благоприятное для центра действие.

Если целевая функция центра Φ = 1, Φ2, …, Φn) представляет собой разность между доходом и стимулированием, то есть Φi = Hi σi, i Î N, то оптимальна система стимулирования σ* = arg max max {Hi σi}.

σi P( σ )

Записывая определение множества реализуемых дейст-

вий в виде: P(σ) = {i Î N | qi + σi ³ qj + σj, j Î N}, получаем, что минимальной (то есть имеющей в каждой точке мини-

мальное значение) системой стимулирования, реализующей в рамках гипотезы благожелательности все действия агента, является компенсаторная система стимулирования

σK = 1K , σ 2K , …, σ nK ), определяемая следующим образом:

σ Kj = qk – qj, j Î N,

(1)

где k = arg max qj.

j N

70

Множество оптимальных с точки зрения центра реализуемых действий при этом есть:

P, f) = Arg max {Hi σ iK } = Arg max {Hi – qk + qi}. (2)

i N

i N

Содержательно компенсаторная система стимулирования, являющаяся решением задачи стимулирования, делает все допустимые действия агента эквивалентными с точки зрения его целевой функции, то есть в точности компенсирует агенту те потери, которые он несет при выборе данного действия по сравнению с выбором действия k, приносящего наибольший доход в отсутствие стимулирования (очевидно, для центра доплачивать агенту за выбор этого действия не имеет смысла).

Итак, при формулировке задачи стимулирования в терминах целевых функций предпочтения агента на конечном множестве действий задаются вектором q чисел, разности (1) между которыми есть минимальные выплаты, делающие соответствующие пары действий эквивалентными с точки зрения значений целевой функции агента. Альтернативой такому описанию предпочтений является задание предпочтений непосредственно на парах действий агента, то есть перечисление n2 чисел (являющихся, например, экспертной информацией, полученной в результате парных сравнений альтернатив), интерпретируемых как сравнительная предпочтительность действий в смысле минимальных доплат, делающих соответствующую пару действий эквивалентными. Этот подход и его взаимосвязь с описанием предпочтений в терминах целевых функций рассматривается ниже в настоящем разделе.

Задача стимулирования, сформулированная в терминах метризованных отношений. Целевая функция агента, зависящая от используемой центром системы стимулирования, порождает на множестве N полное антисимметричное транзитивное бинарное отношение (см. Прило-

71

жение 3), причем всегда существует хотя бы одна недоминируемая по этому отношению альтернатива (действие). В терминах этого бинарного отношения задачу стимулирования можно формулировать следующим образом: найти такую систему стимулирования, что недоминируемой по соответствующему бинарному отношению окажется альтернатива, наиболее благоприятная с точки зрения центра.

Такая постановка задачи выглядит искусственной по следующим причинам. Во-первых, теряется содержательная интерпретация стимулирования как вознаграждения за выбор того или иного действия (введение явной зависимости бинарного отношения от вектора стимулирования выглядит очень экзотической конструкцией). Во-вторых, одно и то же бинарное отношение может порождаться несколькими (не только различающимися аддитивной константой) целевыми функциями (см. Приложение 4). Кроме того, не совсем ясно, как сделать обратный переход – от бинарного отношения к конкретной целевой функции, ведь в прикладных задачах ключевую роль играет именно численное значение вознаграждения, получаемого агентом.

Промежуточное место между «обычными» бинарными отношениями и целевыми функциями занимают так называемые метризованные отношения (МО). МО на множестве N задается матрицей = ||δij||, i, j N. Элементы δij матрицы , i, j N – положительные, отрицательные или равные нулю числа, интерпретируемые как сравнительные предпочтительности различных альтернатив, в нашем случае – действий агента (отметим, что рассматриваются полные отношения, то есть исключается несравнимость действий и т. д.).

Будем считать, что если δij < (>) 0, то действие i в отсутствие стимулирования строго лучше (хуже) для агента, чем действие j; если δij = 0, то действия i и j эквивалентны.

72

Содержательно величина δij равна той сумме, которую нужно доплатить агенту, чтобы действие i стало эквивалентным действию j.

Предположим, что управление со стороны центра (стимулирование) заключается в изменении сравнительной предпочтительности различных действий, то есть элементов матрицы . Задача стимулирования при этом, как и ранее, заключается в таком их допустимом изменении, чтобы наилучшим для агента стало максимально благоприятное для центра действие.

Предположим, что предпочтения агента удовлетво-

ряют следующему свойству: i, j, m N δim + δmj = δij,

которое назовем условием внутренней согласованности

(УВС) предпочтений. Из УВС следует, что δii = 0, δij = δji, i, j N (см. раздел «Псевдопотенциальные графы» в Приложении 2), причем граф, соответствующий матрице , является потенциальным с потенциалами вершин qi, i N, определяемыми с точностью до аддитивной константы следующим образом:

 

1

n

 

qi = −

åδim , i N.

(3)

 

 

n m=1

 

Матрицу можно восстановить по потенциалам qi,

i N, однозначно:

 

 

 

δij = qj – qi, i, j N.

(4)

Содержательно потенциалы действий можно интерпретировать как значения функции дохода агента, а элементы матрицы – как их первые разности.

Если предпочтения агента заданы в виде МО, удовлетворяющего УВС, то информация обо всех элементах матрицы является избыточной: например, если известна одна ее строка (или столбец), то в рамках УВС остальные элементы матрицы восстанавливаются суммированием по соответствующим цепочкам. Это свойство внутренне со-

73

гласованных МО представляется достаточно привлекательным с точки зрения объема информации, которую необходимо получить на практике для идентификации параметров ОС.

Наилучшим с точки зрения агента действием в рассматриваемой модели можно считать действие k, для которого δkj £ 0 для всех j Î N. В случае внутренне согласованных предпочтений такое действие (быть может, не единственное) всегда существует – это действие, имеющее максимальный потенциал. Таким образом, множество реализуемых действий в данном случае есть

P(D) = {k Î N | δkj £ 0, j Î N}.

Определим для произвольной пары действий i и j, i, j Î N, операцию ( j i) «уравнивания» их потенциалов:

q jji ® q j + (qi - q j ) . В терминах элементов матрицы D эта операция состоит из двух этапов:

1)δ jmji ® δ jm +δij , m Î N;

2)δ mjji ® -δ jm , m Î N.

При этом очевидно, действие j становится эквивалентным действию i ij = δji = 0), причем внутренняя согласованность предпочтений агента сохраняется, а стоимость для центра проведения операции ( j i) равна:

δji = qi – qj (ср. с (1)).

Идея решения задачи стимулирования заключается в следующем. Для того чтобы побудить агента выбрать действие l Î N, центр должен выплачивать агенту за выбор этого действия вознаграждение σl, удовлетворяющее системе неравенств: σl σi ³ δli, i, l Î N. Компенсаторная сис-

тема стимулирования

 

σl = max δlj = max (qj ql) = qk ql = δlk, l Î N,

(5)

j N

j N

 

74

удовлетворяет этой системе неравенств. Поэтому если k – наиболее предпочтительное с точки зрения агента в отсутствие стимулирования действие, то минимальное значение стимулирования σl для реализации действия l равно δlk, l N. Еще раз отметим, что компенсаторная система стимулирования (5) делает все действия агента эквивалентными с его точки зрения.

Пусть предпочтения центра в отсутствие стимулиро-

вания заданы в виде МО – матрицы Γ = ||γij||, i, j N, – удовлетворяющего УВС. Матрице Γ может быть поставлена в соответствие «функция» дохода центра

 

1

n

Hi = −

åγ im , i N. Если вознаграждение, выплачивае-

 

 

n m=1

мое агенту, вычитается из функции дохода центра, то, реализуя действие l, центр «теряет» δlk, l N. Следовательно, сравнительная предпочтительность с точки зрения центра пары действий (k, l) также изменяется. Численно новое значение в силу УВС равно сумме: γkl + δkl. Значит, предпочтения центра с учетом стимулирования представляются МО Ξ, определяемым следующим образом:

Ξ = + Γ = ||γij + δij||, i, j N.

Тот факт, что в отношение предпочтения центра Ξ аддитивно входят как его собственные предпочтения в отсутствие стимулирования, так и предпочтения агента в отсутствие стимулирования, позволяет содержательно интерпретировать стимулирование как согласование их интересов.

Легко видеть, что если предпочтения и центра, и агента в отсутствие стимулирования внутренне согласованны, то и МО Ξ удовлетворяет УВС. Из этого следует справедливость следующего утверждения [11]: множество оптимальных реализуемых действий агента есть (ср. с (2)):

P(Γ, ) = {i N | δij ≤ γji, j N}.

75

Взаимосвязь между задачами стимулирования, сформулированными в терминах целевых функций и МО, устанавливается следующим утверждением [11]: задачи стимулирования, сформулированные в терминах целевых функций и МО, удовлетворяющих УВС, эквивалентны.

Эквивалентность подразумевает сводимость одной задачи к другой и наоборот. Пусть задача стимулирования сформулирована в терминах целевых функций, то есть известна функция q дохода агента. Матрицу , считая значения функции дохода потенциалами, определим по выражению (4); выполнение УВС очевидно. Аналогично, если выполнено УВС, то по матрице можно по выражению (3) восстановить потенциалы (функцию дохода), то есть выполнить переход в обратную сторону. Итак, если выполнено УВС, то из (3)–(4) следует, что P(Γ, ) = P(Φ, f).

Из проведенного анализа следует, что МО описывают более широкий класс предпочтений агента и центра, нежели целевые функции, так как последние эквивалентны внутренне согласованным МО.

Конечно, нет никаких гарантий, что полученное на практике (например, в результате некоторой экспертной процедуры) МО, отражающее выявленные предпочтения управляемого субъекта, окажется внутренне согласованным. Методы решения задач стимулирования, сформулированных в терминах МО, не удовлетворяющих УВС, описаны в [11, 47].

2.3. Базовые механизмы стимулирования

Перечислим базовые системы (механизмы) стимули-

рования в одноэлементных детерминированных, то есть функционирующих в условиях полной информированности обо всех существенных внешних и внутренних параметрах, организационных системах (оптимальная базовая

76

система стимулирования – компенсаторная (К-типа) – подробно описана и исследована в разделе 2.1).

Скачкообразные системы стимулирования (С-типа)

характеризуются тем, что агент получает постоянное вознаграждение (как правило, равное максимально возможному или заранее установленному значению) при условии, что выбранное им действие не меньше заданного, и нулевое вознаграждение при выборе меньших дейст-

вий (рис. 2.3):

ìC, y ³ x

.

(1)

σС (x, y) = í

0, y < x

î

 

 

Параметр x Î X называется планом – желательным с точки зрения центра состоянием (действием, результатом деятельности и т. д.) агента.

σС (x, y)

C

y

0 x

Рис. 2.3. Скачкообразная система стимулирования

Системы стимулирования С-типа содержательно могут интерпретироваться как аккордные, соответствующие фиксированному вознаграждению при заданном результате (например, объеме работ не ниже оговоренного заранее, времени и т. д.). Другая содержательная интерпретация соответствует случаю, когда действием агента является количество отработанных часов, то есть вознаграждение соответствует, например, фиксированному окладу.

77

Пропорциональные (линейные) системы стиму-

лирования (L-типа). На практике широко распространены системы оплаты труда, основанные на использовании постоянных ставок оплаты: повременная оплата подразумевает существование ставки оплаты единицы рабочего времени (как правило, часа или дня), сдельная оплата – существование ставки оплаты за единицу продукции и т. д. Объединяет эти системы оплаты то, что вознаграждение агента прямо пропорционально его действию (количеству отработанных часов, объему выпущенной продукции и т. д.), а ставка оплаты a ³ 0 является коэффициентом пропорциональности (рис. 2.4):

sL(y) = a y.

(2)

В более общем случае возможно, что часть вознаграждения агента выплачивается ему независимо от его действий, то есть пропорциональная система может иметь вид:

sL(y) = s0 + a y.

При использовании пропорциональных (линейных) систем стимулирования и непрерывно дифференцируемой монотонной выпуклой функции затрат агента выбираемое им действие определяется следующим выражением:

y* = c¢−1 (a), где c¢−1 (×) – функция, обратная производной функции затрат агента. При этом затраты центра на стимулирование превышают минимально необходимые (равные компенсируемым затратам агента) на следующую величину: y*c'(y* ) – c(y* ). Например, если центр имеет функцию дохода H(y) = b y, b > 0, а функция затрат агента выпукла и равна: c(y) = a y2, a > 0, то при любом реализуемом действии агента центр при использовании пропорциональной системы стимулирования переплачивает ему ровно в два раза.

78

 

σL(y)

α

y

 

0

 

Рис. 2.4. Пропорциональная система стимулирования

Таким образом, при выпуклых функциях затрат агента эффективность пропорциональных систем стимулирования не выше, чем компенсаторных. График целевой функции агента при использовании центром пропорциональной системы стимулирования приведен на рисунке 2.5.

αy

y

0

y*

f(y)

c(y)

Рис. 2.5. Целевая функция агента при использовании центром системы стимулирования L-типа

Неэффективность пропорциональных систем стимулирования вида σL(y) = α y обусловлена требованием неотрицательности вознаграждений. Если допустить, что вознаграждение может быть отрицательным (при этом «отрицательный» участок функции стимулирования может не использоваться – см. рис. 2.6): σ(L (y) = σ0 + α y, где

79