- •1. Процесс принятия решений. Три условия принятия решений.
- •2. Принятие решений в условиях определенности. Структура с одним иерархическим уровнем.
- •3. Принятие решений в условиях определенности. Структура с двумя иерархическими уровнями.
- •4. Принятие решений в условиях определенности. Понятие веса и комбинированного веса.
- •5. Принятие решений в условиях определенности. Понятие матрицы парных сравнений.
- •6. Принятие решений в условиях определенности. Понятие нормализованной матрицы.
- •7. Принятие решений в условиях определенности. Пример согласованной матрицы.
- •8. Принятие решений в условиях определенности. Условие согласованности.
- •9. Принятие решений в условиях определенности. Коэффициент согласованности.
- •10. Принятие решений в условиях риска. Сравнение альтернативных решений.
- •11. Принятие решений в условиях риска. Понятие дерева решений.
- •12. Принятие решений в условиях риска. Связь между «состоянием природы» и ожидаемым платежом.
- •13. Принятие решений в условиях риска. Альтернатива на примере ремонта автомобилей.
- •14. Принятие решений в условиях риска. Критерий выбора периодичности ремонта автомобилей.
- •15. Принятие решений в условиях риска. Зависимость вероятности поломки автомобиля от срока эксплуатации.
- •16. Принятие решений в условиях риска. Априорные вероятности.
- •17. Принятие решений в условиях риска. Апостериорные вероятности.
- •18. Принятие решений в условиях риска. Вероятностные соотношения, отражающие мнение специалиста при принятии решения на основе эксперимента над исследуемой системой.
- •19. Принятие решений в условиях риска. Дерево решений при использовании апостериорных вероятностей.
- •20. Принятие решений в условиях риска. Вероятность совместного появления событий m и .
- •21. Принятие решений в условиях риска. Абсолютная вероятность.
- •22. Принятие решений в условиях риска. Выражение для апостериорной вероятности.
- •23. Принятие решений в условиях риска. Понятие функции полезности.
- •24. Принятие решений в условиях риска. Графическое изображение функции полезности.
- •25. Принятие решений в условиях риска. Процедура построения функции полезности.
- •26. Принятие решений в условиях риска. Понятие критерия ожидаемого значения.
- •27. Принятие решений в условиях риска. Составляющие критерия ожидаемого значения – дисперсия.
- •28. Принятие решений в условиях риска. Понятие критерия предельного уровня.
- •29. Принятие решений в условиях риска. Использование критерия предельного уровня в сфере массового обслуживания.
- •30. Принятие решений в условиях риска. Критерий наиболее вероятного исхода.
- •31. Принятие решений в условиях неопределенности. Критерий Лапласа.
- •32. Принятие решений в условиях неопределенности. Минимаксный критерий.
- •33. Принятие решений в условиях неопределенности. Критерий Сэвиджа.
- •34. Принятие решений в условиях неопределенности. Критерий Гурвица.
- •35. Марковские процессы. Понятие матрицы переходных вероятностей и матрицы доходов.
- •36. Марковские процессы. Стационарная стратегия.
- •37. Марковские процессы. Основной смысл решений, принимаемых садовником.
- •38. Марковские процессы. Представление задачи садовника как задачи динамического программирования с конечным числом этапов (основные элементы).
- •39. Марковские процессы. Ожидаемый доход, обусловленный одним переходом.
- •40. Марковские процессы. Понятие обратной прогонки в задаче динамического программирования.
- •41. Марковские процессы. Рекуррентное уравнение динамического программирования при условии изменения переходных вероятностей и функции дохода во времени.
- •42. Марковские процессы. Коэффициент дисконтирования. Его учет в рекуррентном уравнении динамического программирования при конечном числе этапов.
- •43. Марковские процессы. Общая характеристика методов решения задачи с бесконечным числом этапов.
- •44. Марковские процессы. Алгоритм метода полного перебора. Общая характеристика.
- •45. Марковские процессы. Пример вычисления долгосрочных стационарных вероятностей в методе полного перебора в модели с бесконечным числом этапов.
- •46. Марковские процессы. Характеристика результирующей таблицы в методе полного перебора в методе с бесконечным числом этапов.
- •47. Марковские процессы. Недостаток метода полного перебора в модели с бесконечным числом этапов.
- •48. Марковские процессы. Модификация рекуррентного уравнения в методе итераций по стратегиям при бесконечном числе этапов.
- •49. Марковские процессы. Необходимость применения итеративной процедуры в методе итераций по стратегиям при бесконечном числе этапов.
- •50. Марковские процессы. Алгоритм метода итераций по стратегиям при бесконечном числе этапов. Общая характеристика.
- •1.Шаг оценивания параметров:
- •2.Шаг улучшения стратегии:
- •51. Марковские процессы. Критерий выбора оптимального решения в методе итераций по стратегиям при бесконечном числе этапов.
- •52. Марковские процессы. Пример шага оценивания параметров в методе итераций по стратегиям при бесконечном числе этапов.
- •53. Марковские процессы. Пример шага улучшения стратегии в методе итераций по стратегиям при бесконечном числе этапов.
- •58. Марковские процессы. Выражение (основа) для формулировки марковской задачи в виде задачи линейного программирования.
- •59. Марковские процессы. Формулировка Марковской задачи в виде задачи линейного программирования. Постановка задачи.
- •60. Марковские процессы. Пример формулировки задачи садовника без дисконтирования при бесконечном числе этапов в виде задачи линейного программирования.
- •61. Вероятное динамическое программирование. Рекуррентное уравнение об инвестировании.
- •62. Вероятное динамическое программирование. Модель дп для задачи инвестирования.
- •63. Вероятное динамическое программирование. Уравнение состояния для задачи инвестирования.
- •64. Вероятное динамическое программирование. Этап расчета в задаче инвестирования.
- •65. Вероятное динамическое программирование. Понятие максимизация вероятности достижениями.
- •66. Вероятное динамическое программирование. Полная вероятность и функция состояния в задаче максимизации вероятности достижения цели.
- •67. Вероятное динамическое программирование. Пример этапа расчета в задаче максимизация вероятности достижения цели.
- •68. Вероятное динамическое программирование. Модель дп в задаче азартная игра.
- •69. Вероятное динамическое программирование. Функция состояния в задаче азартная игра.
- •70. Вероятное динамическое программирование. Пример этапа в задаче азартная игра.
- •71. Вероятностное динамическое программирование. Оптимальная последовательность действий в задаче азартная игра.
- •72. Методы прогнозирования. Прогнозирование с использованием скользящего среднего. Основные понятия.
- •73. Методы прогнозирования. Выбор количества элементов массива для расчета в методе скользящего среднего.
- •74. Методы прогнозирования. Понятие экспоненциального сглаживания.
- •75. Методы прогнозирования. Рекуррентная формула в методе экспоненциального сглаживания.
- •76. Понятие регрессионного анализа.
- •77. Метод наименьших квадратов.
- •78. Понятие доверительный интервал для среднего значения оценки.
- •79. Понятие интервала предсказаний
- •80. Понятие коэффициента корреляции
- •81. Понятие тренда во временном ряду.
- •82. Модель аддитивных компонентов.
- •83. Модель мультипликативных компонентов.
62. Вероятное динамическое программирование. Модель дп для задачи инвестирования.
Обозначим:
xi – сумма денежных средств, доступных для инвестирования в начале i-го года,
yi – сумма реальной инвестиции в начале i-го года (xi≤ yi),
n – срок, на которой планируется провести инвестирование.
Прибыль от инвестиции зависит от m условий рынка.
Условие i приводит к прибыли ri c вероятностью pi, I = 1, 2, …, m.
Элементы модели ДП:
Этап i представляет i-й год инвестирования.
Альтернативами на этапе i являются величины yi.
Состояние системы на этапе i описывается величиной xi.
Пусть fi(xi) – максимальная ожидаемая сумма поступления денежных средств за года от i до n при условии, что в начале i –го года имеется сумма xi. Для k-го условия рынка имеем следующее.
Так как вероятность k- го условия рынка равна pk , рекуррентное уравнение динамического программирования имеет следующий вид.
где , так как после n-го года инвестиции нет. Отсюда следует, что
поскольку функция в фигурных скобках является линейной по yn и, следовательно, достигает своего максимума при yn=xn.
63. Вероятное динамическое программирование. Уравнение состояния для задачи инвестирования.
Состояние системы на этапе i описывается величиной xi.
Обозначим:
xi – сумма денежных средств, доступных для инвестирования в начале i-го года,
yi – сумма реальной инвестиции в начале i-го года (xi≤ yi).
Прибыль от инвестиции зависит от m условий рынка.
Условие i приводит к прибыли ri c вероятностью pi, I = 1, 2, …, m.
Пусть fi(xi) – максимальная ожидаемая сумма поступления денежных средств за года от i до n при условии, что в начале i –го года имеется сумма xi. Для k-го условия рынка имеем следующее.
64. Вероятное динамическое программирование. Этап расчета в задаче инвестирования.
Этап i представляет i-й год инвестирования.
Пусть объем инвестиции составляет C=10 000 долларов на 4-летний период. Существует 40% вероятность того, что деньги можно удвоить, 20%-ная – остаться при своих деньгах и 40% - потерять весь объем инвестиций. Необходимо разработать оптимальную стратегию инвестирования.
C = $10 000, n = 4, m = 3,
p1 = 0.4, p2 = 0.2, p3 = 0.4,
r1 = 2, r2 = 0, r3 = -1.
Этап 4.
.
Отсюда получаем
Состояние |
Оптимальное решение |
|
f4(x4) |
|
|
x4 |
1.4x4 |
x4 |
Этап 3.
Поэтому имеем:
Состояние |
Оптимальное решение |
|
f3(x3) |
|
|
x3 |
1.96x3 |
x3 |
65. Вероятное динамическое программирование. Понятие максимизация вероятности достижениями.
Задача максимизация вероятности достижениями заключается в максимизации вероятности достижения определенного уровня дохода.
Элементы модели ДП:
Этап i представляет i-й год инвестирования.
Альтернативами на этапе i являются величины yi.
Состояние системы на этапе i описывается величиной xi.
Целью этой задачи является максимизации вероятности достижения некоторой накопленной денежной суммы S по истечении n лет. С этой точки зрения определим функцию fi(xi) – вероятность накопления суммы S, если в начале i –го года имеются денежные средства в сумме xi и для последующих лет i,i+1,…,n используется оптимальное инвестирование.
Рекуррентное уравнение динамического программирования имеет вид
Рекуррентная формула основана на формуле условной вероятности
.