- •1.1. Методы искусственного интеллекта в прикладных системах и системах принятии решений
- •1.2. Интеллектуальные информационные технологии в прикладных системах и системах принятия решений
- •1.3. Типология задач интеллектуализации систем
- •Лекция 2. Представление знаний в интеллектуальных системах
- •2.1. Модели представления знаний
- •2.2. Системы, основанные на правилах
- •2.3. Системы, основанные на автоматическом доказательстве теорем
- •2.4. Системы, основанные на автоматическом порождении (выдвижении) гипотез
- •Лекция 3. Структура и основные компоненты прикладных интеллектуальных систем
- •3.1. Прикладные системы, основанные на знаниях
- •3.2. Структура системы управления, основанной на знаниях
- •3.3. Структура интеллектуальных систем поддержки принятия решения
- •3.4. Обобщенная структура экспертной системы
- •Лекция 4. Классификация прикладных интеллектуальных систем
- •4.1. Классификация экспертных систем
- •4.2. Примеры прикладных интеллектуальных систем
- •Лекция 5. Основные понятия и определения теории принятия решений
- •5.1. Роли людей в процессе принятия решений
- •5.2. Альтернативы
- •5.3. Критерии
- •5.4. Основные этапы процесса принятия решений
- •5.5. Математические методы теории принятия решений
- •Лекция 6. Принятие решений с помощью статистической проверки гипотез
- •6.1. Статистические решения
- •6.2. Основные задачи статистических решений
- •6.3. Статистическая проверка гипотез
- •6.4. Ошибки решения
- •6.5. Решающее правило при проверке гипотез
- •Лекция 7. Байесовская и последовательная процедуры принятия решения.
- •7.1. Байесовские процедуры принятия решения
- •7.1.1. Байесовская процедура при проверке простой гипотезы
- •7.1.2. Байесовские процедуры в задаче классификации
- •7.2. Принятие решения с помощью последовательной процедуры Вальда
- •Лекция 8. Принятие решения методом дискриминантнного анализа
- •8.1. Классификация в случае, когда распределения классов определены полностью
- •8.1.1. Модель двух нормальных распределений с общей ковариационной матрицей (модель Фишера)
- •8.1.2. Модель двух нормальных распределений с разными ковариационными матрицами
- •8.1.3. Модель нескольких нормальных распределений с общей ковариационной матрицей
- •8.2. Классификация при наличии обучающих выборок
- •8.2.1. Подстановочный алгоритм в модели Фишера
- •8.2.3. Правила классификации
- •8.3. Ошибка решающего правила
- •Лекция 9. Древообразные классификаторы
- •9.1. Назначение древообразных классификаторов
- •9.1. Структура дерева классификации
- •9.3. Вычислительные задачи древообразных классификаторов
- •9.3.1. Определение качества предсказания
- •9.3.2. Выбор разбиений
- •9.3.3. Определение правила прекращения разбиения
- •Лекция 10. Деревья решений
- •9.1. Характеристики дерева решений
- •9.2. Построение дерева решений
- •Лекция 11. Методы прогнозирования
- •11.1. Анализ временных рядов
- •11.1.1. Модель временного ряда
- •11.1.2. Тренд, сезонная и циклическая компоненты
- •11.1.3. Декомпозиция временного ряда
- •11.1.4. Экспоненциальное сглаживание
- •11.2. Каузальные методы прогнозирования
- •11.3. Качественные методы прогнозирования
- •Лекция 12. Основная задача линейного программирования
- •12.1. Математическая модель основной задачи линейного программирования
- •12.2. Задача линейного программирования с ограничениями-неравенствами
- •12.3. Примеры задач линейного программирования
- •12.3.1. Транспортная задача
- •12.3.2. Задача о назначениях
- •Лекция 13. Симплекс-метода решения задачи линейного программирования
- •13.1. Характеристика симплекс–метода
- •13.2. Табличный алгоритм замены базисных переменных
- •13.3. Отыскание опорного решения основной задачи линейного программирования
- •13.4. Отыскание оптимального решения основной задачи линейного программирования
- •Лекция 14. Многокритериальные методы принятия решений при объективных моделях
- •14.1. Объединение критериев
- •14.2. Метод главного критерия
- •14.3. Метод последовательных уступок
- •14.4. Метод целевого программирования
- •14.5. Метод, использующий принцип гарантированного результата
- •14.6. Метод равных наименьших относительных отклонений
- •14.7. Процедура STEM поиска удовлетворительных значений критериев
- •Лекция 15. Выбор Парето–оптимальных решений
- •15.1. Основные определения
- •15.2. Графическая интерпретация
- •15.3. Постановка задачи
- •Лекция 16. Оценка многокритериальных альтернатив с помощью теории полезности
- •16.1. Теория полезности
- •16.2. Принятие решения на основе значения ожидаемой полезности
- •16.3. Многокритериальная теория полезности (MAUT)
- •Лекция 17. Сравнение альтернатив методом аналитической иерархии
- •17.1. Основные этапы метода аналитической иерархии
- •17.2. Декомпозиция задачи
- •17.3. Попарное сравнение критериев и альтернатив
- •17.4. Свойства идеальной матрицы сравнений
- •Лекция 18. Приоритеты для критериев и альтернатив и выбор наилучшей альтернативы в методе анализа иерархий
- •18.1. Вычисление собственных характеристик обратно симметричной матрицы
- •18.2. Вычисление величины приоритетов
- •18.3. Определение наилучшей альтернативы
- •18.4. Проверка согласованности
- •18.5. Пример применения метода анализа иерархий
- •Лекция 19. Оценка многокритериальных альтернатив методами ELECTRE
- •19.1. Этапы подхода, направленного на разработку индексов попарного сравнения альтернатив
- •19.2. Свойства бинарных отношений
- •19.3. Метод ELECTRE I
- •19.4. Метод ELECTRE II
- •19.5. Метод ELECTRE III
- •Лекция 20. Основные понятия и математическая модель игровых методов обоснования решений
- •20.1. Основные понятия теории игр
- •20.2. Математическая модель игры
- •20.3. Нижняя и верхняя цена игры. Принцип минимакса
- •Лекция 21. Методы решения игр
- •21.1. Решение игры в чистых стратегиях
- •21.2. Решение игры в смешанных стратегиях
- •21.3. Упрощение игр
- •21.4. Решение игры 2х2
- •21.5. Графический метод решения (2х2)-игр
- •Лекция 22. Игры 2 х п
- •Лекция 23. Решение игр т х 2 и т х п
- •23.1. Решение игр т х 2
- •23.2. Решение игр т х п
- •Лекция 24. Критерии принятия решений в условиях риска и неопределенности
- •24.1. Основные понятия. Математическая модель
- •24.3. Максиминный критерий Вальда
- •24.4. Критерий минимаксного риска Сэвиджа
- •24.5. Критерий пессимизма-оптимизма Гурвица
- •Литература
8.1. Классификация в случае, когда распределения классов определены полностью
8.1.1. Модель двух нормальных распределений с общей ковариационной матрицей (модель Фишера)
Предположения. Теоретические распределения в данном случае являются многомерными нормальными с функциями плотности
f (x, μi , Σi ) = (2π)− p / 2 | Σi |−1/ 2 exp(−(x −μi )T Σi−1(x −μi ) / 2) , (8.1)
μi – вектор математического ожидания, Σ1 = Σ2 = Σ – общая ковариационная матрица,
|Σ| > 0, i = 1, 2; априорные вероятности классов |
Ωi равны соответственно |
pi , |
i = 1, |
|
2 ( pi > 0, p1+ p2 = 1). |
|
|
|
|
Правило классификации (при m = 2) |
определяется с помощью неравенства [15] |
|||
u (x) = (x – (μ1 +μ2 )/ 2)T Σ–1 (μ2 – μ1) |
|
c |
(8.2) |
|
и формулируется следующим образом:
если значение функции классификации u (x) (8.2) для распознаваемого объекта с описанием x больше некоторого порогового значения c, то объект относят в первый класс, в противном случае – во второй.
Функция u (x) называется линейной дискриминантной функцией,
Нахождение порогового значения. Значение с в формуле (8.2) определяется как
с = ln( p2 / p1). При условии, что вероятности Р(i|j) |
ошибочной классификации наблюдения, |
||||||||
принадлежащего классу j, в класс i |
равны Р(2|1) |
= Р(1|2), пороговое значение с можно |
|||||||
определить из соотношения |
|
|
|
|
|
||||
c − |
2 / 2 |
|
c + 2 |
/ 2 |
|
||||
|
|
|
|
|
|
|
|
|
(8.3) |
Φ |
|
|
= Φ − |
|
|
|
, |
||
|
|
|
|
|
|
|
|
|
|
где Φ ( ) |
– функция стандартного нормального распределения, а |
||||||||
2 = (μ −μ |
2 |
)T Σ−1 |
(μ −μ |
2 |
) |
|
(8.4) |
||
1 |
|
|
1 |
|
|
|
|
представляет собой квадрат расстояния Махаланобиса между теоретическими средними (центрами) классов. Решением (8.3) является значение с = 0.
8.1.2. Модель двух нормальных распределений с разными ковариационными матрицами
Предположения. Теоретические распределения в этом случае многомерные нормальные (8.1), | Σi | > 0, i =1, 2.
Правило классификации определяется с помощью неравенства [15]
u (x) = (x – μ )T |
Σ−1 |
(x – μ ) – (x – μ |
2 |
)T |
Σ−1 |
(x – μ |
2 |
) + ln( | Σ1| / | Σ2|) > c |
1 |
1 |
1 |
|
2 |
|
|
и формулируется аналогично случаю модели с общей ковариационной матрицей:
если значение функции классификации u (x) для распознаваемого объекта с описанием x больше некоторого порогового значения c, то объект относят в первый класс, в противном случае – во второй
Функция u (x) называется квадратичной дискриминантной функцией, так как она представляет собой полином второго порядка от координат вектора х.
43