- •Глава 6. Постановки задачи нелинейного программирования (знп) и основные определения…………………………...3
- •Глава 7. Задача одномерной оптимизации…………………………………….13
- •Глава 8. Графический метод решения знп…………………………………...33
- •Глава 10. Выпуклое программирование……………………………………....62
- •Глава 11. Квадратичное программирование…………………………………74
- •Глава 12. Задача безусловной оптимизации (збо)…………………………………………………………………..81
- •Глава 13. Задача условной оптимизации (зуо)……………………….……127
- •Глава 6.
- •6.1. Задача нелинейного программирования (знп) и ее постановки.
- •6.2. Основные определения.
- •6.3. Классификация знп.
- •6.4. Классическая оптимизация.
- •Глава 7. Методы одномерной оптимизации
- •Постановка задачи. Основные понятия
- •7.2. Поиск отрезка, содержащего точку максимума Алгоритм Свенна
- •Методы нулевого порядка.
- •Дихотомический поиск (метод деления отрезка пополам)
- •Метод золотого сечения
- •Метод дск-Пауэлла
- •7.4. Методы первого порядка.
- •Метод средней точки
- •Метод хорд (секущих)
- •Метод кубической аппроксимации
- •7.5. Методы второго порядка. Метод Ньютона-Рафсона
- •Итерация 1
- •Глава 8. Графический метод решения знп.
- •8.1. Алгоритм графического метода решения знп
- •8.2. Решение примеров.
- •Выпуклые и вогнутые функции
- •9.1. Определения
- •9.2. Свойства вогнутых (выпуклых) функций
- •9.3. Критерии вогнутости (выпуклости) гладких функций
- •9.4. Экстремальные свойства вогнутых (выпуклых) функций
- •9.5. Сильно вогнутые (выпуклые) функции
- •9.5.1. Определение. Примеры
- •9.5.2. Свойства сильно вогнутых (выпуклых) функций
- •9.5.3. Критерии сильной вогнутости (выпуклости)
- •9.5.4. Экстремальные свойства сильно вогнутых (выпуклых) функций
- •Глава 10. Выпуклое программирование
- •10.1. Постановка задачи
- •10.2. Функция Лагранжа. Седловая точка функции Лагранжа, условия ее существования Определение 10.1. Функция , (10.10)
- •10.3. Достаточные условия оптимальности
- •10.4. Условия регулярности выпуклого множества
- •10.5. Теорема Куна-Таккера. Общий случай
- •10.6. Теорема Куна-Таккера. Случай линейных ограничений
- •Глава 11. Квадратичное програмирование.
- •11.1. Постановка задачи квадратичного программирования (зкп)
- •11.2. Применение теории Куна-Таккера к решению зкп.
- •11.3. Решение задач.
- •Глава 12. Методы безусловной оптимизации
- •12.1. Постановка задачи
- •Алгоритм метода спуска
- •. Методы нулевого порядка (прямого поиска)
- •Метод Хука-Дживса
- •Алгоритм метода Хука-Дживса, использующий одномерный поиск
- •Метод покоординатного спуска
- •Первый вариант
- •Второй вариант
- •Методы первого и второго порядков
- •Градиентные методы. Метод скорейшего спуска – метод Коши
- •Метод Ньютона
- •Модифицированный метод Ньютона
- •Методы, использующие сопряженные направления
- •Определение сопряженных направлений
- •Оптимизация квадратичной функции. Конечная сходимость алгоритмов, использующих сопряженные направления
- •12.4.4. Метод Дэвидона-Флетчера-Пауэлла Шаг 1.Метод Дэвидона-Флетчера-Пауэлла (дфп) принадлежит к классу квазиньютоновских методов, в которых направление поиска задаётся в виде
- •Алгоритм метода дфп
- •Итерация 1
- •Шаг 2. Вычислим , тогда .
- •Шаг 2. Вычислим , тогда .
- •12.4.5. Метод сопряжённых градиентов Флетчера-Ривса
- •Алгоритм метода Флетчера-Ривса
- •Глава 13. Методы условной оптимизации
- •13.1. Постановка задачи. Классификация методов
- •Общая схема методов условной оптимизации
- •Шаг 2.Шаг 1. Выбрать ( -я итерация) – возможное направление подъёма функции в точке . Если такого направления нет, то - решение задачи. В противном случае перейти к шагу 2.
- •13.2. Методы возможных направлений
- •13.2.1. Метод Зойтендейка
- •Пример 13.2
- •Итерация 3
- •Шаг 4.Рисунок 13.6
- •13.2.2. Метод Топкиса-Вейнотта
- •Пример 13.3
- •Итерация 1
- •Шаг 5.Рисунок 13.7
- •Алгоритм метода Топкиса-Вейнотта
- •13.2.3. Метод Франка-Вульфа
- •Алгоритм метода Франка-Вульфа
- •Шаг 5. Находим шаг в направлении новой точки . Решение этой задачи (одномерной): .
- •Шаг 3. Так как , переходим к шагу 4.
- •Шаг 5. Решаем задачу: .
- •Литература
Метод Ньютона
Рассмотрим разложение в ряд Тейлора в окрестностях точки :
(12.6)
Отбрасывая члены третьего порядка и выше, полагаем квадратичную аппроксимацию функции в точке :
, (12.7)
где – матрица Гессе в точке .
В качестве новой точки будем брать точку минимума квадратичной функции . Необходимым условием минимума квадратичной функции является равенство или . (12.8)
Предполагая, что матрица, обратная к , существует, получаем
или . (12.9)
Равенство (12.9) дает рекуррентную формулу для точек, генерируемых методом Ньютона. Таким образом, в методе Ньютона направление поиска задается формулой
(12.10)
т.е. направление, равное градиенту и используемое в качестве направления поиска в методе Коши, отклоняется посредством умножения на матрицу .
Пример 12.6. Найти минимум функции методом Ньютона: .
Выберем начальную точку . Тогда Так как , то , , то .
Очевидно, что оптимум квадратичной функции Ньютона находится за одну итерацию независимо от выбора начальной точки. При оптимизации неквадратичных функций метод Ньютона не является конечным. Сходимость метода Ньютона при оптимизации неквадратичных функций существенно зависит от выбора начальной точки , и теорема сходимости доказывается в предположении, что итерационный процесс начинается из точки, достаточно близкой к оптимальной. Кроме того, в методе Ньютона не гарантируется убывание функции на каждой итерации.
Модифицированный метод Ньютона
Метод Ньютона можно модифицировать с целью обеспечения убывания функции на каждой итерации путем осуществления одномерной оптимизации вдоль направления.
Алгоритм модифицированного метода Ньютона
Начальный этап. Выбрать – начальную точку и – параметр окончания счета, положить .
Основной этап.
Если , то , остановится.
Положить , вычислить , , положить и перейти к шагу 1.
Существенным недостатком метода Ньютона и его модификации является необходимость вычисления на каждой итерации матрицы и обратной к ней матрицы , что существенно увеличивает трудоемкость каждой итерации. Именно в силу этих соображений возникает необходимость создания методов, менее трудоемких, использующих значения только первых производных, но обладающих скоростью сходимости, близкой к скорости метода Ньютона. Так возникли методы квазиньютоновского типа, в которых в качестве направления спуска выбирается либо вектор , либо , где – подходящая матрица, – подходящий вектор, причем матрицы и векторы выбираются так, чтобы последовательные приближения оптимизировали квадратичную функцию за конечное число шагов.
Методы, использующие сопряженные направления
В данном разделе рассматриваются алгоритмы безусловной оптимизации, использующие сопряженные направления. Понятие сопряженности является очень важным при решении задач безусловной оптимизации, особенно для задач оптимизации квадратичных функций.