- •Элементы выпуклого анализа.
- •Начальные сведения о численных методах оптимизации.
- •4.Сходимость методов оптимизации.
- •5.Метод покоординатного спуска.
- •6.Метод случайного поиска. Алгоритм с возвратом при неудачном шаге.
- •7. Метод случайного поиска. Алгоритм наилучшей пробы.
- •8. Метод случайного поиска. Алгоритм статистического градиента.
- •9. Метод случайного поиска. Алгоритм покоординатного обучения.
- •10. Градиентный метод. Метод с постоянным шагом.
- •11. Градиентный метод. Метод с дроблением шага.
- •12. Градиентный метод. Метод наискорейшего спуска.
- •13. Метод Ньютона
- •14. Численные методы решения задач линейного программирования. Прямой симплекс-метод. Базис и базисное решение.
- •15. Численные методы решения задач линейного программирования. Прямой симплекс-метод. Элементарные преобразования. Симплекс-таблицы.
- •16. Численные методы решения задач линейного программирования. Прямой симплекс-метод. Алгоритм симплекс-метода.
- •17. Численные методы решения задач линейного программирования. Модифицированный симплекс-метод.
- •18. Численные методы решения задач линейного программирования. Лексикографический прямой симплекс-метод
- •19. Численные методы решения задач линейного программирования. Двойственный симплекс-метод.
- •20. Численные методы решения задач линейного программирования. Двойственный симплекс-метод.
- •22. Численные методы решения задач линейного программирования. Геометрическая интерпретация задач линейного программирования
- •23. Численные методы решения задач линейного программирования. Геометрическая интерпретация прямого симплекс-метода.
- •24. Численные методы условной оптимизации. Метод возможных направлений.
- •25. Численные методы условной оптимизации. Метод Келли и метод секущих плоскостей.
- •26. Численные методы условной оптимизации. Первый (циклический) алгоритм Гомори.
- •27. Численные методы условной оптимизации. Метод ветвей и границ
- •28. Численные методы условной оптимизации. Метод ветвей и границ для решения задач нелинейного программирования
- •29. Численные методы условной оптимизации. Метод внешних штрафов
- •30.Численные методы условной оптимизации. Метод внутренних штрафов или метод барьерных функций
- •31.Муравьиный алгоритм.
- •32.Генетические алгоритмы.
- •33.Задачи классического вариационного исчисления. Постановка задачи классического вариационного исчисления
- •Сильный и слабый экстремум в задачах классического вариационного исчисления.
- •Допустимые управления и управляемые процессы в задачах оптимального управления. Оптимальные процессы
- •Элементарный вывод необходимых условий экстремума для простейших задач классического вариационного исчисления
- •Задачи оптимального управления. Постановка задачи оптимального управления
- •Формулировка принципа максимума для линейной задачи быстродействия
- •Доказательство принципа максимума для линейной задачи быстродействия.
- •Достаточность принципа максимума
5.Метод покоординатного спуска.
Метод покоординатного спуска применяется для решения экстремальных задач, в которых целевая функция либо не обладает нужной гладкостью, либо является гладкой, но вычисление производных слишком трудоемко. В таких случаях желательно иметь методы решения, которые используют лишь значения функции. Далее приводится описание метода покоординатного спуска для следующей задачи:
Пусть ei=(0,…,0,1,0,…,0) – i -ый единичный координатный вектор, x0 – начальное приближение, a0 > 0 – начальная длина шага. Пусть xk ϵ Rn – текущее приближение, ak > 0 – текущая длина шага, λ ϵ (0,1) – фиксированное число.
Метод покоординатного спуска – итеративный процесс. На каждой итерации метода в качестве направления спуска используется один из единичных координатных векторов. Так как таких векторов ровно n, то множество всех итераций естественно разбивается на группы из n итераций. Занумеруем итерации так, чтобы t -ая группа начиналась с итерации с номером (t-1)n+1 , а последняя итерация этой группы заканчивалась номером tn .
Опишем итерацию с номером k , где
(t-1)n+1 ≤ k ≤ tn.
Сначала проверяется можно ли улучшить текущее приближение, сдвигаясь в направлении координатного вектора ek-(t-1)n с длиной шага ak-1 . Если удается улучшить значение целевой функции
то пересчитывается текущее приближение по формулам
В противном случае проверяется вектор -ek-(t-1)n . Если выполняется неравенство
Тогда
Если выполняется (2) или (4), то будем говорить, что итерация k удачная. В случае неудачной итерации k положим xk=xk-1,
Пусть в t -ой группе не оказалось ни одной удачной итерации и шаг дробится. В этом случае выполняются неравенства
Если в данной группе из n итераций реализовалась хотя бы одна удачная итерация, то тогда на последней итерации группы длина шага не дробится и сохраняется еще на протяжении n итераций следующего цикла, так как дробление возможно только на последней итерации цикла.
6.Метод случайного поиска. Алгоритм с возвратом при неудачном шаге.
Основная особенность этого метода состоит в том, что в процессе вычисления приближений xk используются случайные вектора в качестве направления движения. Например,
где ak > 0 – длина шага, – реализация n -мерной случайной величины ξ с заданным распределением. Например, ξi – независимые случайные величины, равномерно распределенные на отрезке [-1,1] . Таким образом, любая реализация метода случайного поиска использует генератор случайных чисел, который по любому запросу выдает реализацию случайного вектора ξ с заданной функцией распределения.
Рассмотрим задачу Пусть известно k -ое приближение xk ϵ Q, k = 0,1,…. Далее приводится описание нескольких вариантов метода случайного поиска.
Алгоритм с возвратом при неудачном шаге
Идея этого алгоритма заключается в следующем. На каждом шаге берется некоторая реализация случайной величины ξ и вычисляется вектор vk=xk+aξ, где a=const > 0 – длина шага. Если vk ϵ Q и f(vk) < f(xk), то предлагаемый шаг считаем удачным. В этом случае xk+1=vk. Если vk ϵ Q, f(vk) ≥ f(xk) , или vk ϵ Q, то шаг является неудачным, тогда полагаем xk+1=xk. Если на текущей итерации оказывается, что xk=xk+1=…=xk+N для достаточно большого N , то алгоритм останавливается и xk является искомым приближением.