- •Одномерная оптимизация. Необходимые и достаточные условия оптимальности. Принцип сужения интервала неопределенности для унимодальных функций.
- •Одномерная оптимизация. Постановка задачи. Метод половинного деления. Оценка погрешности.
- •Одномерная оптимизация. Постановка задачи. Метод "золотого" сечения, Фибоначчи.
- •Одномерная оптимизация. Постановка задачи. Метод Ньютона-Рафсона.
- •6. Одномерная оптимизация. Постановка задачи. Метод квадратической аппроксимации.
- •7. Многомерная оптимизация. Основные определения и понятия функции нескольких переменных (фнп). Необходимые и достаточные условия экстремума.
- •8. Многомерная оптимизация. Основные определения и понятия функции нескольких переменных (фнп). Обусловленность задачи поиска минимума фнп.
- •9. Постановка задачи безусловной оптимизации фнп. Методы нулевого порядка. Метод покоординатного спуска.
- •1.2& Метод покоординатного спуска.
- •10. Постановка задачи безусловной оптимизации фнп. Метод многогранника. Алгоритм метода.
- •Постановка задачи безусловной оптимизации фнп. Метод Монтер-Карло. Алгоритм метода. Основные параметры метода.
- •12. Постановка задачи безусловной оптимизации фнп. Градиентные методы и метод наискорейшего спуска.
- •13. Постановка задачи безусловной оптимизации фнп. Градиентный метод с добрым шагом. Алгоритм выбора длины шага.
- •14. Постановка задачи безусловной оптимизации фнп. Овражный метод.
- •15. Постановка задачи безусловной оптимизации фнп. Методы второго порядка. Метод Ньютона.
- •16. Пз безусловной оптимизации фнп. Методы второго порядка. Метод Ньютона с дробным шагом. Алгоритм выбора длины шага.
- •17. Общая постановка задачи условной оптимизации. Постановки задач линейного и целочисленного программирования. Необходимые и достаточные условия оптимальности злп.
- •18. Общая и стандартная постановки злп. Переход от общей постановки задачи к стандартной.
- •19. Графическое решение злп. Основные понятия и идея решения задачи.
- •20. Симплекс-метод решения злп. Построение начальной симплекс-таблицы.
- •21.Оценка решения, представленного данной таблицей, на оптимальность и, если оптимум не достигается, поиск переменной, вводимой в базис.
- •22.Определение выводимой из базиса переменной.
- •23. Выбор начального решения
- •24. Анализ ресурсов.
- •25. Анализ цен
- •26. Целочисленное деление.
- •27. Постановка транспортной задачи. Балансировка задачи.
- •28. Сведение транспортной задачи к задаче линейного программирования.
- •29. Постановка транспортной задачи. Поиск допустимого нач.Решения. Метод с-з угла. Метод min стоимости.
- •35.Алгоритм Форда-Фалкерсона
15. Постановка задачи безусловной оптимизации фнп. Методы второго порядка. Метод Ньютона.
Методы безусловной оптимизации второго порядка используют вторые частные производные минимизируемой функции f(х).
Суть методов состоит в следующем:Необходимым условием экстремума функции многих переменных f(x) в точке х* является равенство нулю ее градиента в этой точке:f’(х*) 0, т.е g(x)= 0 или , i=1...n
Метод Ньютона.
Метод Ньютона основан на линейном приближении вектор-функции g(x)=(g1(x),g2(x),...,gn(x)), а именно:
g(x) ≈ g(x0 ) + G(x0 )*(x - x0 ) ,
где - матрица первых производных функции g(x) , она же матрица Гессе (матрица вторых производных) для оптимизируемой функции f(x).
Т.к. необходимо найти x*, для которого g(x*)= 0, то, подставляя ноль в левую часть равенства (3), получим формулы для приближения корня системы уравнений (2):
G(x0)*Dx = - g(x0), x = x0 + Dx
В дальнейшем вектор приращения или направление поиска Dx будем обозначать буквой р.
Алгоритм:
Выбор x0 (начального приближения), eg и ex (точности решения по градиенту и аргументу).
k:= 0. (инициализация счетчика итераций)
Аналитическое определение всех частных производных функции f(x) - gj(x), т.е. вектора градиента и G(x) - матрицы вторых производных - для оптимизируемой функции.
Расчет g(x0).
Расчет G(x0).
Решение системы (4), например, методом Гаусса или методом Зейделя, т.е. определение р=Dx - шага.
x:= x0 + р ; k:=k+1.
расчет g(x).
Если |р|< ex (точность по аргументу) или |g(x)|< eg , то идти к п.11.
x0:= x ; g(x0):=g(x); идти к п.5.
Оценка погрешностей измерения значения функции df и определения оптимума dx.
Выводим вектор x и g(x) , значения оптимизируемой функции f(x) и количества итераций к.
16. Пз безусловной оптимизации фнп. Методы второго порядка. Метод Ньютона с дробным шагом. Алгоритм выбора длины шага.
ПЗ: Дана непрерывно дифференцируемая функция n переменных. Необходимо найти хотя бы одну точку локального оптимума этой функции:
, где , ,
К методам 2-го порядка относятся метод Ньютона и метод Ньютона с дробным шагом.
Метод Ньютона с дробным шагом: Делаем пробный шаг, если удовлетворяет условиям, то идем дальше, если нет, то делаем дробный шаг.
Ньютоновское направление:
,
шаг
Перед расчетом оптимума необходимо найти первую и вторую производные функции:
g(x) = df/dx
Алгоритм метода Ньютона состоит в следующем.
1. В начальной точке х0 вычисляется вектор p
2. На k-й итерации определяются шаг α и точка х[k+1].
3. Вычисляется величина f(х[k+1]).
4. Проверяются условия выхода из подпрограммы, реализующей данный алгоритм. Эти условия аналогичны условиям выхода из подпрограммы при методе наискорейшего спуска. Если эти условия выполняются, осуществляется прекращение вычислений. В противном случае вычисляется новое направление р[k+1] и осуществляется переход к следующей итерации.
Количество вычислений на итерации методом Ньютона, как правило, значительно больше, чем в градиентных методах. Это объясняется необходимостью вычисления и обращения матрицы вторых производных целевой функции. Однако на получение решения с достаточно высокой степенью точности с помощью метода Ньютона обычно требуется намного меньше итераций, чем при использовании градиентных методов. В силу этого метод Ньютона существенно более эффективен.
Определение длины шага:
α:=1
while f(x+p* α)-f(x)>=0 уменьшаем шаг α:= α*γ
Величина шага α выбирается из условия минимума функции f(х) по α в направлении движения, т. е. в результате решения задачи одномерной минимизации: