- •Одномерная оптимизация. Необходимые и достаточные условия оптимальности. Принцип сужения интервала неопределенности для унимодальных функций.
- •Одномерная оптимизация. Постановка задачи. Метод половинного деления. Оценка погрешности.
- •Одномерная оптимизация. Постановка задачи. Метод "золотого" сечения, Фибоначчи.
- •Одномерная оптимизация. Постановка задачи. Метод Ньютона-Рафсона.
- •6. Одномерная оптимизация. Постановка задачи. Метод квадратической аппроксимации.
- •7. Многомерная оптимизация. Основные определения и понятия функции нескольких переменных (фнп). Необходимые и достаточные условия экстремума.
- •8. Многомерная оптимизация. Основные определения и понятия функции нескольких переменных (фнп). Обусловленность задачи поиска минимума фнп.
- •9. Постановка задачи безусловной оптимизации фнп. Методы нулевого порядка. Метод покоординатного спуска.
- •1.2& Метод покоординатного спуска.
- •10. Постановка задачи безусловной оптимизации фнп. Метод многогранника. Алгоритм метода.
- •Постановка задачи безусловной оптимизации фнп. Метод Монтер-Карло. Алгоритм метода. Основные параметры метода.
- •12. Постановка задачи безусловной оптимизации фнп. Градиентные методы и метод наискорейшего спуска.
- •13. Постановка задачи безусловной оптимизации фнп. Градиентный метод с добрым шагом. Алгоритм выбора длины шага.
- •14. Постановка задачи безусловной оптимизации фнп. Овражный метод.
- •15. Постановка задачи безусловной оптимизации фнп. Методы второго порядка. Метод Ньютона.
- •16. Пз безусловной оптимизации фнп. Методы второго порядка. Метод Ньютона с дробным шагом. Алгоритм выбора длины шага.
- •17. Общая постановка задачи условной оптимизации. Постановки задач линейного и целочисленного программирования. Необходимые и достаточные условия оптимальности злп.
- •18. Общая и стандартная постановки злп. Переход от общей постановки задачи к стандартной.
- •19. Графическое решение злп. Основные понятия и идея решения задачи.
- •20. Симплекс-метод решения злп. Построение начальной симплекс-таблицы.
- •21.Оценка решения, представленного данной таблицей, на оптимальность и, если оптимум не достигается, поиск переменной, вводимой в базис.
- •22.Определение выводимой из базиса переменной.
- •23. Выбор начального решения
- •24. Анализ ресурсов.
- •25. Анализ цен
- •26. Целочисленное деление.
- •27. Постановка транспортной задачи. Балансировка задачи.
- •28. Сведение транспортной задачи к задаче линейного программирования.
- •29. Постановка транспортной задачи. Поиск допустимого нач.Решения. Метод с-з угла. Метод min стоимости.
- •35.Алгоритм Форда-Фалкерсона
Одномерная оптимизация. Постановка задачи. Метод Ньютона-Рафсона.
Постановка задачи.
Дана непрерывно дифференцируемая функция F(x1,x2,...,xn) n переменных. Необходимо найти хотя бы 1 точку локального оптимума этой функции: F(x) ---> opt , (1) где x = (x1,x2,...,xn). В том случае, когда функция гладкая и доступны для вычисления значения производных, то применяются методы спуска, использующие вычисление производных для выбора направления спуска и шага, которые удовлетворяют условию спуска, состоящее в том, что Fk+1< Fk. Так как доступна первая производная, то данная задача в общем виде сводится к задаче определения стационарных точек, которые затем проверяются на оптимальность. Стационарные точки можно найти из решения системы, приравниванием к 0 всех частных производных или вектора-градиента оптимизируемой функции. g(x)= 0 или
, I=1...n
Данная система может быть решена при помощи метода Ньютона. Необходимым условием применения этого метода является непрерывность и доступность для вычисления второй производной оптимизируемой функции. Недоступность 2-ой производной может быть связана либо с трудностью получения ее аналитического или алгоритмического оформления, либо с погрешностью процедуры оценивания значения производной.
Пусть функция f(x) - унимодальная, по крайней мере, на отрезке [a,b] и известны ее значения на концах этого отрезка. Т.е. минимум локализован и необходимо определить его как можно точнее, с наименьшим возможным интервалом неопределенности, но при этом возможно выполнить только n вычислений функции? Как следует выбрать n точек xk, k=1,..,N вычисления функции на отрезке [a,b], чтобы как можно точнее определить минимум
Метод Ньютона-Рафсона
Выбор x0 (начального приближения), epsg и epsx (точности решения по градиенту и аргументу). iter:= 0. (инициализация счетчика итераций) Аналитическое определение всех частных производных функции f(x) - gj(x), т.е. вектора градиента и J(x) - матрицы 2-ых производных - для оптимизируемой функции. Расчет g(x0). Расчет J(x0). Решение системы, например, методом Гаусса или методом Зейделя, т.е. определение р=Dx - шага. x:= x0 + р ; iter: =iter+1. расчет g(x). Если |р|< epsx (точность по аргументу) или |g(x)|< epsg , x0:= x ; g(x0):=g(x). Оценка погрешностей измерения значения функции df и определения оптимума dx. Печать векторов x и g(x) , значения оптимизируемой функции f(x) и количества итераций iter.
6. Одномерная оптимизация. Постановка задачи. Метод квадратической аппроксимации.
Постановка задачи: Пусть функция f(x) - унимодальная, по крайней мере, на отрезке [a,b] и известны ее значения на концах этого отрезка. Т.е. минимум локализован и необходимо определить его как можно точнее, с наименьшим возможным интервалом неопределенности, но при этом возможно выполнить только n вычислений функции? Как следует выбрать n точек xk, k=1,..,N вычисления функции на отрезке [a,b], чтобы как можно точнее определить минимум?
Алгоритм метода квадратической аппроксимации.
α0=0? h-шаг, fo=f(α0)
1. while |f’(α0)|>eg
1.1 α1:= α0+h; f1=f(α1)
1.2 if f1>f0 then h:=-h\2 : goto 1.1
1.3 α2= α0+2h; f2=f(α2)
1.4 построение параболы и поиск минимума параболы
fm=f(αmin)
1.5 αon=argmin(f1,f2,fn)
1.6 if fo<f(αon) then h:=h\10: goto 1.1
1.7 αo := αon