- •Одномерная оптимизация. Необходимые и достаточные условия оптимальности. Принцип сужения интервала неопределенности для унимодальных функций.
- •Одномерная оптимизация. Постановка задачи. Метод половинного деления. Оценка погрешности.
- •Одномерная оптимизация. Постановка задачи. Метод "золотого" сечения, Фибоначчи.
- •Одномерная оптимизация. Постановка задачи. Метод Ньютона-Рафсона.
- •6. Одномерная оптимизация. Постановка задачи. Метод квадратической аппроксимации.
- •7. Многомерная оптимизация. Основные определения и понятия функции нескольких переменных (фнп). Необходимые и достаточные условия экстремума.
- •8. Многомерная оптимизация. Основные определения и понятия функции нескольких переменных (фнп). Обусловленность задачи поиска минимума фнп.
- •9. Постановка задачи безусловной оптимизации фнп. Методы нулевого порядка. Метод покоординатного спуска.
- •1.2& Метод покоординатного спуска.
- •10. Постановка задачи безусловной оптимизации фнп. Метод многогранника. Алгоритм метода.
- •Постановка задачи безусловной оптимизации фнп. Метод Монтер-Карло. Алгоритм метода. Основные параметры метода.
- •12. Постановка задачи безусловной оптимизации фнп. Градиентные методы и метод наискорейшего спуска.
- •13. Постановка задачи безусловной оптимизации фнп. Градиентный метод с добрым шагом. Алгоритм выбора длины шага.
- •14. Постановка задачи безусловной оптимизации фнп. Овражный метод.
- •15. Постановка задачи безусловной оптимизации фнп. Методы второго порядка. Метод Ньютона.
- •16. Пз безусловной оптимизации фнп. Методы второго порядка. Метод Ньютона с дробным шагом. Алгоритм выбора длины шага.
- •17. Общая постановка задачи условной оптимизации. Постановки задач линейного и целочисленного программирования. Необходимые и достаточные условия оптимальности злп.
- •18. Общая и стандартная постановки злп. Переход от общей постановки задачи к стандартной.
- •19. Графическое решение злп. Основные понятия и идея решения задачи.
- •20. Симплекс-метод решения злп. Построение начальной симплекс-таблицы.
- •21.Оценка решения, представленного данной таблицей, на оптимальность и, если оптимум не достигается, поиск переменной, вводимой в базис.
- •22.Определение выводимой из базиса переменной.
- •23. Выбор начального решения
- •24. Анализ ресурсов.
- •25. Анализ цен
- •26. Целочисленное деление.
- •27. Постановка транспортной задачи. Балансировка задачи.
- •28. Сведение транспортной задачи к задаче линейного программирования.
- •29. Постановка транспортной задачи. Поиск допустимого нач.Решения. Метод с-з угла. Метод min стоимости.
- •35.Алгоритм Форда-Фалкерсона
1.2& Метод покоординатного спуска.
Основан на поочередной оптимизации вдоль каждой из координатных осей.
АЛГОРИТМ ПОКООРДИНАТНОГО СПУСКА.
Выбор x0 (начального приближения), epsg и epsx (точности решения по градиенту и аргументу).
iter:= 0; h= 0,1*epsx. (инициализация счетчика итераций и пробного шага)
j=1.
x=x0, f0=f(x0)
xj= x0j+h; x=x-x0
Расчет значения функции f(x).
Если f(xj)< f0, то p=+x, иначе p=-x. (направление поиска)
Выбор длины шага s=a*p (a>0) вдоль выбранного направления p.
x0:= x0 + s; j=j+1;
Если j<n, то идти к п.4.
iter:=iter+1.
Если |s|> epsx (точность по аргументу), то идти к п.3.
Печать вектора x0, значения оптимизируемой функции f(x0) и количества итераций iter.
10. Постановка задачи безусловной оптимизации фнп. Метод многогранника. Алгоритм метода.
Оптимизируемую функцию f(x) называют целевой функцией или критерием оптимальности. ПЗ: àmin. Найти хотя бы один локальный мин.функции , (существует или удовлетворяет определенному условию) с заданной точностью:
по решению , где -приблизиженное значение, -лок. Мин.
по градиенту ,
М етод многогранника (Нелдера и Мида).
Основан на построении симплекса. Суть: строится простейший многогранник (треугольник) в центре х0, Дальше вершины нумеруются По принципу худшая- лучшая вершина.В данном случае худшая -3, лучшая -1.
И так далее на каждую лучшую точу строится треугольник
Алгоритм:
Вводим начальную точку х0, размер R, точность по х , точность по значению функции , точность по производной . Дана функция àmin, коэффициент шагов х.
Строим многогранник (симплекс) с центром в точке х0 и размером R.
, где <i>-i-я вершина i=1...n
Расчет значений функций
В точке симплекса i=0..n
Переупорядочиваем вершины симплекса
Редукция симплекса – стягивание всех вершин
4а. Самая лучшая точка симплекса .
Оценки значения критерия останова:
1)Размер симплекса меньше по значению точности
,
2)Отключение от хорошей точки до плохой точки
3)Оценка производной
коэффициенты . Делаем пробный шаг , где xc – центр отображения. ,
Принимаем решение: делаем растягивающий шаг или сжимающий шаг, если ,то делаем шаг , , if , then h=p, else h=f
Иначе если шаг хуже, то в этом случае сравниваем значение функции с самой худшей точкой , то h=α, а если он еще хуже, то , if , then h=γ, else редукция симплекса в самой лучшей точке х0
, и переупорядочиваем вершины (п.4а), а потом возвращаемся к п.5
Делаем шаг (нормированный шаг) h , , , мы получаем новую точку.
Теперь переупорядочиваем точки с учетом новой точки х<n>
идем к п.4а
Постановка задачи безусловной оптимизации фнп. Метод Монтер-Карло. Алгоритм метода. Основные параметры метода.
ПЗ: àmin. Найти хотя бы один локальный мин.функции , (существует или удовлетворяет определенному условию) с заданной точностью:
1.по решению , где -приблизиженное значение, -лок. Мин.
2 .по градиенту ,
Метод Монтер-Карло
Суть: задаем начальную точку и куб с n количеством разбросанных точек, если х1 лучше х0, то рис следующий квадрат и разбрасываем снова точки и ищем наилучшую,если ее нет то уменьшаем область R(квадрата) и т д
Алгоритм:
Ввод начальной точки х0, размера R, количество точек N, которые бросаем, точность Ех, Еf
Вокруг начальной точки разбрасываем N точек в куб размером R.
For i=1,N, теперь для каждой точки, рассчитываем случайное отклонение от х0
For j=1,n, где n- размерность задачи.
Δj= - R/2+rnd R, где rnd – число в интервале [0,1]
x <i> =x0+Δ сгенерировали точки
3.Расчитываем , при i=1,N
4. Ищем х-мин. fmin=f(xmin), xmin= ?
5. Локализуем удачность шага, если fmin<f(x0), то шаг удачен x0=xmin, иначе шаг не удачен, то уменьшаем R=R/2
6. если не удовлетворяется условие Ех, то идем к п.2
7.выводим х0, f(x0), R, Δf
Критерии останова сходимости метода:
1)R<Ex
2) Δf<Ef, где Δf-значение получившейся функции f n-1 – f n
Δf=f n-1 – f n >0
3) Δf/ Δr <Eg