- •Вибір варіанта завдання
- •Частина 1. Лінійне і цілочисельне програмування геометрична інтепретація задач лінійного програмування
- •Завдання №1
- •Симплексний метод вирішення загальної задачі лінійного програмування
- •Завдання 2
- •Транспортна задача
- •Завдання №3
- •Задача вибору або задача про призначення
- •Завдання №4
- •Частина 2. Нелінійне програмування методи одновимірної пошукової оптимізації
- •Завдання №5
- •Нелінійна багатовимірна безумовна оптимізація
- •Завдання №6
- •Нелінійна багатовимірна умовна оптимізація
- •Завдання №7
- •Теорія розкладу. Задача джонсона
- •Завдання 8
- •Література
- •Кременчуг - 2001
Завдання №6
За допомогою зазначеного методу багатовимірної оптимізації з заданою точністю ps знайти мінімальне значення функції цілі :
1 Метод найскорішого спуску: початковий вектор x0(5;4) ps=0.8 Метод Ейлера : . |
11 Метод найскорішого спуску:
початковий вектор x0(0;0) ps=0.02 Метод Ейлера : . |
2. Метод Ньютона: поч. вектор x0(2;4) ps=0.04 Метод покоординатного спуску: початковий вектор x0(4;6) ps=0. 001 |
12. Метод Ньютона: поч. вектор x0(2;-2) ps=0.3 Метод покоординатного спуску: початковий вектор x0(-4;6) ps=0.6 |
3. Метод найскорішого спуску:
початковий вектор x0(3;4) ps=0.04 Метод Ейлера: . |
13. Метод найскорішого спуску:
початковий вектор x0(-1;-2) ps=0.1 Метод Ейлера: . |
4. Метод Ньютона: поч. вектор x0(2;1) ps=0.02 Метод покоординатного спуску: початковий вектор x0(5;4) ps=0.02 |
14. Метод Ньютона: поч. вектор x0(3;-1) ps=0.3 Метод покоординатного спуску: початковий вектор x0(2;5) ps=0.06 |
5. Метод найскорішого спуску:
початковий вектор x0(3;0) ps=1.6. Метод Ейлера: |
15. Метод найскорішого спуску:
початковий вектор x0(0;0) ps=0.9. Метод Ейлера: . |
6. Метод Ньютона: поч. вектор x0(2;1) ps=0.2 Метод покоординатного спуску: початковий вектор x0(7;6) ps=0.02 |
16. Метод Ньютона: поч. вектор x0(2;1) ps=0.6 Метод покоординатного спуску: початковий вектор x0(-3;1) ps=0.5 |
7. Метод найскорішого спуску:
початковий вектор x0(0;0) ps=0.5 Метод Ейлера : |
17. Метод найскорішого спуску:
початковий вектор x0(1;1) ps=1.1 Метод Ейлера : . |
8. Метод Ньютона: поч. вектор x0(4;3) ps=1 Метод покоординатного спуску: початковий вектор x0(6;5) ps=0.3 |
18. Метод Ньютона: поч. вектор x0(1;1) ps=0.01 Метод покоординатного спуску: початковий вектор x0(5;6) ps=0.8 |
9. Метод найскорішого спуску:
початковий вектор x0(-1;-1) ps=0.1. Метод Ейлера: . |
19. Метод найскорішого спуску:
початковий вектор x0(0;0) ps=0.2. Метод Ейлера: . |
10. Метод Ньютона: поч. вектор x0(4;2) ps=0.02 Метод покоординатного спуску: початковий вектор x0(6;4), ps=0.015 |
20. Метод Ньютона: поч. вектор x0(2;-2) ps=0.02
Метод покоординатного спуску: початковий вектор x0(-4;3) ps=0.05 |
Нелінійна багатовимірна умовна оптимізація
ЗАГАЛЬНИЙ ВИГЛЯД ЗАДАЧИ БАГАТОВИМІРНОЇ УМОВНОЇ ОПТИМІЗАЦІЇ:
, , i = 1. .m , де
- функція, для якої необхідно знайти екстремум,
, i=1..m - система умов – обмежень, які в загальному випадку можуть бути як лінійними, так і нелінійними.
Введемо поняття «сідлова точка»:
Сідловою точкою деякої функції називається така точка, у якій функція досягає максимального значення по і мінімального значення по , тобто сідловою називається деяка точка , для яких виконується наступна умова:
;
Теорема Куна-Таккера:
Вектор є оптимальним рішенням нелінійної умовної багатовимірної задачі оптимізації тоді і тільки тоді, коли існує такий вектор , що вектор є сідловою точкою функції Лагранжа .
При цьому повинні бути виконані наступні умови Куна-Таккера:
1. ,>0 якщо хi=0; =0 якщо xi>0; i=1. .n;
2. , <0 якщо j=0; =0 якщо j>0; j=1. .m
Функція Лагранжа складається по вихідній задачі в такий спосіб: , де i - це множники Лагранжа.
МЕТОД МНОЖНИКІВ ЛАГРАНЖА
У тому випадку, коли всі умови – обмеження є лінійними рівняннями для рішення задачі умовної оптимізації використовують метод множників Лагранжа. Цей метод складається з двох основних кроків:
1-й крок: перехід від задачі умовної оптимізації до задачі безумовної оптимізації, для цього складається функція Лагранжа.
2-й крок: оптимізація функції Лагранжа. Одержуються сідлові точки функції Лаг-ранжа і визначається значення вектора х - рішення вихідної задачі.
Приклад:
= x12 + x22 + 4x1x2 – x1 + 6
-x1 + x2 = 1
2x1 + x2 = 15
Будуємо функцію Лагранжа:
= x12 + x22 + 4x1x2 – x1 + 6+ 1(1 + x1 – x2) + 2(15 - 2x1 – x2)m
Використовуємо метод Ейлера для оптимізації функції Лагранжа. Для цього необхідно побудувати систему часткових похідних функції Лагранжа по змінних x1, x2, 1, 2 , надати кожній з них нульове значення та розв’язати отриману систему рівнянь. Одержємо сідлову точку функції Лагранжа:
=(16/3; 13/3; 11; 19).
Тоді рішення вихідної задачі: =(16/3; 13/3)
Оскільки матриця Геса залежить тільки від координат вектора , використання критерія Сильвестра не дає інформацію про характер отриманої точки умовного екстремуму. Тому для досліджень необхідно розглянути ще одну точку, що