Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
МетОпт.doc
Скачиваний:
4
Добавлен:
10.11.2019
Размер:
1.72 Mб
Скачать

Завдання №6

За допомогою зазначеного методу багатовимірної оптимізації з заданою точністю ps знайти мінімальне значення функції цілі :

1 Метод найскорішого спуску:

початковий вектор x0(5;4) ps=0.8

Метод Ейлера : .

11 Метод найскорішого спуску:

початковий вектор x0(0;0) ps=0.02

Метод Ейлера : .

2.

Метод Ньютона: поч. вектор x0(2;4) ps=0.04

Метод покоординатного спуску: початковий вектор x0(4;6)

ps=0. 001

12.

Метод Ньютона: поч. вектор x0(2;-2) ps=0.3

Метод покоординатного спуску: початковий вектор x0(-4;6) ps=0.6

3. Метод найскорішого спуску:

початковий вектор x0(3;4) ps=0.04

Метод Ейлера: .

13. Метод найскорішого спуску:

початковий вектор x0(-1;-2) ps=0.1

Метод Ейлера: .

4.

Метод Ньютона: поч. вектор x0(2;1) ps=0.02

Метод покоординатного спуску: початковий вектор x0(5;4) ps=0.02

14.

Метод Ньютона: поч. вектор x0(3;-1) ps=0.3

Метод покоординатного спуску: початковий вектор x0(2;5) ps=0.06

5. Метод найскорішого спуску:

початковий вектор x0(3;0) ps=1.6.

Метод Ейлера:

15. Метод найскорішого спуску:

початковий вектор x0(0;0) ps=0.9.

Метод Ейлера: .

6.

Метод Ньютона: поч. вектор x0(2;1) ps=0.2

Метод покоординатного спуску: початковий вектор x0(7;6) ps=0.02

16.

Метод Ньютона: поч. вектор x0(2;1) ps=0.6

Метод покоординатного спуску: початковий вектор x0(-3;1) ps=0.5

7. Метод найскорішого спуску:

початковий вектор x0(0;0) ps=0.5

Метод Ейлера :

17. Метод найскорішого спуску:

початковий вектор x0(1;1) ps=1.1

Метод Ейлера : .

8.

Метод Ньютона: поч. вектор x0(4;3) ps=1

Метод покоординатного спуску: початковий вектор x0(6;5) ps=0.3

18.

Метод Ньютона: поч. вектор x0(1;1) ps=0.01

Метод покоординатного спуску: початковий вектор x0(5;6) ps=0.8

9. Метод найскорішого спуску:

початковий вектор x0(-1;-1) ps=0.1.

Метод Ейлера: .

19. Метод найскорішого спуску:

початковий вектор x0(0;0) ps=0.2.

Метод Ейлера: .

10.

Метод Ньютона: поч. вектор x0(4;2) ps=0.02

Метод покоординатного спуску: початковий вектор x0(6;4), ps=0.015

20.

Метод Ньютона: поч. вектор x0(2;-2) ps=0.02

Метод покоординатного спуску: початковий вектор x0(-4;3) ps=0.05

Нелінійна багатовимірна умовна оптимізація

ЗАГАЛЬНИЙ ВИГЛЯД ЗАДАЧИ БАГАТОВИМІРНОЇ УМОВНОЇ ОПТИМІЗАЦІЇ:

, , i = 1. .m , де

- функція, для якої необхідно знайти екстремум,

, i=1..m - система умов – обмежень, які в загальному випадку можуть бути як лінійними, так і нелінійними.

Введемо поняття «сідлова точка»:

Сідловою точкою деякої функції називається така точка, у якій функція досягає максимального значення по і мінімального значення по , тобто сідловою називається деяка точка , для яких виконується наступна умова:

;

Теорема Куна-Таккера:

Вектор є оптимальним рішенням нелінійної умовної багатовимірної задачі оптимізації тоді і тільки тоді, коли існує такий вектор , що вектор є сідловою точкою функції Лагранжа .

При цьому повинні бути виконані наступні умови Куна-Таккера:

1. ,>0 якщо хi=0; =0 якщо xi>0; i=1. .n;

2. , <0 якщо j=0; =0 якщо j>0; j=1. .m

Функція Лагранжа складається по вихідній задачі в такий спосіб: , де i - це множники Лагранжа.

МЕТОД МНОЖНИКІВ ЛАГРАНЖА

У тому випадку, коли всі умови – обмеження є лінійними рівняннями для рішення задачі умовної оптимізації використовують метод множників Лагранжа. Цей метод складається з двох основних кроків:

1-й крок: перехід від задачі умовної оптимізації до задачі безумовної оптимізації, для цього складається функція Лагранжа.

2-й крок: оптимізація функції Лагранжа. Одержуються сідлові точки функції Лаг-ранжа і визначається значення вектора х - рішення вихідної задачі.

Приклад:

= x12 + x22 + 4x1x2 – x1 + 6

-x1 + x2 = 1

2x1 + x2 = 15

Будуємо функцію Лагранжа:

= x12 + x22 + 4x1x2 – x1 + 6+ 1(1 + x1 – x2) + 2(15 - 2x1 – x2)m

Використовуємо метод Ейлера для оптимізації функції Лагранжа. Для цього необхідно побудувати систему часткових похідних функції Лагранжа по змінних x1, x2, 1, 2 , надати кожній з них нульове значення та розв’язати отриману систему рівнянь. Одержємо сідлову точку функції Лагранжа:

=(16/3; 13/3; 11; 19).

Тоді рішення вихідної задачі: =(16/3; 13/3)

Оскільки матриця Геса залежить тільки від координат вектора , використання критерія Сильвестра не дає інформацію про характер отриманої точки умовного екстремуму. Тому для досліджень необхідно розглянути ще одну точку, що