Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
neurmeua.doc
Скачиваний:
45
Добавлен:
07.02.2016
Размер:
1.35 Mб
Скачать

Евристичний алгоритм навчання класифікації тришарового персептрона

Нехай задана навчальна вибірка, яка складається з S екземплярів xq, q = 1, 2, ..., S, що характеризуються N ознаками xqi, i = 1, 2, ..., N, і кожному xq зіставлений клас A чи B.

Виходячи з припущення, що екземпляри одного класу імовірніше всього будуть розташовані ближче в просторі ознак, визначимо для кожного класу і кожної ознаки координати центрів зосередження (центрів ваги) екземплярів.

Координата центра зосередження екземплярів, що належать до класу A, за i-ю ознакою буде визначатися з виразу:

де NA – кількість екземплярів, що належать до класу A. Аналогічним чином може бути визначена координата центра зосередження екземплярів, що належать до класу B, за i-ю ознакою .

Знаючи координати центрів зосередження екземплярів навчальної вибірки для обох класів, можна здійснювати класифікацію по відстані нового екземпляра від цих центрів у N-вимірній системі координат.

Для цього для кожного нового екземпляра xq послідовно знаходяться відстані цього екземпляра від центрів зосередження екземплярів для кожного з класів:

, .

Новий екземпляр відносять до класу A, якщо R2R2B, у протилежному випадку – до класу B.

Такий спосіб класифікації – порівняння відстаней нового екземпляра від центрів зосередження екземплярів навчальної вибірки по всіх координатах (ознаках) одночасно. При цьому не враховується інформація про значимість ознак. Для усунення цього недоліку представимо клас екземпляра K як функцію суми результатів часткової класифікації за i-ю та j-ю ознаками Kij з урахуванням їх значимостей :, де

Умовимося, що клас А буде кодуватися значенням 1, а клас B – значенням 0.

Для визначення результатів часткової класифікації за i-ю та j-ю ознаками Kij для екземпляра xq знайдемо відстані цього екземпляра від центрів зосередження екземплярів, що належать класам А та В на площині, утвореній i-ю та j-ю ознаками:

, .

Якщо , то будемо вважати, що на площині (i,j) , інакше. Тобто, якщо, тоKij = 1, інакше – Kij = 0.

Для знаходження значимостей результатів часткової класифікації заi-ю та j-ю ознаками для всіх екземплярів навчальної вибірки визначимо кількість помилкових рішень при двовимірній класифікації за i-ю та j-ю ознаками: ,

де Kq – значення, зіставлене класу q-го екземпляра; Kqij – результат двовимірної класифікації q-го екземпляра за i-ю та j-ю ознаками.

Потім знайдемо значимості результатів часткової класифікації заi-ю та j-ю ознаками: .

Для спрощення обчислень можна запропонувати альтернативний варіант установки значень :.

Такий варіант трохи прискорить роботу алгоритму, але при цьому значимості часткових результатів класифікації враховуватися не будуть.

Оскільки результати класифікації Kij = Kji, то для оптимізації обчислювального процесу при навчанні та розпізнаванні задамо області визначення для i та j: i, j [1, 2, ...,N], ij.

У цьому випадку при обчисленні результату класифікації будуть використовуватися часткові результати двовимірних класифікацій за i-ю та j-ю ознаками () і результати одновимірної класифікації заi-ю (j-ю) ознакою (i = j).

Очевидно, якщо покласти: i, j [1, 2, ...,N], i < j, то будуть враховуватися тільки часткові результати двовимірної класифікації за i-ю та j-ю ознаками ().

У свою чергу, якщо покласти: i, j [1, 2, ...,N], i = j, то будуть враховуватися тільки часткові результати одновимірної класифікації за i-ю (j-ю) ознакою (i = j).

Для настроювання ваг тришарового персептрона може служити наступний алгоритм.

Для нейромережевої реалізації порівняння відстаней і визначення значення Kij можна використовувати наступний вираз:

,

де – логістична функція.

Якщо функція буде дискретною, наприклад, пороговою:, тоKij буде приймати значення 0 або 1. Якщо функція буде дійсною, наприклад, сигмоїдною:, тоKij буде приймати значення на інтервалі [0,1]: чим ближче значення цієї функції буде до 0, тим ближче екземпляр буде до класу, якому зіставлене значення 0, і, відповідно, навпаки, чим ближче значення цієї функції буде до 1, тим ближче екземпляр буде до класу, якому зіставлене значення 1. Використання сигмоїдної функції може бути більш кращим на практиці, оскільки вона дозволяє не тільки визначити до якого класу ближче екземпляр, але і на скільки ближче.

Для обчислення різниці відстаней підставимо відповідні вирази:

,

розкриємо дужки, згрупуємо члени по i та j та приведемо подібні. Після нескладних математичних перетворень одержимо:

,

де ,.

Легко бачити, що вирази для таможуть бути обчислені на основі формального нейрона, що має один вхід, на який подається значенняxi або xj, вага якого дорівнює або, відповідно. Поріг нейрона (нульова вага) у цьому випадку буде дорівнюватиабо, відповідно.

Тришаровий персептрон, ваги якого обчислені на основі розглянутого алгоритму, зображений на рис. 7.

Рисунок 7 – Тришаровий персептрон

Параметри і функції активації НМ визначають за наступними правилами.

Функція активації ψ(,k ) k-го нейрона -го шару:

;

Ваговий коефіцієнт p-го входу k-го нейрона -го шару:

.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]