- •Теоретичні відомості
- •Визначення складу знань та їх розподіл
- •Побудова моделі предметної області
- •Методи побудови системи понять предметної області
- •Методи встановлення взаємозв'язків між поняттями предметної області:
- •Методи встановлення семантичних відношень між поняттями предметної області
- •Контрольні питання
- •Варіанти завдань
- •Побудувати модель визначеної предметної області, використовуючи методи побудови системи понять та встановлення семантичних відношень між поняттями:
- •несправності комп’ютера;
- •Тема: Експертні системи. Побудова баз знань ЕС.
- •Структура експертних систем
- •атрибутивні зв’язки (має властивість, має значення).
- •Семантичні мережі можуть мати складну та громіздку структуру.
- •Рівні представлення і рівні детальності
- •Організація знань у базі знань
- •Контрольні питання
- •Варіанти завдань
- •Теоретичні відомості
- •Контрольні питання
- •Варіанти завдань
- •Теоретичні відомості
- •Рис. 2. Методика розробки ЕС
- •Прототипи і життєвий цикл експертної системи
- •Прикладами областей застосування, що потребують гнучкості з боку створення та поповнення бази знань, є: планування виробництва, проектування і діагностика в області електроніки, обчислювальної техніки та машинобудування.
- •Контрольні питання
- •Варіанти завдань
- •Створити та протестувати прототип ЕС відповідно варіанту. Вказати сильні та слабкі сторони створеного прототипу, шляхи його вдосконалення.
- •Вимоги до експертної системи і звіту
- •Тема: Нейронні мережі. Персептрон. Побудова та дослідження персептрона.
- •Теоретичні відомості
- •Рис. 3. Штучний нейрон
- •Навчання персептрона
- •Розглянемо алгоритм навчання з учителем.
- •Контрольні питання
- •Варіанти завдань
- •Оцінка алгоритму зворотнього поширення
- •Контрольні питання
- •Варіанти завдань
- •Тема: Нейронні мережі. Побудова та навчання нейромережі для вирішення задачі прогнозування.
- •Постановка задачі прогнозування курсу UKB/USD
- •Контрольні питання
- •Методичні рекомендації по вирішенню задачі та вимоги до звіту
- •Тема: Нейронні мережі. Побудова та навчання нейромережі для розпізнавання образів.
- •Рис.7. Структурна схема мережі Хопфілда
- •2. Розраховується новий стан нейронів
- •Рис. 9. Структурна схема мережі Хемінга
- •Алгоритм функціонування мережі Хемінга наступний:
- •Завдання: побудувати ЕС в області медичної діагностики.
- •Частина 1
- •Частина 2
- •Частина 3
- •Частина 4
- •Частина 5
Рис.7. Структурна схема мережі Хопфілда
На стадії ініціалізації мережі вагові коефіцієнти синапсів встановлюються в такий спосіб:
44
|
|
m −1 |
|
|
|
|
|
|
|
ì |
|
|
|
|
|
w |
ij |
=ïåxki |
xkj |
, |
i ¹j |
(1) |
|
|
í |
|
|
|
|
|
|
|
|
k =0 |
|
|
|
|
|
|
|
ï |
0, |
|
|
i =j |
|
|
|
î |
|
|
|
Тут i і j – індекси, відповідно, передсинаптичного і постсинаптичного нейронів; xki , xkj – i-ий і j-ий елементи вектора
k-го зразка.
Алгоритм функціювання мережі наступний (p – номер ітерації):
1. На входи мережі подається невідомий сигнал. Фактично його введення здійснюється безпосередньою установленням значень аксонів:
yi (0) = xi ; i = 0,...,n −1 , |
(2) |
тому позначення на схемі мережі вхідних синапсів у явному вигляді
носить чисто умовний характер. Нуль у дужці праворуч від |
y i |
означає нульову ітерацію в циклі роботи мережі. |
|
2. Розраховується новий стан нейронів |
|
n −1 |
|
s j (p +1) = åwijyi (p); j = 0,...,n −1 , |
(3) |
i =0 |
|
і нові значення аксонів |
|
y j(p +1) =f [sj(p +1)] , |
(4) |
де f – активаційна функція у вигляді стрибка, приведена на рис.8а.
Рис.8. Активаційні функції
45
3. Перевіряється чи змінилися вихідні значення аксонів за останню ітерацію. Якщо так – перехід до пункту 2, інакше (якщо виходи застабілізувалися) – кінець алгоритму. При цьому вихідний вектор являє собою зразок, що найбільше співпадає з вхідними даними.
Як говорилася вище, іноді мережа не може провести розпізнавання і видає на виході неіснуючий образ. Це пов’язано з проблемою обмеженості можливостей мережі. Для мережі Хопфілда число образів, що запам’ятовуються, m не повинно перевищувати величини, приблизно рівної 0.15*n. Крім того, якщо два образи А и Б дуже схожі, вони, можливо, будуть викликати в мережі перехресні асоціації, тобто пред’явлення на входи мережі вектора А приведе до появи на її виходах вектора Б и навпаки.
Коли немає необхідності, щоб мережа в явному вигляді видавала зразок, тобто досить, скажемо, одержувати номер зразка, асоціативну пам’ять успішно реалізує мережа Хемінга. Дана мережа характеризується, у порівнянні з мережею Хопфілда, меншими витратами на пам’ять і обсягом обчислень, що стає очевидним з її структури (Рис.9).
Мережа складається з двох шарів. Перший і другий шари мають по m нейронів, де m – число зразків. Нейрони першого шару мають по n синапсів, з’єднаних із входами мережі (утворюючими фіктивний нульовий шар). Нейрони другого шару пов’язані між собою інгібіторними (від’ємними оберненими) синаптичними зв’язками. Єдиний синапс із додатнім оберненим зв’язком для кожного нейрона з’єднаний з його ж аксоном.
Ідея роботи мережі полягає в знаходженні відстані Хемінга від зразка, що розпізнається до всіх відомих мережі зразків. Відстанню Хемінга називається число бітів, що відрізняються у двох бінарних векторах. Мережа повинна вибрати зразок з мінімальною відстанню Хемінга до невідомого вхідного сигналу у результаті чого буде активізований тільки один вихід мережі, що відповідає цьому зразку.
46