- •Теоретичні відомості
- •Визначення складу знань та їх розподіл
- •Побудова моделі предметної області
- •Методи побудови системи понять предметної області
- •Методи встановлення взаємозв'язків між поняттями предметної області:
- •Методи встановлення семантичних відношень між поняттями предметної області
- •Контрольні питання
- •Варіанти завдань
- •Побудувати модель визначеної предметної області, використовуючи методи побудови системи понять та встановлення семантичних відношень між поняттями:
- •несправності комп’ютера;
- •Тема: Експертні системи. Побудова баз знань ЕС.
- •Структура експертних систем
- •атрибутивні зв’язки (має властивість, має значення).
- •Семантичні мережі можуть мати складну та громіздку структуру.
- •Рівні представлення і рівні детальності
- •Організація знань у базі знань
- •Контрольні питання
- •Варіанти завдань
- •Теоретичні відомості
- •Контрольні питання
- •Варіанти завдань
- •Теоретичні відомості
- •Рис. 2. Методика розробки ЕС
- •Прототипи і життєвий цикл експертної системи
- •Прикладами областей застосування, що потребують гнучкості з боку створення та поповнення бази знань, є: планування виробництва, проектування і діагностика в області електроніки, обчислювальної техніки та машинобудування.
- •Контрольні питання
- •Варіанти завдань
- •Створити та протестувати прототип ЕС відповідно варіанту. Вказати сильні та слабкі сторони створеного прототипу, шляхи його вдосконалення.
- •Вимоги до експертної системи і звіту
- •Тема: Нейронні мережі. Персептрон. Побудова та дослідження персептрона.
- •Теоретичні відомості
- •Рис. 3. Штучний нейрон
- •Навчання персептрона
- •Розглянемо алгоритм навчання з учителем.
- •Контрольні питання
- •Варіанти завдань
- •Оцінка алгоритму зворотнього поширення
- •Контрольні питання
- •Варіанти завдань
- •Тема: Нейронні мережі. Побудова та навчання нейромережі для вирішення задачі прогнозування.
- •Постановка задачі прогнозування курсу UKB/USD
- •Контрольні питання
- •Методичні рекомендації по вирішенню задачі та вимоги до звіту
- •Тема: Нейронні мережі. Побудова та навчання нейромережі для розпізнавання образів.
- •Рис.7. Структурна схема мережі Хопфілда
- •2. Розраховується новий стан нейронів
- •Рис. 9. Структурна схема мережі Хемінга
- •Алгоритм функціонування мережі Хемінга наступний:
- •Завдання: побудувати ЕС в області медичної діагностики.
- •Частина 1
- •Частина 2
- •Частина 3
- •Частина 4
- •Частина 5
Мережі також можна класифікувати по числу шарів. На рис.6 представлений двошаровий персептрон, отриманий із персептрона з рис.3 шляхом додавання другого шару, що складається з двох нейронів.
В загальному, робота всіх мереж зводиться до класифікації
(узагальнення) вхідних сигналів, що належать n-мірному гіперпростору по деякому числу класів. З математичної точки зору це відбувається шляхом розбивки гіперпростору гіперплощинами (запис для випадку одношарового персептрона)
n |
|
åxi × wik = Tk , k=1...m |
(6) |
i=1
Кожна отримана область є областю визначення окремого класу. Число таких класів для однієї НМ персептронного типу не перевищує 2m, де m - число виходів мережі.
Навчання персептрона
Розглянемо питання навчання НМ на прикладі персептрона з рис.6.
Розглянемо алгоритм навчання з учителем.
1.Проініціалізувати елементи вагової матриці (звичайно невеликими випадковими значеннями).
2.Подати на входи один із вхідних векторів, які мережа повинна
навчитися розрізняти, і обчислити її вихід.
3. Якщо вихід правильний, перейти на крок 4.
Інакше обчислити різницю між ідеальним і отриманим значеннями виходу:
δ = YI − Y
Модифікувати ваги відповідно до формули: wij (t +1) = wij (t) + n× d× xi ,
де t і t+1 – номера відповідно поточної і наступної ітерацій; ν –
коефіцієнт швидкості навчання, 0<ν<1; i – номер входу; j – номер
нейрона в шарі.
Очевидно, що якщо YI > Y вагові коефіцієнти будуть збільшені і тим самим зменшать помилку. У протилежному випадку вони будуть зменшені, і Y теж зменшиться, наближаючись до YI.
4. Виконувати цикл із кроку 2, поки мережа не перестане помилятися.
На другому кроці на різних ітераціях по черзі у випадковому порядку пред’являються всі можливі вхідні вектори. На жаль, не можна заздалегідь визначити число ітерацій, що буде потрібно виконати, а в деяких випадках і гарантувати повний успіх.
32