Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Компютерні системи штучного інтелекту.pdf
Скачиваний:
103
Добавлен:
23.02.2016
Размер:
585.35 Кб
Скачать

максимально схожою з реальною (реального рівня складності) експертною системою, містити не менше п’ятидесятьох правил, забезпечувати не менш, ніж дворівневе прийняття рішень. Якщо якісне вирішення задачі призводить до розростання бази знань за межі приблизно ста п’ятдесяти правил, варто реалізувати частину розв’язку задачі, обмеживши множину варіантів, які опрацьовуються експертною системою, за узгодженням із викладачем. У цьому випадку деякі відповіді на питання, що задаються системою, можуть приводити до незнаходження розв’язку. Ці обмеження потрібно обов’язково описати в звіті. Реалізацію ЕС провести на мовах програмування або в програмних оболонках, вказаних викладачем.

Лабораторна робота № 5

Тема: Нейронні мережі. Персептрон. Побудова та дослідження персептрона.

Мета: Ознайомитися з моделлю персептрона, алгоритмами навчання персептронів. Одержати навики побудови, навчання та дослідження персептронів.

Теоретичні відомості

Спроби моделювання роботи мозку за допомогою побудови моделей нейронних мереж (HM) з’явилися разом з появою ЕОМ. Перші моделі нейроподібних мереж були фізичними і грунтувалися на електронних моделях нейронів. Початок цьому моделюванню поклала ідея формального нейрона Мак-Каллока і Піттса (1943 р.), що була розвинена Розенблаттом у рамках побудованих ним та іншими вченими моделей персептронів (систем для розпізнавання образів) - одного з класів сучасних штучних нейронних мереж.

Актуальність досліджень у цьому напрямку підтверджується масою різноманітних застосувань НM. Це автоматизація процесів розпізнавання образів, апроксимація функціоналів, прогнозування, створення експертних систем, організація асоціативної пам’яті і т.д.

Моделі НМ можуть бути програмні й апаратні. Надалі мова йтиме про перший тип. Незважаючи на суттєві відмінності, окремі типи НМ мають декілька загальних (рис.3).

27

Рис. 3. Штучний нейрон

Основу кожної НМ складають прості, у більшості випадків - однотипні, елементи, що імітують роботу нейронів мозку. Кожен нейрон характеризується своїм поточним станом за аналогією з нервовими клітинами головного мозку (Рис.3), що можуть бути збуджені або загальмовані. Він має групу синапсів - вхідних зв’язків, сполучених із виходами інших нейронів, а також має аксон - вихідний зв’язок даного нейрона, із якого сигнал (збудження або гальмування) надходить на синапси наступних нейронів. Кожен синапс характеризується величиною синаптичного зв’язку або його вагою wi, що за фізичною суттю еквівалентна електричній провідності.

Поточний стан нейрона визначається як зважена сума його входів:

n

 

s = åxi × wi

(1)

i =1

 

Вихід нейрона є функція його стану:

 

y = f(s)

(2)

28

Рис.4. а) функція одиничного стрибка; б) лінійний поріг; в) сигмоїд - гіперболічний тангенс;

г) сигмоїд - формула (3)

Нелінійна функція f називається активаційною і може мати різний вигляд, (Рис.4). Однією з найбільше поширених є нелінійна функція з насиченням, (логістична функція або сигмоїд, тобто функція s-образного вигляду):

f (x) =

 

1

(3)

 

+e−αx

1

 

Слід зазначити, що сигмоїдна функція диференційована на всій осі абсцис, що використовується в деяких алгоритмах навчання.

29

Рис. 5. Одношаровий

персептрон

 

Як приклад

найпростішої

НМ

розглянемо

тринейронний

персептрон (Рис.5),

тобто

таку

мережу, нейрони

якої мають

активаційну функцію у вигляді одиничного стрибка. На n входів поступають деякі сигнали, що проходять по синапсах на 3 нейрона, що утворять єдиний шар цієї НМ і видають три вихідних сигнали:

y

 

é n

x

 

× w

 

ù

, j=1...3.

(4)

j

= f ê

i

ij

ú

 

êå

 

 

ú

 

 

 

 

ëi=1

 

 

 

 

û

 

 

Очевидно, що усі вагові коефіцієнти синапсів одного шару нейронів можна звести в матрицю W, у якій кожен елемент wij задає величину i-го синаптичного зв’язку j-ого нейрона. Таким чином, процес, що відбувається в НМ, може бути записаний у матричній формі:

Y=F(XW),

(5)

де X і Y – відповідно вхідний і вихідний сигнальні вектори, F(V)

активаційна функція, застосовувана поэлементно до компонентів вектора V.

30

Теоретично число шарів і число нейронів у кожному шарі може бути довільним, проте фактично воно обмежене ресурсами комп’ютера або спеціалізованої мікросхеми, на котрих реалізується НМ.

Вибір структури НМ здійснюється відповідно до особливостей і складності задачі. Для розв’язку деяких окремих типів задач вже існують оптимальні, на сьогоднішній день, конфігурації.

Процес функціонування НМ залежить від величин синаптичних зв’язків, тому в мережі потрібно знайти оптимальні значення всіх змінних вагових коефіцієнтів (деякі синаптичні зв’язки можуть бути постійними).

Цей етап називається навчанням НМ, і від того, наскільки якісно він буде виконаний, залежить здатність мережі вирішувати поставлені перед нею проблеми під час експлуатації. Навчання НМ може вестися з вчителем або без нього. У першому випадку у мережу подаються значення як вхідних, так і бажаних вихідних сигналів, і вона по деякому внутрішньому алгоритму корегує ваги своїх синаптичних зв’язків. В другому випадку виходи НМ формуються самостійно, а ваги змінюються по алгоритму, що враховує тільки вхідні і похідні від них сигнали.

Існує безліч алгоритмів навчання, що діляться на два великих класи: детерміновані і стохастичні. У першому з них корегування ваг являє собою жорстку послідовність дій, у другому - воно проводиться на основі дій, що визначаються деяким випадковим процесом.

Рис.6. Двошаровий перcептрон

31