Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ИИ ответы(так себе).doc
Скачиваний:
1
Добавлен:
16.04.2019
Размер:
3.11 Mб
Скачать

15.Персептрон

Персептрон-это сеть прямого распространения.

Св-ва: 1.нейроны каждого слоя не связаны м/у собой;2.вых.сигнал каждого нейрона поступает на входы всех нейронов след.слоя;3.нейроны вх.слоя не осущ.преобраз-е вх.сигналов, а только подают эти сигналы на нейроны 1го скрытого слоя.

Х=(х12,…,хm)T вх.вектор

Y=(y1,y2,…yn)T вых.вектор персептрона

D=(d1,d2,…,dn)T вектор желаемых вых.реакций

ε1= d1- y1 невязка по 1му выходуперсептрона(ошибка обучения)

εn= dn- yn

E=∑εi2 (i=1…n) суммарная квадратич.ошибка

E=∑ (d1- y1)2 (i=1…n) ошибка обучения НС

Обучение персептрона сводится к выбору таких зн-ний весов, при кот-ых Е->0.

Алгоритм обучения персептрона

1.Инициируется состояние персептрона, т.е. случ.образом выбир-ся зн-я его весов.

2.Для зад-го вх.в-ра Х выч-ся вых.реакция Y персептрона.

3.Выч-ся невязки по всем выходам, а также сумм.квадратич.ошибка.

4.Произв-ся корректировка весов настраеваемых связей Wij в сторону уменьшения Е.

5.Вновь подается вектор Х,выч-ся зн-е Y ит.д.

В случ, если векторов много, то тогда необходимозадать неск-ко эталонов.

Для многослойных персептронов, имеющих большое число нейронов и связей в 1986г. Руммельхарт Д. предложил алгоритм обратного распространения: проц-ра обучения весов разбивается на неск. этапов.на 1ом этапе проис-т настройка весов 1го слоя.На след.этапе произв-ся настройка весов предпоследнего слоя вплоть до вх.слоя.

Другие архитектуры нейронных сетей

1.РБФ-сети 2.Хопфилда 3.Кохонена 4.Когнитроны 5.Неокогнитроны 6.Сети Гроссберга 7.Сети Элмана 8.Автоассоциативные НС

РБФ Сети

Задача интерполяции построение y=f(x), график кот-ой проходил бы ч/з данные точки

Нейроны скрытого слоя опис-ся Гауссовыми ф-ми активации

Задача обучения нейронной сети сводится к выбору весов нейронно вых.слоя w1,w2,…,wn при кот-ых обеспеч-ся мин.ошибки Е=(y-d)2, где у-выход, d-желаемое знач-е.

Сети Хопфилда.

Однослойная нейронная сеть с жесткой стр-рой.Веса нейронов фиксируются, не настраиваются.

wij i-номер вых.; j-номер входа

w11 w12 w13

W= w21 w22 w23

w31 w32 w33

Сеть Хопфилда предст. собой динамич.с-му, кот-я опис-ся с-но ДУ 3го порядка.С-ма яв-ся устойчивой, если: 1.wii=0 (i=1,2,3); 2.wij=wji

Подается вход.вектор (х1х2х3).Этот в-р опр-ет нач. состояние, с-ма переходит в одно из юлижайших устойчивых состояний.Если y=f(zi) приним.знач.0 или 1, то сеть имеет 2N уст.сост.

Обл.применения:исп-ся как элемент ассоциативной памяти.

Е=∑wijyiyj энергия сети.когда сеть в уст.состоянии, Е->min.

16. ПР:распознавание образов с пом НС.

17.Генетические алгоритмы

ГА-алгоритм поиска глобального экстремума некот.целевой ф-ции,основанной на идее параллельной оптимизации с имитацией мех-змов генетической наслед-ти и естеств. отбора, распространенных в живой природе.

18. Генетические операции

6.Ранжирование индивид.нов.популяций.

Критерий останова: -зад.кол-во поколений;-момент,когда попул.перестала улучшаться

«+»1.целевая ф-я м.б.сколь угодно сложной;2.не треб-ся дифференц-ть целевой ф-ции.