Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ИИ. Задания для курсовой работы.doc
Скачиваний:
19
Добавлен:
10.02.2016
Размер:
1.07 Mб
Скачать

6.3. Задание 2. Проектирование сети встречного распространения.

6.3.1.Общие сведения

Возможности сети встречного распространения превосходят возмож-ности однослойных сетей. Во встречном распространении объединены два известных алгоритма: самоорганизующаяся карта Кохонена и звезда Грос-сберга. Их объединение ведет к свойствам, которых нет ни у одного из них в отдельности.

В процессе обучения входные векторы ассоциируются с соответствую-щими выходными векторами. Эти векторы могут быть двоичными, состоя-щими из нулей и единиц, или непрерывными. Когда сеть обучена, приложе-ние входного вектора приводит к требуемому выходному вектору. Обоб-щающая способность сети позволяет получать правильный выход даже при приложении входного вектора, который является неполным или слегка не-верным. Это позволяет использовать данную сеть для распознавания образов, восстановления образов и усиления сигналов.

На рис. 8 показана упрощенная версия прямого действия сети встречного распространения.

Рис. 8. Сеть с встречным распространением

Нейроны слоя 0 (показанные кружками) служат лишь точками разветв-ления и не выполняют вычислений. Каждый нейрон слоя 0 соединен с каж-дым нейроном слоя 1 (называемого слоем Кохонена) отдельным весом wmn.Эти веса в целом рассматриваются как матрица весовW. Аналогично, каж-дый нейрон в слое Кохонена (слое 1) соединен с каждым нейроном в слое Гроссберга (слое 2) весомvnp. Эти веса образуют матрицу весовV.

Как и многие другие сети, встречное распространение функционирует в двух режимах: в нормальном режиме, при котором принимается входной вектор Хи выдается выходной векторY, и в режиме обучения, при котором подается входной вектор и веса корректируются, чтобы дать требуемый выходной вектор.

Нормальное функционирование Слои Кохоненна

В своей простейшей форме слой Кохонена функционирует в духе «победи-тель забирает все», т. е. для данного входного вектора один и только один нейрон Кохонена выдает на выходе логическую единицу, все остальные вы-дают ноль.

Каждый нейрон слоя Кохонена соответствует структурной схеме, при-веденной на рис.1 при выборе в качестве функции преобразования функции Хевисайда.

Ассоциированное с каждым нейроном Кохонена множество весов соеди-няет его с каждым входом. Например, на рис. 8 нейрон КохоненаК1имеет весаw11, w12, …, w1m, составляющие весовой векторW1. Они соединяются через входной слой с входными сигналамих1, x2, …, xm, составляющими входной векторX. Подобно нейронам большинства сетей выходnetiкаждо-гоi-того нейрона Кохонена является просто суммой взвешенных входов. Это может быть выражено следующим образом:

(25)

или в векторной записи

N = WTX, (26)

где N– вектор выходов сетевых функцийnetслоя Кохонена.

Нейрон Кохонена с максимальным значением netявляется «победителем». Его выходу присваивается значение, равное единице, а остальным - ноль.

Слой Гроссберга

Слой Гроссберга функционирует в сходной манере. Его выход netявляется взвешенной суммой выходовk1,k2, ..., knслоя Кохонена, образующих векторК. Вектор соединяющих весов, обозначенный черезV, состоит из весовv11,v12, ..., vpn. Тогда выход netj каждого нейрона Гроссберга есть

, (27)

Y = KV,

где Y– выходной вектор слоя Гроссберга,К– выходной вектор слоя Кохоне-на,V– матрица весов слоя Гроссберга.

Если слой Кохонена функционирует таким образом, что лишь у одного нейрона значение величины net равно единице, а у остальных равна нулю, то лишь один элемент вектораКотличен от нуля, и вычисления очень прос-ты. Фактически каждый нейрон слоя Гроссберга лишь выдает величину веса, который связывает этот нейрон с единственным ненулевым нейроном Кохо-нена.