Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Методичка_Нейросетевые структуры_ч2_Клюкин_Нико...doc
Скачиваний:
53
Добавлен:
18.11.2019
Размер:
3.67 Mб
Скачать

6.2.Гибридная нс Кохонена с мсп

Главное достоинство НС с СО на основе конкуренции – очень высокая скорость обучения (в сотни раз выше МСП), главный недостаток – не очень хорошие аппроксимирующие свойства (значительно хуже МСП или RBF–НС). Сохранить положительные качества и устранить недостатки позволяют гибридные НС, структура одной из которых в виде каскадного соединения слоя Кохонена с МСП приведена на рис. 6.2. Обучение гибридной НС состоит из двух этапов:

1. Вначале на множестве входных векторов обучается слой Кохонена таким образом, чтобы обеспечить их отображение с минимальной погрешностью квантования (чаще всего на основе алгоритма CWTA). После обучения веса нейронов слоя Кохонена фиксируются и для каждого входного формируется набор нормализованных выходных сигналов, являющихся входными для МСП, обычно с использованием выражения

(6.8)

где umaxфактический выходной сигнал нейрона – «победителя» (соответственно ymax=1); ui – фактические выходные сигналы остальных нейронов; – показатель дисперсии, подбираемый индивидуально для каждой решаемой задачи.

2. С помощью любого алгоритма с учителем (ОРО, АНС, АСГ) обучается МСП на основе обучающих пар , причем процесс обучения МСП идет намного быстрее за счет хорошей предварительной локализации данных, обеспеченной самоорганизующимся слоем Кохонена. Более того, если начальную инициализацию весов МСП провести на основе усреднения значений весов, соединяющих победившие нейроны с нейронами МСП для каждого , то весь процесс обучения МСП сведется к незначительной корректировке этих весов за счет влияния проигравших нейронов. Как правило, эта корректировка требует небольшого количества итераций и ведет к достижению глобального минимума функции погрешности.

Гибридная НС Кохонена с МСП используется для решения тех же задач – классификация и компрессия данных, диагностика неисправностей оборудования, прогнозирование, – что и обычная сеть Кохонена, однако в среднем ее результаты на 15…20% лучше. Так, например, при сжатии изображений степень компрессии может достигать 15…16 при отношении сигнал/шум ~26 дБ, при анализе состава и концентрации компонентов газовых смесей («искусственный нос») по показаниям полупроводниковых датчиков значение максимальной относительной погрешности не превышало 7%, а абсолютное среднее значение распознавания всех компонентов смеси составило 0,78%.

6.3.Нс встречного распространения

Объединение разнотипных нейронных структур в единой архитектуре зачастую позволяет получать свойства, которых у них нет по отдельности, причем именно каскадное соединение НС приводит к комплексному решению проблемы. Еще один пример такой гибридной НС со слоем Кохонена приведен на рис. 6.3, где подключение на выходе слоя Гроссберга не только обеспечивает НС великолепные обобщающие свойства, но значительно (более, чем в 100 раз) сокращает время обучения при решении задач классификации и распознавания (по сравнению с МСП). Это играет существенную роль для эффективного использования НС при восстановлении зашумленных образов, а также для усиления сигналов.

Обучение НС со структурой рис. 6.3 также проходит в два этапа:

1. Вначале осуществляется (само) обучение слоя Кохонена (без учителя), обычно алгоритмом CWTA (WTA с «утомлением»), путем подстройки весов нейронов – «победителей» согласно

(6.9)

где – нормализованные входные векторы, для которых i–е нейроны являются «победителями»; (t)<0.1 – коэффициент обучения, уменьшающийся с ростом t.

2. Поскольку слой Гроссберга формирует требуемые выходные векторы после разделения входных на классы слоем Кохонена, его обучение проводится с учителем при уточнении весов по формуле

(6.10)

где ui – выход победившего нейрона, (t)<0.10 с ростом t. Отличие (6.10) от стандартной обучающей процедуры состоит в том, что корректируются веса только тех выходных нейронов, которые соединены с ненулевым нейроном Кохонена.

Основная особенность НС встречного распространения состоит в том, что при обучении векторы и подаются одновременно на вход и выход: является входным для , для , что обуславливает их однозначное отображение. После обучения в НС реализуется свойство гетероассоциативной памяти – подача на вход только (или ) приводит к восстановлению на выходе как , так и .