- •Нейросетевые структуры и технологии
- •Часть 2 Рекуррентные и специальные нс. Методы реализации нейрокомпьютеров
- •Содержание
- •Введение
- •5.Рекуррентные нейронные сети
- •5.1.Ассоциативная память на основе рекуррентных нс
- •5.1.1.Автоассоциативная нс Хопфилда
- •5.1.2.Нс Хемминга
- •5.1.3.Двунаправленная ассоциативная память
- •5.2.Рекуррентные нс на базе персептрона
- •5.2.2.Рекуррентная сеть Эльмана
- •6.Нейронные сети с самоорганизацией
- •6.1.Самоорганизующаяся нс Кохонена
- •6.2.Гибридная нс Кохонена с мсп
- •6.3.Нс встречного распространения
- •6.4.Нс адаптивной резонансной теории (арт)
- •6.5.Когнитрон и неокогнитрон Фукушимы
- •6.6.Корреляционные нс
- •6.6.1.Нейронные сети рса
- •7.Нейронные сети с нечеткой логикой
- •7.1.Математические основы функционирования нечетких систем
- •7.2.Системы нечеткого вывода
- •7.3.Нечеткая нс tsk
- •7.4.Обучение нс с нечеткой логикой
- •7.5.Гибридная нс с нечеткой со
- •7.6.Мягкие экспертные системы
- •8.Методы реализации нейрокомпьютеров (нк)
- •8.1.Программное моделирование инс
- •8.2.Аппаратная реализация нк
- •8.3.Перспективные технологии реализации нейрокомпьютеров
- •8.3.1.Оптические и оптоэлектронные нк
- •8.3.2.Молекулярные (био)нейрокомпьютеры
- •8.3.3.Нанонейрокомпьютеры (ннк)
- •Литература
5.1.Ассоциативная память на основе рекуррентных нс
Благодаря наличию аттракторов рекуррентные НС могут быть использованы как устройства ассоциативной памяти, определяющей взаимную зависимость векторов. Если взаимозависимыми оказываются компоненты одного и того же вектора, говорят об автоассоциативной, если различные векторы – о гетероассоциативной памяти. Функционирование ассоциативной памяти состоит в генерации ответа, к какому из запомненных в процессе обучения векторов наиболее близок вновь поступивший образ. Наиболее часто в качестве меры близости отдельных множеств используется расстояние Хемминга. Для двоичных векторов и это расстояние (число несовпадающих бит векторов)
(5.3)
для биполярных –
(5.4)
Очевидно, что мера Хемминга равна нулю, если .
5.1.1.Автоассоциативная нс Хопфилда
Обобщенная структура НС Хопфилда представлена на рис. 5.1, ее характерная особенность состоит в том, что выходные сигналы нейронов одновременно являются входными сигналами сети, т.е. xi(t)=yi(t–1), причем возбуждающий вектор особо не выделяется. В классической схеме сети Хопфилда ОС нейронов с собственным выходом отсутствуют, что соответствует wii=0, а матрица весов [W] является симметричной (wij=wji), что в конечном итоге гарантирует сходимость процесса обучения. Полагая, что каждый нейрон имеет функцию активации типа sign (Хопфилд), выходной сигнал i–го нейрона можно представить как
(5.6)
при начальном условии yi(0)=xj.
В процессе функционирования НС Хопфилда можно выделить два режима:
обучение, когда на основе известных обучающих выборок подбираются весовые коэффициенты wij, причем обучение не носит рекуррентного характера, если для выбора wij использовать правило Хебба, согласно которому для единичного
(5.7)
а для р обучающих векторов (k=1,2,…,р)
(5.8)
Действительно, при таком выборе из, например, (5.7) следует , поскольку для компонент двоичных векторов .
классификация, когда при фиксированных wij и вводе конкретного начального состояния в сети возникает переходной процесс, протекающий согласно (5.6) и завершающийся в одном из локальных минимумов, для которого .
К числу важнейших характеристик ассоциативной памяти относятся:
стабильность, для выполнения которой необходимо чтобы реакция i‑го нейрона на l‑й обучающий вектор совпала с его i‑й компонентой . Заметим, что хорошо обученная и стабильно работающая сеть обладает способностью к коррекции, т.е. к восстановлению частично искаженных тестовых данных;
емкость, под которой понимается максимальное количество запомненных образов, классифицируемых с допустимой погрешностью max. Показано, что при обучении по правилу Хебба с max = 0,01 максимальная емкость памяти (число запомненных образов) составит ~14% от количества нейронов, что свидетельствует о невысокой эффективности этого обучающего правила для НС Хопфилда. Обусловлено это тем, что НС Хопфилда–Хебба хорошо запоминает только взаимно ортогональные или близкие к ним векторы.
Гораздо лучшие результаты показывают методы обучения, основанные на псевдоинверсии, в основе которой лежит предположение, что при правильно подобранных wij каждая поданная на вход выборка генерирует на выходе саму себя. В матричном виде это можно представить как
(5.9)
где [W] – матрица весов сети размерностью NN, [X] – прямоугольная матрица размерностью Np, составленная из р обучающих векторов , т.е. . Решение линейной системы (5.9) имеет вид
(5.10)
где знак + означает псевдоинверсию. Если обучающие векторы линейно независимы, то решение (5.10) можно упростить
(5.11)
заменив псевдоинверсию матрицы Np обычной инверсией квадратной матрицы [X]Т [X] размерностью рp. Выражение (5.11) позволяет организовать итерационный процесс расчета [W] без вычисления обратной матрицы (XТ X)–1, используя процедуру уточнения [W] после подачи каждого обучающего вектора при начальном [W](0)=0. Процедура предполагает однократное предъявление всех р обучающих выборок, в результате чего матрица весов принимает фиксированное значение [W]=[W](р). Зависимость (5.11) является математической основой метода проекций.
Модифицированный вариант этого метода – метод –проекций –предполагает минимизацию некоторой (подобно МСП) целевой функции, когда веса wij подбираются рекуррентно с помощью циклической процедуры, многократно повторяемой на всем множестве обучающих выборок вплоть до стабилизации [W]
(5.12)
где [0.7…0.9].
Использование методов обучения с псевдоинверсией для НС Хопфилда:
увеличивает максимальную емкость сети до N–1, потому что в методе проекций требование ортогональности векторов заменено менее жестким требованием их линейной независимости;
улучшает работу НС в режиме распознавания, допуская большее отклонение предъявленных образов от оригинала.