- •Глава 5. Нейросетевые методы распознавания и аппроксимации
- •5.1 Принципы организации и классификация нейронных сетей
- •5.2 Формальный нейрон. Однослойный персептрон
- •5.3 Многослойный персептрон
- •5.3.1 Модель сети
- •5.3.2 Обучение многослойного персептрона
- •Да: перейти на шаг 11. Нет: Перейти на шаг 13.
- •Да: Окончание поиска: нет продвижения к решению. Перейти на шаг 13.
- •Алгоритмы сопряженных градиентов представляют собой подкласс квадратично сходящихся методов. Для алгоритмов сопряженных градиентов шаг 6 обобщенного градиентного алгоритма имеет вид:
- •5.3.3 Следящий алгоритм обучения мнс
- •5.4 Радиально-базисные нейронные сети
- •5.5 Нейронные сети Хопфилда
- •5.5.1 Модель сети Хопфилда
- •5.5.2 Обучение сети Хопфилда распознаванию образов
- •5.5.3 Эффект разнасыщения
- •5.6 Нейронная сеть Хэмминга
- •5.7 Машина Больцмана
- •5.8 Двунаправленная ассоциативная память
- •5.9 Нейросетевой селектор максимума
- •5.10 Карта признаков самоорганизации Кохонена
- •5.10.2 Интерпретация результатов классификации нс Кохонена
- •Блок кпск-азу может быть рекомендован для использования в системах классификации в случае, когда:
- •5.10.3 Выбор метрики и учет информативности признаков
- •Шаг 3. Произвести обучение блока кпск-азу на всей выборке X
- •5.11 Квантование обучающих векторов
- •5.11.1 Модель сети
- •5.11.2 Алгоритм обучения lvq1
- •5.11.3 Алгоритм обучения lvq2
- •5.11.4 Алгоритм обучения lvq3
- •5.11.5 Алгоритм обучения olvq1
- •5.12 Контрастирование нейронных сетей
- •Алгоритм построения и оптимизации модели объекта.
- •Алгоритм контрастирования многослойной нейронной сети.
5.5.3 Эффект разнасыщения
Из-за того, что НС Хопфилда позволяли создавать только дискретные ассоциативные устройства, характеризовавшиеся небольшим объемом запоминаемой информации, им долгое время уделялось крайне мало внимания. Лишь в начале 90-х годов в Институте проблем математических машин и систем НАН Украины ими заинтересовалась группа ученых. В 1995 г. Д.О. Городничий, изучая НС с перенасыщенной памятью, обнаружил, что при уменьшении веса связей, замыкающих выход нейрона на его вход, НС способна вспоминать образы, которые казались безнадежно утерянными. Этот “эффект разнасыщения” был положен в основу разработки нового метода повышения объема ассоциативной памяти НС Хопфилда, что позволило почти в два раза увеличить теоретический предел для объема памяти и сделало возможным регулировать количество запоминаемых образов.
Теоретическая граница объема памяти для псевдоинверсного обучающего правила составляет 50% от количества нейронов сети, но практически она является недостижимой. При обучении на основе псевдоиверсного обучающего правила поведение сети существенно зависит от уровня обратной связи нейронов. Уменьшение обратной связи будет благоприятствовать улучшению характеристики обучающего правила НС.
Теоретический анализ этой методики и ее экспериментальная проверка путем программного моделирования, показывают, что объем памяти модифицированной псевдоинверсной НС может не только достигать теоретической границы 50% от количества нейронов, но и значительно превышать ее. Предложенную методику назвалиразнасыщением сети, а сеть, построенную по этой методике, -разнасыщенной псевдоинверснойНС.
Для псевдоинверсного обучающего правила при увеличении заполнения памяти НС (M/N) диагональные элементы синаптической матрицы начинают доминировать над остальными ее элементами, а с увеличением веса диагональных элементов уменьшается вероятность попадания сети в локальные минимумы. Эти два факта позволили предложить такую модификацию псевдоинверсного обучающего правила:
После того, как значения синаптической матрицы найдены, все диагональные элементы этой матрицы необходимо частично уменьшить по правилу:
wii* = Dwii, 0 < D < 1.
Такое сокращение ослабляет уровень отрицательной обратной связи нейронов, что приводит к определенной дестабилизации поведения НС.Уменьшая диагональные элементы матрицы, мы уменьшаем величину соотношенияwii /wij, что дает эффект, похожий на сокращение количества запомненных эталонов, то есть сокращение уменьшения насыщения памяти сети. Поэтому псевдоинверсное обучающее правило с сокращенными обратными связями называютразнасыщенным псевдоинверсным правилом. Полную НС, построенную по этому правилу, назвалиразнасыщенной сетью. Синаптическая матрицаw*для разнасыщенного псевдоинверсного правила может быть определена как
w*=w- (1 - D)I =xxT - (1 - D)I,
где D – коэффициент разнасыщения, 0< D <1, оптимальное значение коэффициента D лежит в пределах 0,1-0,2; I - единичная матрица.
При разнасыщении после обучения НС диагональные элементы синаптической матрицы умножаются на положительный коэффициент D<l. При экзамене такой сети, постсинаптический потенциал каждого нейрона получает приращение:
.
Поскольку D < 1, аwii> 0, приращение имеет знак, противоположный выходу нейрона, и действует как дестабилизирующий фактор. Критический объем памяти сети при деформации увеличивается, удваиваясь при D = 0.
Экспериментально подтверждена возможность значительного (в 2-3 раза) увеличения объема ассоциативной памяти НС при ослаблении диагонали в 3-5 раз (D = 0,2-0,3). Дальнейшее уменьшение веса диагональных элементов синаптической матрицы при параллельной организации нейровычислений увеличивает риск потери стабильности сети.