- •Оглавление
- •1. Характеристика моделей нейронных сетей.
- •2. Характеристика основных направлений в исследованиях по искусственному интеллекту.
- •3. Знания и модели их представления
- •4. Логические модели представления знаний
- •5. Продукционные модели представления знаний
- •6. Сетевые модели представления знаний (семантические сети)
- •7. Характеристика экспертных систем
- •8. Фреймовые модели представления знаний
- •9. Обобщенная структура экспертной системы
- •10. Характеристика многослойных однонаправленных сетей
- •11. Характеристика полносвязных сетей Хопфилда
- •12. Характеристика двухнаправленной ассоциативной памяти
- •13. Характеристика самоорганизующихся сетей Кохонена
- •14. Области применения нейроинформатики
- •15. Искусственный нейрон. Схема, основные блоки и функции
- •16. Знания и модели их представления
- •17. Фреймовые модели представления знаний.
- •18. Обобщенная структура экспертной системы
- •19. Характеристика моделей нейронных сетей.
- •20. Области применения нейроинформатики
13. Характеристика самоорганизующихся сетей Кохонена
Характерной особенностью мозга является то, что его структура отражает организацию внешних раздражителей, которые в него поступают.
Принципы функционирования природной соматотропической карты легли в основу создания самоорганизующихся сетей (карт, решеток) Кохонена , для которых не требуется предварительное обучение на примерах. Сеть Кохонена воспринимает только вход и способна вырабатывать свое собственное восприятие внешних стимулов. Самоорганизующиеся сети Кохонена — это карты или многомерные решетки, с каждым узлом которой ассоциирован входной весовой вектор, то есть набор из k входных весов нейрона трактуется как вектор в мерном пространстве. Входной весовой вектор имеет ту же размерность, что и вход в сеть. Обучение происходит в результате конкуренции, возникающей между узлами сети за право отклика на полученный входной сигнал. Элемент сети, который выигрывает в этой конкуренции (победитель), и его ближайшее окружение (свита) модифицируют веса своих входных связей. Перед обучением каждая компонента входного весового вектора инициализируется случайным образом. Обычно каждый вектор нормализуется в вектор с единичной длиной в пространстве весов. Это делается делением соответствующего веса на корень из суммы квадратов компонент этого весового вектора. Входные вектора нормализуются аналогично. Обучение сети состоит из следующих этапов:
1. Вектор х = (х 1 , х2,..., xk ) подается на вход сети.
2. Определяется расстояние dij (в k -мерном пространстве) между х и весовыми векторами ij
каждого нейрона, например: dtj =
3. Нейрон, который имеет весовой вектор, самый близкий к х , объявляется «победителем». Этот весовой вектор становится основным в группе входных весовых векторов, которые лежат в пределах расстояния D от . Таким образом определяется "свита" победителя.
4. Группа входных весовых векторов модифицируется (поощряется) в соответствии со следующим выражением для всех весовых векторов в пределах расстояния D от .
5. Шаги 1 — 4 повторяются для каждого входного вектора. В процессе обучения значения D и постепенно уменьшаются: η : 1 → 0, D в начале обучения может равняться максимальному расстоянию между весовыми векторами, а к концу обучения доходить до величины, при которой будет обучаться толь ко один нейрон. Из формулы адаптации входного весового вектора следует, что он (для победителя и его «свиты») сдвигается по направлению к входному вектору. Таким образом, по мере поступления новых входных векторов весовые векторы сети разделяются на группы, формирующиеся в виде облаков (сгустков, кластеров) вокруг входных векторов. По мере обучения плотность весовых векторов будет выше в тех позициях пространства, где входные векторы появляются чаще, и наоборот. В результате сеть Кохонена адаптирует себя так, что плотность весовых векторов будет соответствовать плотности входных векторов.
Самоорганизующиеся сети используются в задачах распознавания — классификации образов, представленных векторными величинами, в которых каждая компонента вектора соответствует элементу образа. После обучения подача входного вектора из данного класса будет приводить к возбуждению нейронов; тогда нейрон с максимальным возбуждением и будет представлять классификацию. Очевидно, в общем случае можно формировать выход, зависящий как от активности победителя, так и от его свиты. Так как обучение проводится без указания целевого вектора, то априори невозможно определить, какой нейрон будет соответствовать данному классу входных векторов. Однако после обучения такие соответствия легко идентифицируются и могут быть использованы, например, в задачах управления.