- •Искусственные нейронные сети, их классификация и основные классы решаемых задач
- •Сети радиальных базисных функций (rbf-сети): структура и назначение
- •Формальные нейроны, входная функция и функции активации или выхода нейрона и их виды
- •Интерполяция и аппроксимация функций с помощью rbf-сетей
- •Динамические нейронные сети. Сети с внешней и внутренней динамикой
- •Backpropagation-алгоритм обучения многослойных персептронов и его недостатки. Основные требования к функции активации нейрона в Backpropagation-сетях
- •Бинарные сети Хопфилда (Hopfield): структура, свойства, назначение и области применения. Непрерывные сети Хопфилда
- •9. Применение Backpropagation-нейросетей для преобразования ascii-текста в речевой сигнал (проект neTtalk) и для анализа видеоизображений
- •Правило останова переходного процесса в сети Хопфилда. Теорема Коэна (Сohen) и Гроссберга ( Grossberg)
- •11. Функция ошибки нейросети и градиентный способ определения ее минимума
- •12. Применение многослойных персептронов для прогнозирования способности к возврату кредита
- •14. Двухслойные и многослойные нейросети и их аппроксимационные
- •15.Сети Хопфилда: назначение, типы, структура, принцип действия
- •1) Режим фильтрации;
- •2) Синхронный режим;
- •Обучение нейросетей с поощрением и без поощрения (Supervised and unsupervised learning). Примеры.
- •Алгоритм Кохонена и его сходимость (одномерный и двумерный случай)
- •18)Основные недостатки алгоритма обучения с обратным распространением ошибки (Backpropagation) и способы их смягчения
- •19)Сети Кохонена, их структура и алгоритм обучения
- •20. Моделирование основных логических схем нейросетями
- •21. Частично рекуррентные сети Жордана и Элмана и их применение для прогнозирования временных рядов
- •5.3.2. Нейросети Жордана(Jordan) и Элмана(Elman)
- •22. Сети Кохонена. Основные стадии работы и области применения. Алгоритм обучения
- •23.Нейросети прямого распространения информации 1го и 2го порядка (fFсети 1го и 2го порядка)
- •24.Применение rbf-сетей для аппроксимации психометрической функции преподавателя
- •Гауссова (колокольная) фа(функция активации)
- •25. Моделирование схемы исключающего или (xor-схемы) двухслойным персептроном
- •26. Сети радиальных базисных функций (rbf-сети): структура и назначение
-
Бинарные сети Хопфилда (Hopfield): структура, свойства, назначение и области применения. Непрерывные сети Хопфилда
Нейро́нная сеть Хо́пфилда — полносвязная нейронная сеть с симметричной матрицей связей. В процессе работы динамика таких сетей сходится (конвергирует) к одному из положений равновесия. Эти положения равновесия являются локальными минимумами функционала, называемого энергией сети (в простейшем случае — локальными минимумами отрицательно определённой квадратичной формы на n-мерном кубе). Такая сеть может быть использована как автоассоциативная память, как фильтр, а также для решения некоторых задачоптимизации. В отличие от многих нейронных сетей, работающих до получения ответа через определённое количество тактов, сети Хопфилда работают до достижения равновесия, когда следующее состояние сети в точности равно предыдущему: начальное состояние является входным образом, а при равновесии получают выходной образ.
Нейронная сеть Хопфилда состоит из N искусственных нейронов. Каждый нейрон системы может принимать одно из двух состояний (что аналогично выходу нейрона с пороговой функцией активации):
Из-за их биполярной природы нейроны сети Хопфилда иногда называют спинами.
Взаимодействие спинов сети описывается выражением:
где wij — элемент матрицы взаимодействий W, которая состоит из весовых коэффициентов связей между нейронами. В эту матрицу в процессе обучения записывается М «образов» — N-мерных бинарных векторов: Sm = (sm1,sm2,...,smN)
В сети Хопфилда матрица связей является симметричной (wij = wji), а диагональные элементы матрицы полагаются равными нулю (wii = 0), что исключает эффект воздействия нейрона на самого себя и является необходимым для сети Хопфилда, но не достаточным условием, устойчивости в процессе работы сети. Достаточным является асинхронный режим работы сети. Подобные свойства определяют тесную связь с реальными физическими веществами, называемымиспиновыми стёклами.
Схема сети Хопфилда
3. Области применения сети
Сеть Хопфилда может быть использована как ассоциативная память, для решения некоторых задач оптимизации, а также как фильтр (задачи распознавания образов).
Чтобы организовать устойчивую автоассоциативную память с помощью данной сети с обратными связями, веса должны выбираться так, чтобы образовывать энергетические минимумы в нужных вершинах единичного гиперкуба.
На каждом итерации алгоритма функционирования сети понижается значение энергии нейронной сети. Это позволяет решать комбинаторные задачи оптимизации, если они могут быть сформулированы как задачи минимизации энергии.
Рассмотрим пример восстановления повреждённого изображения.
Если во время обучения сформировать матрицу весовых коэффициентов на основании эталонных бинарных векторов, то нейронная сеть в процессе работы будет менять состояния нейронов до тех пор, пока не перейдет к одному из устойчивых состояний.
Пусть имеется нейронная сеть размерностью N=100 , в матрицу связей записан набор чёрно-белых картинок (-1 — чёрный цвет, +1 — белый), среди которых есть изображение собачки (рис. 3б). Если установить начальное состояние сети близким к этому вектору (рис. 3а), то в ходе динамики нейронная сеть восстановит исходное изображение (рис. 3б). В этом смысле можно говорить о том, что сеть Хопфилда решает задачу распознавания образов (хотя строго говоря, полученное эталонное изображение ещё нужно превратить в номер класса, что в некоторых случаях может быть весьма вычислительно ёмкой задачей).
Непрерывные сети
Нейронные сети — могут аппроксимировать непрерывные функции. Доказана обобщённая аппроксимационная теорема[12]: с помощью линейных операций и каскадного соединения можно из произвольного нелинейного элемента получить устройство, вычисляющее любуюнепрерывную функцию с некоторой наперёд заданной точностью. Это означает, что нелинейная характеристика нейрона может быть произвольной: от сигмоидальной до произвольного волнового пакета или вейвлета, синуса или многочлена. От выбора нелинейной функции может зависеть сложность конкретной сети, но с любой нелинейностью сеть остаётся универсальным аппроксиматором и при правильном выборе структуры может достаточно точно аппроксимировать функционирование любого непрерывного автомата.