Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпоры полные.docx
Скачиваний:
48
Добавлен:
27.09.2019
Размер:
509.6 Кб
Скачать

44. Функции активации формального нейрона, их смысл и основные виды.

1. Жесткая ступенька :

Используется в классическом формальном нейроне. Развита полная теория, позволяющая синтезировать произвольные логические схемы на основе ФН с такой нелинейностью. Функция вычисляется двумя*тремя машинными инструкциями, поэтому нейроны с такой нелинейностью требуют малых вычислительных затрат.Эта функция чрезмерно упрощена и не позволяет моделировать схемы с непрерывными сигналами. Отсутствие первой производной затрудняет применение градиентных методов для обучения таких нейронов. Сети на классических ФН чаще всего формируются, синтезируются, т.е. их параметры рассчитываются по формулам, в противоположность обучению, когда параметры подстраиваются итеративно.

2. Логистическая функция (сигмоида, функция Ферми):

Применяется очень часто для многослойных перцептронов и других сетей с непрерывными сигналами. Гладкость, непрерывность функции — важные положительные качества. Непрерывность первой производной позволяет обучать сеть градиентными методами (например, метод обратногораспространения ошибки).Функция симметрична относительно точки (NET=0, OUT=1/2), это делает равноправными значения OUT=0 и OUT=1, что существенно в работе сети. Тем не менее, диапазон выходных значений от 0 до 1 несимметричен, из*за этого обучение значительно замедляется.Данная функция — сжимающая, т.е. для малых значений NET коэффициент передачи K=OUT/NET велик, для больших значений он снижается. Поэтому диапазон сигналов, с которыми нейрон работает без насыщения, оказывается широким. Значение производной легко выражается через саму функцию. Быстрый расчет производной ускоряет обучение.

3. Гиперболический тангенс

Тоже применяется часто для сетей с непрерывными сигналами. Функция симметрична относительно точки (0,0), это преимущество по сравнению с сигмоидой. Производная также непрерывна и выражается через саму функцию.

4. Пологая ступенька

Рассчитывается легко, но имеет разрывную первую производную в точках NET =θ , NET =θ + Δ ,что усложняет алгоритм обучения.

5. Экспонента:

Применяется в специальных случаях.

6. SOFTMAX*функция:

Здесь суммирование производится по всем нейронам данного слоя сети. Такой выбор функции обеспечивает сумму выходов слоя, равную единице при любых значениях сигналов NETi данного слоя. Это позволяет трактовать OUTi как вероятности событий, совокупность которых (все выходы слоя) образует полную группу. Это полезное свойство позволяет применить SOFTMAX*функцию в задачах классификации, проверки гипотез, распознавания образов и во всех других, где требуются выходы*вероятности.

7. Участки синусоиды:

8. Гауссова кривая:

Применяется в случаях, когда реакция нейрона должна быть максимальной для некоторого определенного значения NET.

9. Линейная функция, OUT = K NET, K=const. Применяется для тех моделей сетей, где не требуется последовательное соединение слоев нейронов друг за другом.

Рис. . Виды функций активации.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]