Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
LektsiiProshkina / Нейронные сети - лекции_готовое.docx
Скачиваний:
222
Добавлен:
18.05.2015
Размер:
1.27 Mб
Скачать

Персептрон

Рисунок 11 Схема персептрона

Простой персептрон – обычная модель МакКоллока-Питса с соответствующей стратегией обучения. Нелинейная функция активации персептрона представляет собой дискретную функцию ступенчатого типа, где выходной сигнал принимает значения 0 либо 1.

Обучение персептрона требует наличие учителя и состоит в таком подборе весов, чтобы выходной сигнал был наиболее близок к целевому значения.

Обучение персептрона осуществляется по следующему алгоритму:

  1. При первоначальных наборах значений весов (случайных) на вход подаётся обучающий векторx и рассчитывается значение выходного сигнала ;

  2. По результатам сравнения с заданным значениемуточняется значения весов. Если=0, а,;

  3. Если , а, то,- общий случай корректирующего значения;

Персептрон – линейно разделяющая функция.

Персептрон с одним слоем нейронов способен представлять ограниченный класс линейно разделимых образов. Рассмотрим пример применения персептрона для решения задач дихотомии. Предположим, что входные сигналы принимают двоичные значения (0 или 1). В этом случае производство входных признаков состоит из 4-х возможных комбинация.

0

0

0

1

1

0

1

1

Рисунок 12 Возможные комбинации

И может быть представлена на плоскости. В зависимости от конкретных значений весов и, а так же от значения порогауравнениебудет определять прямую на плоскости, разбивающую плоскость признаков на две части, соответствующие двум классам выходных образов.

Отсюда следует, что возможности персептрона ограничены классом линейно разделимых образов. Так, персептрон не может реализовать функцию исключающего или, т.к. (0,0) и (1,1) не могут находиться по одну сторону прямой.

Многослойный персептрон:

Рисунок 13 Схема многослойного персептрона

24.09.2011

Алгоритм обратного распространения ошибки

  1. Начальные значения весов всей нейронов всех слоев полагаются случайными величинами;

  2. На вход подается вх. образ . На выходе формируются. Нейроны последовательно от слоя к слою функционируют по следующим формулам:

- выходной сигнал скрытого слоя

- выходной сигнал, - сигмоидальная функция.

  1. - функция ошибки;

Градиентный метод оптимизации состоит в итерационном уточнении аргумента согласно формуле:

Функция ошибки Е в явном виде не содержит зависимости от . Поэтому воспользуемся формулой неявного дифференцирования сложной функции:

  1. Выполняется подстройка весов открытого слоя:

При вычислении был применен принцип обратного распространения ошибки, т.е. частные производные берутся только по переменным последующего слоя. По полученным формулами модифицируется веса нейронов скрытого слоя. Если скрытых слоев несколько, то процедура обратного распространения последовательно применяется для каждого из них, начиная со слоя, предшествующего выходному до слоя, стоящего за входным.

  1. Шаги 1-3 повторяются для всех обучающих векторов. Общение завершается по достижении малой полной ошибки или максимально допустимого числа итераций.

Сигмоидальный нейрон

Рисунок 14 Сигмоидальный нейрон

Нейрон сигмоидального типа имеет структуру, подобную модели МаКаллека-Питса с той разницей, что функция активации может быть выражена сигмоидальной, униполярной и биполярной функциями.

- унимодальная функция

- биполярная функция

Рисунок 15 Униполярная функция

Рисунок 16 Биполярная функция

Параметр выбирается пользователем. Его значения влияет на форму функции активации. Прифункция превращается в ступенчатую функцию, идентичную функции активации персептрона. Чаще всего используется.

Важным свойством сигмоидальной функции является её дифференцируемость:

- униполярная

- биполярная

Рисунок 17 График производной

Сигмоидальный нейрон обучается с учителем по принципу минимизации целевой функции.