- •Устройство биологического нейрона и его математическая модель.
- •Детерминированная и стохастическая модели искусственного нейрона
- •Нейрон с сигмоидальной функцией активации
- •Стохастическая модель нейрона
- •Представление знаний.
- •Классы задач, решаемые нс. Примеры.
- •Классификация нс по архитектуре.
- •Однослойные сети прямого распространения
- •Многослойные сети прямого распространения
- •7.3.3.Рекуррентные сети
- •Классификация нс по парадигме обучения.
- •Обучение с учителем
- •Обучение без учителя
- •7.Понятие обучающей выборки (вектора)
- •8.Применимость различных активационных функций нейрона
- •1.1.1.1Активационные функции
- •9.Однослойные сети прямого распространения
- •10.Многослойные сети прямого распространения
- •11.Рекуррентные сети
- •12.Парадигмы обучения нс. Обучение с учителем. Применимость, примеры.
- •Обучение с учителем
- •13.Парадигмы обучения нс. Обучение без учителя. Применимость, примеры.
- •14.Парадигмы обучения нс. Смешанное обучение. Применимость, примеры.
- •15.Парадигмы обучения нс. Обучение Хебба. Математическая модель
- •16. Парадигмы обучения нс. Гипотеза ковариации. Математическая модель
- •17.Парадигмы обучения нс. Конкурентное обучение. Математическая модель
- •18.Парадигмы обучения нс. Обучение методом обратного распространения ошибки. Математическая модель
- •19. Парадигмы обучения нс. Обучение Больцмана. Математическая модель
- •20. Персептрон Розенблатта. Алгоритм обучения однослойного персептрона
- •21. Персептрон Розенблатта. Теорема о сходимости и «зацикливании» персептрона.
- •22. Персептрон Розенблатта. Дельта -правило
- •23. Многослойный персептрон. Теорема о двуслойности персептрона
- •24. Самоорганизующиеся карты Кохонена. Алгоритм обучения нс
- •Самоорганизующиеся карты Кохонена. Квантование обучающего вектора.
- •1.2Квантование обучающего вектора (Learning VectorQuantization)
- •Самоорганизующиеся карты Кохонена. Кластеризация
- •Сеть Хопфилда. Архитектура, обучение
- •1.2.1Алгоритм функционирования сети
- •1.2.2Архитектура сети
- •1.2.3Обучение сети
- •28. Сеть Хемминга. Архитектура, обучение
- •1.2.4Алгоритм функционирования сети Хемминга
- •Rbf сети. Архитектура. Применимость.
- •Rbf сети. Алгоритм обучения. Расчет опорных точек, параметра рассеяния и выходной весовой матрицы
- •Rbf сети. Аппроксимация
- •Ассоциативная сеть. Сжатие информации
- •Структура дап
Нейрон с сигмоидальной функцией активации
Рассмотрим нейрон с двумя входами (синапсами) и сигмоидальной функцией активации
. (7.8)
Выходной сигнал такого нейрона описывается выражением:
(7.9)
На рис 7.6 показана зависимости выходного сигнала от входного сигнала для нейрона с сигмоидальной функцией активации у.
Как отмечалось ранее, при , сигмоидальная функция стремится к пороговой и формируется решающая граница, которая в данном случае будет прямой, описываемой уравнением .
Стохастическая модель нейрона
Рассмотренная ранее модель нейрона является детерминированной. Это значит, что преобразование входного сигнала в выходной задается некоторой однозначной функцией, определенной на всем множестве входных сигналов. Однако, в некоторых приложениях применяется стохастическая модель нейрона, в которой функция активации носит вероятностный характер.
В таких моделях выходной сигнал нейрона может быть +1 и -1 и определяется с учетом вероятности каждого из исходов. Таким образом, функция активации для стохастического нейрона будет иметь вид:
, (7.10)
где - это вероятность активации нейрона, а это индуцированное локальное поле нейрона (сигнал, который формируется на выходе сумматора).
Вероятность активации нейрона может быть описана сигмоидальной функцией следующего вида:
, (7.11)
где - это аналог температуры, используемый для управления степенью неопределенности переключения. Следует отметить, что величина не описывает физическую температуру нейронной сети.
Очевидно, что при стохастический нейрон принимает детерминированную форму нейрона со ступенчатой функцией активации вида:
(7.12)
Представление знаний.
Под знаниями понимается хранимая информация и модели, используемые интерпретации, предсказания и реакции на внешние события.
Различают два вида знаний:
- Априорная информация, состоящая из достоверных фактов об окружающей среде
- Наблюдения за окружающим миром
Представление знаний в нейронных сетях подчиняется нескольким правилам:
Правило 1. Сходные входные сигналы, должны классифицироваться как относящиеся к одному классу. В качестве меры схожести двух входных сигналов и , представляющих некоторые точки в пространстве можно использовать эвклидово расстояние между ними. Эвклидово расстояние между парой векторов определяется как:
. (7.14)
Правило 2. это правило полностью противоположно первому, оно гласит, что элементы, отнесенные к различным классам, должны иметь максимально различные представления.
Правило 3. Если некоторое свойство имеет большое значение, то для его представления следует использовать большее количество нейронов. Однако это правило следует применять с осторожностью, так как чрезмерное увеличение количества нейронов может привести к тому, что сеть запомнит некоторый набор примеров из множества доступных измерений, но не сможет выделить закономерности в данных.
Правило 4. В структуру сети должна быть встроена априорная информация об окружающей среде. Это обеспечивает специализацию сети и существенно ускоряет процесс обучения.
Процессы обучения
Самым важным свойством нейронных сетей является их способность обучаться на основании данных об окружающей среде и в результате повышать свою производительность.
Обучение – это итеративный процесс подстройки свободных параметров сети (синаптических весов и порогов) посредством моделирования окружающей среды. Тип обучения определяется способом подстройки этих параметров.
Процесс обучения предполагает следующую последовательность действий:
На вход нейронной сети поступает стимул из внешней среды
В результате этого в соответствии с некоторым правилом изменяются свободные параметры сети*-
После изменения параметров сеть отвечает на входящие сигналы уже иным образом
Процесс повторяется до тех пор, пока сеть не сможет решить поставленную задачу
Эта последовательность действий называется алгоритмом обучения. Очевидно, что не существует универсального алгоритма обучения, подходящего для любой задачи и архитектуры сети. Существует лишь набор методов, каждый из которых имеет свои преимущества.