- •Одесса онпу 2011
- •1. Цель курсового проектирования
- •2. Задание на курсовую работу
- •3. График выполнения работы
- •4. Рекомендации по выполнению кр
- •5. Содержание пояснительной записки Пояснительная записка к курсовой работе должна содержать
- •6. Теоретическая часть
- •6.2. Задание 1. Проектирование однослойной искусственной нейронной сети. Общие сведения.
- •6.3. Задание 2. Проектирование сети встречного распространения.
- •6.3.1.Общие сведения
- •Нормальное функционирование Слои Кохоненна
- •Слой Гроссберга
- •Обучение слоя кохонена
- •Предварительная обработка входных векторов
- •Выбор начальных значений весовых векторов
- •Обучение слоя гроссберга
- •6.4.3. Пример.
4. Рекомендации по выполнению кр
Начинать работу следует с детального и внимательного изучения задания на КРи его анализа. После анализа задания студенту необходимо изучить настоящие методические указания и необходимые разделы рекомендуемых литературных источников, приведенных в указаниях.
5. Содержание пояснительной записки Пояснительная записка к курсовой работе должна содержать
- титульный лист
- задание на проектирование;
- реферат;
- содержание;
- основная часть;
- перечень используемой литературы;
- необходимые приложения.
Основная часть состоит из разделов, связанных с одной из решаемых в работе задач. Каждый из разделов должен содержать постановку задачи, теоретическую, расчетную и графическую части. В теоретической части излагаются возможные методы решения задачи, обоснование выбранного подхода к ее решению и результаты решения, если для их получения не требуется проведения расчетов. Здесь же приводятся математические преобразования, необходимые для выполнения расчетной части. В расчетной части приводятся требуемые расчеты. Графическая частьсодержит материал, иллюстрирующий результаты, полученные в разделе. Графический материал сопровождается необходимыми пояснениями. Каждый раздел заканчивается выводами.
6. Теоретическая часть
6.1 Понятие искусственной нейронной сети. Общие сведения
Искусственная нейронная сеть представляет собой совокупность взаимосвя-занных искусственных нейронных элементов, каждый из которых может быть представлен структурной схемой (рис. 1):
Рис. 1
где Х – входной векторный сигнал ИНС;
хj–j– тая компонента входного векторного сигнала ИНС;
wij – вес связиi– того нейронного элемента сj– тым входом ИНС;
Σi – сумматорi- того нейронного элемента;
βi– результирующий сигнал на выходе сумматораi- того нейронного элемента;
θi – некоторый пороговый уровень.
В соответствии с этим рисунком модель формального нейрона может быть описана функцией вида
, (1)
где yi(t+1) – реакцияi-того нейрона на входное воздействие;
g(•) – функция преобразования;
ui – сетевая функция, определяемая в случае ее линейности выражением
, (2)
где WiT={wi1, wi2,… wim} - транспонированный вектор-столбец весовых коэффициентов
Структура нейронной сети отображается направленным графом, в котором вершины - это НЭ, а дуги представляют связи между НЭ. Дуга, направленная от НЭ с номером j к НЭ элементу с номером i, характеризуется весом wij.
Выделяют следующие основные разновидности структур ИНС: однослойные ИНС с прямыми связями (рис. 2):
Рис. 2
многослойные ИНС с прямыми связями (рис. 3):
Рис. 3
однослойные рекуррентные ИНС (ИНС с обратными связями) (рис. 4):
Рис.4
многослойные рекуррентные ИНС (рис. 5):
Рис. 5
Для решения простых задач распознавания как правило используют однослойные или многослойные сети с прямыми связями.
Связи входов сети с соответствующими НЭ могут быть заданы матрицей весов связей W
, (3)
где - векторы весов НЭ с номерами 1,2, ...n. Если между некоторым входом и НЭ нет связи, то соответствующий вес равен нулю.
В многослойной сети с прямыми связями выходы одного слоя НЭ выступают в роли входов другого слоя НЭ. Внутренние слои многослойной ИНС называют скрытыми слоями. Реакция i-го выходного НЭ многослойной ИНС вычисляется последовательным применением выражения (1). Например, если сеть является двухслойной, то
(4)
Поведение рекуррентных ИНС сложнее из-за наличия обратных связей.
Таким образом, выполнить проектирование ИНС сводится к выбору ее структуры, определению в общем случае матриц весовых коэффициентов Wдля каждого слоя ИНС, определениюθi, а также функции преобразования.
В качестве функции преобразования в ИНС применяются следующие основные функции:
- ступенчатая функция (функция Хевисайда)
(5)
- линейная функция с насыщением
(6)
- знаковая функция
(7)
- униполярная сигмовидная функция
, (8)
- биполярная сигмовидная функция, представляющая собой гиперболический тангенс
(9)
- гауссова функция
(10)
где σ, с - постоянные коэффициенты.
В ИНС наиболее часто используется два типа НЭ: - НЭ с линейной сетевой функцией вида (2) и функцией преобразова-ния вида (5) или (7). Такие НЭ называются линейными пороговыми элемен-тами (ЛПЭ). Сигналы, распространяющиеся в сетях, составленных из ЛПЭ, являются бинарными и принимают значения 0 или 1, либо +1 и -1.
- НЭ с линейной сетевой функцией (2) и функцией преобразования вида (8) или (9). Такие НЭ называются линейно-непрерывными элементами (ЛНЭ). Сигналы, распространяющие в сетях из ЛНЭ, принимают произволь-ные значения из диапазона [0,1] или [-1,1].
По своей выходной реакции на входной сигнал сети можно разделить на сети, вырабатывающие признак входного воздействия и сети, восстанав-ливающие входное воздействие или ассоциированный с входным воздейст-вием сигнал. Сети, вырабатывающие на своём выходе признак входного сигнала, как правило, имеют столько выходов, а соответственно и нейронов, сколько входных полезных сигналов может присутствовать на их входах.
Вообще говоря, для разделения множества входных образов, например, по двум классам достаточно всего одного выхода. При этом каждый логи-ческий уровень – "1" и "0" – будет обозначать отдельный класс. На двух выходах можно закодировать уже 4 класса и так далее. Однако результаты работы сети, организованной таким образом, не очень надежны. Поэтому для повышения достоверности классификации желательно ввести избыточ-ность путем выделения каждому классу одного нейрона в выходном слое.
Число выходов сетей, предназначенные для восстановления входного сигнала или ассоциированного с ним сигнала соответствует размерности выходного сигнала.
Число входов cети определяется размерностью входного вектора.