Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
80
Добавлен:
01.05.2014
Размер:
711.68 Кб
Скачать

Санкт-Петербургский

государственный электротехнический университет

ЛЭТИ”

______________________________________________________________________

кафедра МОЭВМ

Отчет

по лабораторной работе №2

Проектирование и исследование простейших ИНС с помощью пакета STATISTICA Neural Networks (SNN)

Выполнил: студент гр. 3341 Рыжок М.С.

Проверил: доцент Лисс А.А.

Санкт-Петербург

2007

Лабораторная работа №2.

Проектирование и исследование простейших ИНС с помощью пакета STATISTICA Neural Networks (SNN)

1. Цель работы:

Научиться проектировать архитектуры и подбирать весовые коэффициенты связей для сетей прямого распространения со ступенчатой функцией активации всех нейронов сети, способных классифицировать образы, не разделимые линейно.

2. Постановка задачи

1. Разработать структуру и сформировать набор весовых коэффициентов сети, решающей задачу классификации точек на плоскости, заданных своими вещественными координатами. Точки, принадлежащие заштрихованной области, сеть должна относить к классу S1, а остальные – к классу S2.

Сформировать представительный набор данных для тестирования сети и протестировать ее.

2. Спроектировать и обучить с помощью SNN персептрон, решающий задачу классификации изображений цифр от 0 до 9. Входными данными сети являются двоичные векторы, состоящие из 32 (8х4) элементов, в которых 1 соответствует элементу изображения, а 0 – его отсутствию.

Например, изображение цифры 0:

Входной вектор, описывающий цифру «0»:

[0 1 1 0 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 0 1 1 0]

Выход сети – двоичный вектор из 10 элементов, один из элементов которого равен 1, а остальные – 0.

Если на вход сети подано изображение «1», выходной вектор [1 0 0 0 0 0 0 0 0 0];

если «2», то – [0 1 0 0 0 0 0 0 0 0]; и т.д.

Исследовать способность сети к обобщению (к классификации образов, не принадлежащих обучающей выборке).

3. Задание 1:

Создайте набор данных для тестирования сети и сеть, способную к решению данной задачи.

Для этого напишем уравнения прямых, ограничивающих заштрихованную область и проверим набор точек на принадлежность области.

Для проверки пишем такое условие:

Весовые коэффициенты

Здесь Threshold – пороговые значения для каждого нейрона значимых слоев сети, на пересечении i-й строки и j-го столбца таблицы – значение весового коэффициента связи от i-го нейрона сети к j-му нейрону сети.

Обозначение hi#j означает j-й нейрон i-го скрытого слоя (hidden).

Задайте весовые коэффициенты и пороги и протестируйте сеть на наборе входных данных. Среднеквадратическая ошибка обучения сети (Error) должна получиться равной 0. Характеристика качества функционирования сети (Performance) для данной сети должна быть также равна 0. Эта характеристика для сетей с числовыми выходами рассчитывается как отношение стандартного отклонения ошибки по всем примерам обучающей выборки к стандартному отклонению данных.

Стандартное отклонение

Результат обучения сети

Вывод:

Разработана структура и сформирован набор весовых коэффициентов сети, решающей задачу классификации точек на плоскости, заданных своими вещественными координатами. Сформирован представительный набор данных для тестирования сети.

Точки, принадлежащие заштрихованной области, сеть отнесла к классу S1, а остальные – к классу S2.

4. Задание 2:

Обучающая выборка

Матрица весовых коэффициентов и схема нейросети

Результат ошибки обучения на правильных примерах

Результат обучения выборки на неправильных примерах

Попробуем исказить некоторые изображения и посмотрим, как персептрон обрабатывает их. Исследуем качество функционирования персептрона в зависимости от степени искажения изображения.

Попробуем убрать одну единицу из представления цифры one, то персептрон обработает данные точно с таким же результатом, даже не заметив искажения:

При дорисовывании нижней палочки у единицы (0 0010011010100010001000100011111), получается следующий результат:

Т.е персептрон не распознаёт данную комбинацию чисел, как единицу.

Вывод: при незначительном искажении персептрон обработает данные точно с таким же результатом, как и при начальных данных. При значительном икажении персептрон не распознает данные.

5. Вывод:

Основным преимуществом персептронов является их простота. Также привлекательна возможность графической интерпретации их функционирования.

Недостатки персептронов очевидны – эти сети предназначены для решения узкого круга задач классификации линейно разделимых образов. На практике их можно использовать в простых случаях для однослойных моделей.

Научились проектировать архитектуры и подбирать весовые коэффициенты связей для сетей прямого распространения со ступенчатой функцией активации всех нейронов сети, способных классифицировать образы, не разделимые линейно.