- •1.Назначение эс
- •Важность эс состоит в следующем
- •К неформальным задачам относятся такие, кот обладают одной или неск хар-ми:
- •Особенности неформальных задач
- •Формальные основы эс (хрень, но вдруг пригодится)
- •2.Архитектура эс
- •3.Этапы разработки эс
- •Требования
- •Технология разработки эс
- •4.Основные направления исскуственного интелекта
- •5. Состояние работ в области экспертных систем и направлениям искусственного интеллекта.
- •Состояние работ в области экспертных систем
- •Состояние работ по новым напр-ям искусственного интеллекта
- •6.Клас-ция эс
- •7. Клас-ция инструм-ных ср-в
- •8. Характеристики типов задач
- •9. Представление знаний в эс
- •10.Состав и организачия знаний в эс Круг задач решаемых при представлении знаний включает след положения
- •11.Модели представления знаний
- •12.Логическая модель предст-я зн-й
- •Осн. Понятия логики предикатов
- •13.Семантические сети
- •14.Фреймы
- •15.Правила продукции
- •16.Модель доски объявлений
- •17.Модель прецедентов
- •18.Методы поиска решений в эс
- •19.Стратегии поиска решений в эс
- •20.Эвристические методы поиска в эс
- •21. Понятие нейроинформатики, история развития
- •22. Биологический и формальный нейрон.
- •23.Элементы нейронных сетей их обозначение
- •24. Типы нейронных сетей их обозначение
- •25 Основные достоинства и недостатки нс по сравнению с эс
- •26. Состав и структура нейросетевого интеллектуального блока
- •28. Интерпретатор нейросетевого блока
- •29 Блок «Учитель» нейроимитатора
- •30 Блок «Оценка»
- •34. Задачник нейросетевого блока
- •40. Понятие логически прозрачных нейронных систем.
- •1) Контрастирование нс – сведение ее связей до минимума для данных 2)Вербальное описание (формирование явных знаний).
- •Метод дифференциального обучения Хэбба
- •Теорема об обучении персептрона.
- •45 Многослойный перцептрон и его обучение
- •Обучение методом обратного распространения ошибок.
- •Формула1.
- •Формула 2
- •Формула 3
- •46.Карта самоорганизации Кохонена.
- •47. Гибридные модели представления знаний
Метод дифференциального обучения Хэбба
Существует ряд алгоритмов обучения жестко привязанных к архитектуре НС (Сеть Холфилда, Кохонена, многослойные сети). Основным для многослойной сети явл. метод обратного распространения ошибки, основанный на градиентных методах оптимизации.
Градиентные методы:
метод наискорейшего спуска;
модифицированный ParTan;
квазиньютоновский и т.д.
Многими исследователями были предложены улучшения и обобщения основного алгоритма обратного распространения:
метод ускорения сходимости алгоритма обратного распространения;
метод улучшения характеристик обучения сетей обратного распространения.
Неградиентные методы:
Метод случайной стрельбы (представитель семейства методов Монте-Карло);
Метод покоординатного спуска (псевдоградиентный метод);
Метод случайного поиска (псевдоградиентный метод);
Метод Нелдера-Мида.
Имеется два класса обучающих методов: детерминистский и стохастический.
Стохастические методы полезны как для обучения искусственных нейронных сетей, так и для получения выхода от уже обученной сети. Стохастические методы обучения приносят большую пользу, позволяя исключать локальные минимумы в процессе обучения:
Больцмановское обучение
Обучение Коши
Метод искусственной теплоемкости
Самоорганизация: метод динамических ядер.
44. ПЕРСЕПТРОН Розенблатта.
Одной из первых искусственных сетей, способных к перцепции (восприятию) и формированию реакции на воспринятый стимул, явился PERCEPTRON Розенблатта (F.Rosenblatt, 1957). Персептрон рассматривался его автором не как конкретное техническое вычислительное устройство, а как модель работы мозга.
Простейший классический персептрон содержит нейроподобные элементы трех типов (см. Рис. 4.1):
1)S-элементы формируют сетчатку сенсорных клеток, принимающих двоичные сигналы от внешнего мира.
2)Далее сигналы поступают в слой ассоциативных или A-элементов (для упрощения изображения часть связей от входных S-клеток к A-клеткам не показана). Только ассоциативные элементы, представляющие собой формальные нейроны, выполняют нелинейную обработку информации и имеют изменяемые веса связей.
3)R-элементы с фиксированными весами формируют сигнал реакции персептрона на входной стимул.
Розенблатт называл такую нейронную сеть трехслойной, однако по современной терминологии представленная сеть обычно называется однослойной, так как имеет только один слой нейропроцессорных элементов. Однослойный персептрон характеризуется матрицей синаптических связей W от S- к A-элементам. Элемент матрицы Wij отвечает связи, ведущей от i-го S-элемента к j-му A-элементу..
Теорема об обучении персептрона.
Обучение сети состоит в подстройке весовых коэффициентов каждого нейрона. Пусть имеется набор пар векторов (xa,ya), a=1..p, называемый обучающей выборкой. Будем называть нейронную сеть обученной на данной обучающей выборке, если при подаче на входы сети каждого вектора xa на выходах всякий раз получается соответсвующий вектор ya..
Предложенный Ф.Розенблаттом метод обучения состоит в итерационной подстройке матрицы весов, последовательно уменьшающей ошибку в выходных векторах. Алгоритм включает несколько шагов:
Шаг 0. |
Начальные значения весов всех нейронов W(t=0) полагаются случайными. |
Шаг 1. |
Сети
предъявляется входной образ xa,
в результате формируется выходной
образ |
Шаг 2. |
Вычисляется вектор ошибки , делаемой сетью на выходе. Дальнейшая идея состоит в том, что изменение вектора весовых коэффициентов в области малых ошибок должно быть пропорционально ошибке на выходе, и равно нулю если ошибка равна нулю. |
Шаг 3. |
Вектор весов модифицируется по следующей формуле: . Здесь - темп обучения. |
Шаг 4. |
Шаги 1-3 повторяются для всех обучающих векторов. Один цикл последовательного предъявления всей выборки называется эпохой. Обучение завершается по истечении нескольких эпох, а) когда итерации сойдутся, т.е. вектор весов перестает измеяться, или б) когда полная просуммированная по всем векторам абсолютная ошибка станет меньше некоторого малого значения. |
Используемая на шаге 3 формула учитывает следующие обстоятельства: а) модифицируются только компоненты матрицы весов, отвечающие ненулевым значениям входов; б) знак приращения веса соответствует знаку ошибки, т.е. положительная ощибка (>0, значение выхода меньше требуемого) проводит к усилению связи; в) обучение каждого нейрона происходит независимо от обучения остальных нейронов, что соответсвует важному с биологической точки зрения, принципу локальности обучения.
Данный метод обучения был назван Ф.Розенблаттом “методом коррекции с обратной передачей сигнала ошибки”. Позднее более широко стало известно название “-правило”.