- •Введение
- •1. Искусственный интеллект в роботах
- •1.1. Обеспечение взаимодействия системы управления с человеком
- •1.2. Схема интеллектуального управления в робототехнических комплексах
- •1.3. Интеллектуальное программирование и интеллектуальный интерфейс
- •1.4. Организация интеллектуальных систем
- •2. Экспертные системы
- •2.1. Структура экспертных систем
- •2.2. Технология разработки экспертных систем
- •2.3. Механизм вывода в экспертных системах
- •2.4. Методы поиска решений в экспертных системах
- •2.5. Поиск в одном пространстве состояний
- •2.6. Поиск решения методом редукции
- •2.7. Поиск решения во множестве факторизованных пространств
- •2.8. Поиск в фиксированном множестве пространств
- •2.9. Поиск в изменяющемся множестве пространств (метод нисходящего уточнения)
- •2.10. Поиск в альтернативных пространствах
- •2.11. Поиск с использованием нескольких моделей
- •3. Представление знаний в системах
- •3.1. Продукционные системы
- •3.2. Системы поиска на основе классической логики
- •3.3. Использование логики предикатов первого порядка при представлении знаний
- •3.4. Использование фреймов при представлении данных
- •3.5. Семантические сети
- •4. Нейронные сети в системах искусственного интеллекта
- •4.1. Области применения нейронных сетей
- •4.2. Персептронные нейронные сети
- •4.3. Обучение персептронных сетей
- •4.4. Сети встречного распространения
- •4.5. Обучение нейронных сетей методом обратного распространения ошибки
- •4.6. Обучение без учителя
- •4.7. Сети без обучения
- •4.8. Нейронные сети с радиальными базисными функциями (вероятностные сети)
- •4.9. Коллективы нейронных сетей
- •4.10. Аппаратно-программные средства реализации нейронных сетей для задач робототехники
- •2. Использование сетей для распознавания речи
- •3. Использование сетей для формирования законов управления
- •5. Методы нечеткой логики в интеллектуальных системах
- •5.1. Логические операции над нечеткими множествами
- •5.2. Получение выводов в нечеткой логике
- •5.3. Алгоритмы поиска решения в нечеткой логике
- •Заключение
- •Библиографический список
- •394026 Воронеж, Московский просп., 14
4.3. Обучение персептронных сетей
Для обучения персептронных сетей используется используется метод наблюдаемого обучения (метод обучения с учителем).
40
При обучении создается набор эталонных образцов (наборы входной информации). Для каждого входного набора
выбирается выходное состояние нейронов решающего слоя. При обучении выполняется коррекция весов связей в сети до тех пор, пока выходное состояние сети не будет совпадать с выбранным с некоторой погрешностью. Обучение выполняется по следующему алгоритму:
Выбирается образец X={xi}, характеризующийся набором значений входов xi;
Весам связей присваиваются некоторые случайные значения (инициализация сети);
Вычисляется выходное состояние сети Y={yj};
Определяется разность между выходным состоянием сети и образцом =Y-D, где D – образ состояния, соответствующий образцу;
Выполняется коррекция весов отдельных входов по выражению: ∆Wij=∙j∙xi, где - коэффициент скорости обучения;
Вычисляются новые значения весов;
Определяется новое состояние Y;
Определяется погрешность состояния . Если она не превышает некоторой установленной границы, то обучение заканчивается, если же превышает, то повторяется цикл коррекции весов.
4.4. Сети встречного распространения
Эти сети состоят из двух слоев: первый слой называется слоем Кохонена (К), а второй – слоем Гроссберга (Г) (рис.18).
Первый слой осуществляет суммирование входных сигналов сети и выделяет совокупность признаков определенного типа на выходе одного нейрона (принцип “Победитель получает все”). Для другого набора признаков слой устанавливает единичное состояние другого нейрона и т. д.
Второй слой устанавливает на своих выходах значения, которые соответствуют взвешенному состоянию единичного нейрона первого слоя, т. е. значение выхода отдельного нейро-
41
на второго слоя равен весу связи этого нейрона с нейроном
первого слоя, находящегося в единичном состоянии.
y=W11
W11
W12 y= W12
W13
y= W13
W14
y =W14
К Г
Рис. 18. Фрагмент сети встречного распространения
Обучение для данной сети выполняется послойно, для каждого слоя по своему алгоритму. Первый слой обучается без учителя (ненаблюдаемое обучение). При таком способе обучения выполняется инициализация слоя, т. е. задается случайный набор значений весов входов. Далее выполняется корректировка весов по следующей формуле: WH=WC+(x-WC),
где WC – значение веса на некоторой итерации;
WH – значение веса на следующей итерации.
Слой обучается до тех пор, пока его выходы не застабилизируются.
Второй слой обучается с учителем, т. е. для каждого нейрона первого слоя, находящегося в единичном состоянии, выбирается набор значений выходов. Коррекция весов связей между первым и вторым слоем осуществляется на величину, пропорциональную разности действующего значения и образцового.
Для реализации обучения входные значения нормируются. Нормирование выполняется по отношению к сумме квадратов значений всех входов: Xin=
Сеть Кохонена - Гросберга выделяет образец при установке входных сигналов на входах слоя Кохонена. Если сигна-
42
лы установить на выходах сети, сеть установит на входах соответствующий набор, отображающий предъявленный образец. Поэтому такие сети называются сетями встречного распространения.