- •1 Направления искусственного интеллекта и понятие иис – 2 ч. [1; 2; 9]
- •1.1 Основные направления искусственного интеллекта и их характеристика. (Гаврилова)
- •1.1.1 Основные направления искусственного интеллекта и их характеристика. (Андрейчикова)
- •1.2 Состояние работ в области экспертных систем и направлениям искусственного интеллекта. (Попов)
- •1.3 Понятие интеллектуальной информационной системы (иис). (Андрейчикова)
- •1.5 Классификация иис. (Андрейчикова)
- •2 Понятие экспертных систем. – 2 ч. [1; 2; 3; 9]
- •2.1 2.2 2.3 Экспертные системы (эс). Назначение экспертных систем. Формальные основы экспертных систем. (Попов)
- •Назначение экспертных систем
- •Формальные основы экспертных систем
- •3 Архитектура экспертных систем и этапы разработки - 2 ч. [2; 8; 9]
- •3.3 Этапы разработки экспертных систем. (Попов)
- •5 Методы и модели представления знаний. (Попов)
- •5.1 Формальная логическая модель представления знаний. (Попов)
- •5.2. Семантическая модель представления знаний. (Попов)
- •5.3 Фреймовая модель представления знаний. (Попов)
- •5.4 Продукционная модель представления знаний. (Попов)
- •5.6 Модель представления знаний: “прецеденты”.
- •5.5 Модель доски объявлений для представления знаний.
- •5.7 Гибридные модели представления знаний
- •6 Методы поиска решений в эс
- •7 Понятие и определение нечетких знаний – 2 ч. [3; 14]
- •7.1 Нечеткие знания
- •7.2 Понятие лингвистической переменной, определение ее значения
- •7.3 Понятие нечеткого множества
- •7.4 Определение нечеткого множества (через базовую шкалу и функцию принадлежности)
- •7.5 Понятие функции принадлежности
- •7.6 Операции с нечеткими знаниями
- •8 Стратегии получения знаний - 2 ч. [3]
- •8.1 Извлечение знаний из данных, приобретение знаний, формирование знаний. Теоретические аспекты извлечения знаний.
- •Теоретические аспекты извлечения знаний
- •Психологический аспект извлечения знаний
- •Лингвистический аспект извлечения знаний
- •Гносеологический аспект извлечения знаний
- •Теоретические аспекты структурирования знаний
- •Историческая справка
- •Иерархический подход
- •Традиционные методологии структурирования
- •Объектно-структурный подход (осп)
- •9 Проектирование экспертных систем - 2ч. [1; 3]
- •9.1 Этапы проектирования экспертной системы: идентификация, концептуализация, формализация, реализация, тестирование, опытная эксплуатация.
- •9.4 Технология проектирования и разработки промышленных эс.
- •9.5 Характеристика этапов разработки эс.
- •9.6 Технология быстрого прототипирования эс.
- •9.7 Характеристика стадий разработки прототипа эс.
- •10 Понятие нейроинформатики, история развития
- •Задача обучения нейронной сети на примерах.
- •12.1 Интерфейс вывода нейросетевого блока
- •12.2 Интерпретатор нейросетевого блока
- •12.3 Блок «Учитель» нейроимитатора
- •12.4 Блок «Оценка»
- •4.3.8. Конструктор нейронной сети
- •12.7 Блок «Констрастер»
- •4.3.9. Контрастер нейронной сети
- •42. Схема работы интеллектуального компонента прогнозирования временных рядов показателей.
- •44. Персептрон Розенблатта.
- •46.Карта самоорганизации Кохонена.
- •45 Многослойный перцептрон и его обучение
42. Схема работы интеллектуального компонента прогнозирования временных рядов показателей.
Из обучающий выборке берется текущий пример, его входные параметры (представляющие совокупности вектор входных сигналов) подаются на входные синапсы обучаемой НС. Обычно каждый входной параметр примера подается на один конкр. синапс.
НС производит заданное количество тактов функционирования. При этом вектор входящих сигналов распространяется по связям между нейронами. (прямое функционирование НС) Процедура однократного прохождения сигналов по НС называется тактом функционирования
Изменяются сигналы, выданные теми нейронами, которые считаются выходными
Производится интерпретация выходных сигналов и вычисляется оценка, характерная различия м/у выданным сетью ответом и требуемым, имеющимся в примере. Оценка осуществляется с помощью соответствующей функции оценки – методом наим. квадратов.
5) Проверяется значение оценки, если она меньше заданной точности, то обучение завершено. Иначе, на основании оценки вычисляются поправочные коэффициенты для каждого синаптич. веса матрицы связей. После чего производится корректировка синаптических весов. (обратное функционирование НС).
Осуществляется период к следующему примеру задачника и вышеперечисленные операции повторяются.
Проход по всем примерам обучающей выборки с первого по последний считается одним циклом обучения.
При прохождении цикла каждый пример имеет свою оценку. Кроме того, вычисляется суммарная оценка множества всех примеров обучающей выборки. Если после прохождения нескольких циклов ошибка < заданной точности, то обучение считается законченным, в противном случае циклы повторяются. Кол-во циклов обучения, а также время, требующееся на обучение зависит от многих факторов – величины обучающей выборки, кол-ва вход. параметров, вида задачи, типа и параметров НС, от случ. значений весов синаптич. карты.
Причины неправильного обучения НС
1) выборка, по которой обучалась НС не дост-но полно отражает ПО (мало примеров)
2) выборка, по которой обучалась НС составлена тенденциозно, т.е. для обучения подбирались примеры, которые по мнению исслед-ей являлиь самыми яркими представ-ми класса.
3) обуч-я выборка имеет недостаточное кол-во параметров и сеть не м. найти законом-ти м/у вх-ми сигналами и ответами.
4) при создании сети не рац-но были выбраны некоторые сетевые параметры – число нейронов, число тактов функционир-я и проч.
5) задана неверная классификационная модель при обучении классификатора.
№43 Методы обучения нейронных сетей
Рассмотрим формулы градиентной оптимизации (м-д обратных ошибок)
Вычисляетсяпроизводные
ai δh/δai=x/s∑δh/δai
δh/δai=δh/δF(a,x)*δδF(a,x)/δai
δh/δF(a,x)=F(a,x)-?
δF(a,x)/δ = ( , )
δh/δ =(F(a,x)-y)* ( ) – выч-е производной по параметрам вых.
δh/δ =(F(a,x)-y)* δ /δ
ai(t+1)=ai(t)-hδh/δai
На основании формул вычисляетсяпроизводные по всем параметрам НС.
На шаге итерации, n произ. (t+1) n – шаг оптимизации.
Конструктор НС
Конструкоторые НС – формир. ее стр-ры, начиная с мин-ой до достаточной сложн-ти, обеспечивающей требуем. параметры обучения.