Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
лекции ИИС.doc
Скачиваний:
26
Добавлен:
24.04.2019
Размер:
3.77 Mб
Скачать

42. Схема работы интеллектуального компонента прогнозирования временных рядов показателей.

Из обучающий выборке берется текущий пример, его входные параметры (представляющие совокупности вектор входных сигналов) подаются на входные синапсы обучаемой НС. Обычно каждый входной параметр примера подается на один конкр. синапс.

НС производит заданное количество тактов функционирования. При этом вектор входящих сигналов распространяется по связям между нейронами. (прямое функционирование НС) Процедура однократного прохождения сигналов по НС называется тактом функционирования

Изменяются сигналы, выданные теми нейронами, которые считаются выходными

Производится интерпретация выходных сигналов и вычисляется оценка, характерная различия м/у выданным сетью ответом и требуемым, имеющимся в примере. Оценка осуществляется с помощью соответствующей функции оценки – методом наим. квадратов.

5) Проверяется значение оценки, если она меньше заданной точности, то обучение завершено. Иначе, на основании оценки вычисляются поправочные коэффициенты для каждого синаптич. веса матрицы связей. После чего производится корректировка синаптических весов. (обратное функционирование НС).

Осуществляется период к следующему примеру задачника и вышеперечисленные операции повторяются.

Проход по всем примерам обучающей выборки с первого по последний считается одним циклом обучения.

При прохождении цикла каждый пример имеет свою оценку. Кроме того, вычисляется суммарная оценка множества всех примеров обучающей выборки. Если после прохождения нескольких циклов ошибка < заданной точности, то обучение считается законченным, в противном случае циклы повторяются. Кол-во циклов обучения, а также время, требующееся на обучение зависит от многих факторов – величины обучающей выборки, кол-ва вход. параметров, вида задачи, типа и параметров НС, от случ. значений весов синаптич. карты.

Причины неправильного обучения НС

1) выборка, по которой обучалась НС не дост-но полно отражает ПО (мало примеров)

2) выборка, по которой обучалась НС составлена тенденциозно, т.е. для обучения подбирались примеры, которые по мнению исслед-ей являлиь самыми яркими представ-ми класса.

3) обуч-я выборка имеет недостаточное кол-во параметров и сеть не м. найти законом-ти м/у вх-ми сигналами и ответами.

4) при создании сети не рац-но были выбраны некоторые сетевые параметры – число нейронов, число тактов функционир-я и проч.

5) задана неверная классификационная модель при обучении классификатора.

43 Методы обучения нейронных сетей

Рассмотрим формулы градиентной оптимизации (м-д обратных ошибок)

Вычисляетсяпроизводные

ai δh/δai=x/s∑δh/δai

δh/δai=δh/δF(a,x)*δδF(a,x)/δai

δh/δF(a,x)=F(a,x)-?

δF(a,x)/δ = ( , )

δh/δ =(F(a,x)-y)* ( ) – выч-е производной по параметрам вых.

δh/δ =(F(a,x)-y)* δ /δ

ai(t+1)=ai(t)-hδh/δai

На основании формул вычисляетсяпроизводные по всем параметрам НС.

На шаге итерации, n произ. (t+1) n – шаг оптимизации.

Конструктор НС

Конструкоторые НС – формир. ее стр-ры, начиная с мин-ой до достаточной сложн-ти, обеспечивающей требуем. параметры обучения.