Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы по СИИ за 2008.doc
Скачиваний:
162
Добавлен:
02.05.2014
Размер:
3.93 Mб
Скачать

23. Проблемы обучения нс[1/1].

Ядроw отвечает за очень большую

группу объектов и для отдаленных он

не является центроидом. Ядра v остались

не обученными. Если число нейронов

равно числу объектов, то обучение не

производится.

Для устранения этих проблем

существует несколько способов

корректировок весов сети:

1) традиционный способ. Корректируются веса нейрона-победителя по следующему правилу: смысл корректировки весов заключается в попытке приблизить координаты нейрона победителя к входному образу. Обучение продолжается до тех пор, пока координаты весов не перестанут меняться. Минусы: существуют такие ядра кластеров, которые никогда не обучаются и не выигрывают, не отвечают ни за один объект, не образуют кластера. Большая группа объектов может «захватить» всего лишь одно ядро кластера, или малое количество ядер, что не соответствует объему сгущения, т.е. распределение ядер кластеров не пропорционально плотности распределения исходных объектов.

2) метод выпуклой комбинации. В процессе обучения модифицируемые вектора расходятся от значения к своим истинным значениям. При этом особенность обучения: в процессе движения к своим истинным значениям обучающие вектора захватывают ядра кластеров пропорционально своему распределению, а далее каждое ядро кластеров отслеживает движение по мере роста. Минусы: большое время обучения.

3) Чувство справедливости. Согласно этому алгоритму значение выхода нейрона, который часто выиграет, искусственно занижается.

4) Веса не только выигравшего нейрона модифицируются, но и веса других нейронов, пропорционально их нормированному выходу.

24. Сети Кохонена. Постановка задачи кластеризации. Алгоритм кластеризации[1/1].

Сети Кохонена предназначены для решения задач кластеризации. Постановка задачи кластеризации. Дано: Х[n x m], n- количество объектов, m- количество признаков; или Дано: множество векторов , где

2) Заранее известно количество К будущих кластеров, само разбиение на кластеры не известно. Необходимо только при реализации задачи в нейросетевом базисе. Необходимо: Найти к-ядер (центроидов) кластеров, т.е. вектор С. ,; Разбить множество векторов Х на К кластеров:на. Иными словами задача заключается в том, чтобы найти некоторую функцию, которая позволяет определить номер кластерапо номеру входного объектаP, что и является решением задачи кластеризации. При этом эта функция должна удовлетворять следующему критерию: минимизации расстояний между объектами и ядрами кластеров.

Алгоритм кластеризации. 1) задаются начальные значения ядер кластеров . Способы задания: а) случайными числами, б) некоторыми равными числами, в) эвристическими правилами (метод главных компонент), основанными на некоторой закономерности. 2) Фиксируются ядра кластеров. Ищется- разбиениес целью(аналог будущего прямого прохода сети). 3). Корректируется, т.о. что в пределах каждого кластера суммарное расстояние между объектом этого кластера и ядром было минимальным., результат

Этот этап является аналогом будущего процесса обучения сети.