- •1. Определение ии. Определение слабоформализуемых задач и их примеры. Определение сложных систем.[1/1]
- •2. История развития исследований в области ии.[1/1]
- •3. Основные свойства естественного интеллекта (еи).[1/1]
- •4. Основные направления исследований в области ии. Две точки зрения на развитие сии. [1/1]
- •5. Нечеткая логика. Краткие исторические сведения. Аспекты неполноты информации [1/1]
- •6. Определения четких и нечетких множеств. Определение нечеткого множества. Функция принадлежности. Примеры нечетких дискретных и непрерывных множеств. [1/2]
- •7. Основные свойства нечетких множеств. Нечеткое число и нечеткий интервал.[1/3]
- •*7. Основные свойства нечетких множеств. Нечеткое число и нечеткий интервал.[2/3]
- •*7. Основные свойства нечетких множеств. Нечеткое число и нечеткий интервал.[3/3]
- •8. Понятия фаззификации, дефаззификации, лингвистической переменной. Пример. [1/1]
- •9. Операции с нечеткими множествами (эквивалентность, включение, нечеткая операция «и», «или», «не»). [1/2]
- •10.Обобщение операций пересечения и объединения в классе т-норм и s-конорм[1/2].
- •11. Нечеткие отношения. Композиционные правила (max-min) и (max-prod). Примеры. [1/1]
- •12. Нечеткие алгоритмы. Обобщенная схема процедуры нечеткого логического вывода. [1/2]
- •13. Нечеткие алгоритмы. Метод максимума-минимума (метод Мамдани) как метод нечеткого логического вывода (изложение необходимо сопроводить примером). [1/2]
- •14. Нечеткие алгоритмы. Метод максимума-произведения (метод Ларсена) как метод нечеткого логического вывода (изложение необходимо сопроводить примером)[1/1].
- •15.Методы дефаззификации[1/1].
- •16.Процедура (схема) нечеткого логического вывода. Пример нечеткого логического вывода для выполнения нескольких правил. Достоинства и недостатки систем, основанных на нечеткой логике[1/2].
- •17.Искусственные нейронные сети. Особенности биологического нейрона. Модель искусственного нейрона [1/2].
- •18.Определение искусственной нейронной сети (инс). Однослойный и многослойный персептроны [1/1].
- •19. Классификация инс. Задачи, решаемые с помощью нейронных сетей [1/2].
- •20.Основные этапы нейросетевого анализа. Классификация известных нейросетевых структур по типу связей и типу обучения и их применение [1/1].
- •21. Алгоритм обучения с учителем для многослойного персептрона [1/1]
- •22. Алгоритмы обучения нейронных сетей. Алгоритм обратного распространения ошибки [1/1]
- •23. Проблемы обучения нс[1/1].
- •24. Сети Кохонена. Постановка задачи кластеризации. Алгоритм кластеризации[1/1].
- •25. Преобразование алгоритма кластеризации с целью реализации в нейросетевом базисе. Структура сети Кохонена [1/1]
- •26. Алгоритм обучения без учителя для сетей Кохонена. Обобщенная процедура [1/1]
- •27. Алгоритм обучения без учителя для сетей Кохонена. Метод выпуклой комбинации. Графическая интерпретация [1/1]
- •28. Самоорганизующиеся карты (сок) Кохонена. Особенности обучения сок. Построение карт [1/1]
- •29. Проблемы обучения инс [1/1]
- •30. Генетические алгоритмы. Определение. Назначение. Сущность естественного отбора в природе [1/1]
- •31. Основные понятия генетических алгоритмов [1/1]
- •32. Блок-схема классического генетического алгоритма. Особенности инициализации. Пример. [1/1]
- •33. Блок-схема классического генетического алгоритма. Селекция хромосом. Метод рулетки. Пример.[1/2]
- •33. Блок-схема классического генетического алгоритма. Селекция хромосом. Метод рулетки. Пример.[2/2]
- •34. Блок-схема классического генетического алгоритма. Применение генетических операторов. Пример.[1/1]
- •35. Блок-схема классического генетического алгоритма. Проверка условия остановки га.[1/1]
- •36. Достоинства генетических алгоритмов.[1/1]
- •37. Гибридные сии и их виды.[1/2]
- •38. Структура мягкой экспертной системы.[1/1]
- •39.Методология разработки интеллектуальных систем. Виды прототипов экспертных систем.[1/1]
- •40.Обобщенная структура основных этапов разработки экспертных систем.[1/2]
- •1. Идентификация.
- •2. Концептуализация.
- •3. Формализация
- •4. Программирование.
- •5. Тестирование на полноту и целостность
23. Проблемы обучения нс[1/1].
Ядроw отвечает за очень большую
группу объектов и для отдаленных он
не является центроидом. Ядра v остались
не обученными. Если число нейронов
равно числу объектов, то обучение не
производится.
Для устранения этих проблем
существует несколько способов
корректировок весов сети:
1) традиционный способ. Корректируются веса нейрона-победителя по следующему правилу: смысл корректировки весов заключается в попытке приблизить координаты нейрона победителя к входному образу. Обучение продолжается до тех пор, пока координаты весов не перестанут меняться. Минусы: существуют такие ядра кластеров, которые никогда не обучаются и не выигрывают, не отвечают ни за один объект, не образуют кластера. Большая группа объектов может «захватить» всего лишь одно ядро кластера, или малое количество ядер, что не соответствует объему сгущения, т.е. распределение ядер кластеров не пропорционально плотности распределения исходных объектов.
2) метод выпуклой комбинации. В процессе обучения модифицируемые вектора расходятся от значения к своим истинным значениям. При этом особенность обучения: в процессе движения к своим истинным значениям обучающие вектора захватывают ядра кластеров пропорционально своему распределению, а далее каждое ядро кластеров отслеживает движение по мере роста. Минусы: большое время обучения.
3) Чувство справедливости. Согласно этому алгоритму значение выхода нейрона, который часто выиграет, искусственно занижается.
4) Веса не только выигравшего нейрона модифицируются, но и веса других нейронов, пропорционально их нормированному выходу.
24. Сети Кохонена. Постановка задачи кластеризации. Алгоритм кластеризации[1/1].
Сети Кохонена предназначены для решения задач кластеризации. Постановка задачи кластеризации. Дано: Х[n x m], n- количество объектов, m- количество признаков; или Дано: множество векторов , где
2) Заранее известно количество К будущих кластеров, само разбиение на кластеры не известно. Необходимо только при реализации задачи в нейросетевом базисе. Необходимо: Найти к-ядер (центроидов) кластеров, т.е. вектор С. ,; Разбить множество векторов Х на К кластеров:на. Иными словами задача заключается в том, чтобы найти некоторую функцию, которая позволяет определить номер кластерапо номеру входного объектаP, что и является решением задачи кластеризации. При этом эта функция должна удовлетворять следующему критерию: минимизации расстояний между объектами и ядрами кластеров.
Алгоритм кластеризации. 1) задаются начальные значения ядер кластеров . Способы задания: а) случайными числами, б) некоторыми равными числами, в) эвристическими правилами (метод главных компонент), основанными на некоторой закономерности. 2) Фиксируются ядра кластеров. Ищется- разбиениес целью(аналог будущего прямого прохода сети). 3). Корректируется, т.о. что в пределах каждого кластера суммарное расстояние между объектом этого кластера и ядром было минимальным., результат
Этот этап является аналогом будущего процесса обучения сети.