- •1. Понятия «система».
- •2. Понятия, «информация», «неопределенность»
- •3. Особенности и признаки интеллектуальных информационных систем
- •4. Функции информационных систем. Двойственная природа знаний, используемых в информационных системах
- •5. Способы объединения операционного и фактуального знания в традиционных информационных системах.
- •6. Способы объединения операционного и фактуального знания в интеллектуальных информационных системах. Сравнение с традиционными системами
- •7. Интеллектуальные информационные системы с базами данных
- •8. Интеллектуальные информационные системы, основанные на моделях
- •9.Понятия «предметная область» и «проблемная область»
- •Представление знаний.
- •Поведение.
- •10.Признаки интеллектуальности информационных систем
- •Понятие «искусственный интеллект (ии)». Задачи ии. История развития и основные этапы исследований по ии.
- •Основные направления исследований в области искусственного интеллекта (задачи)
- •13.Системы с интеллектуальным интерфейсом
- •14. Системы с естественно-языковым интерфейсом
- •15.Интеллектуальные базы данных. Гипертекстовые системы. Системы контекстной помощи
- •16. Системы когнитивной графики (общая характеристика)
- •19. Способы обучения в интеллектуальных системах
- •20. Индуктивные системы (основные понятия). Системы, основанные на прецедентах (общая характеристика)
- •21.Нейронные сети (основные понятия)
- •22.Хранилища данных
- •Дизайн хранилищ данных
- •Процессы работы с данными
- •23.Адаптивные информационные системы
- •24.Формализация и неформальные знания.Понятие “’экспертная система”.
- •25. Основные особенности экспертных систем. Основные модели представления знаний в классических экспертных системах
- •26. Структура экспертной системы
- •29. Общая характеристика математического аппарата теории нечетких множеств.
- •30. Основные идеи теории нечетких множеств. Сравнение обычных и нечетких множеств.
- •31. Операции над нечеткими множествами (кроме алгебраических)
- •33. Нечеткая и лингвистическая переменные.
- •34. Нечеткие отношения
- •35. Операции над нечеткими отношениями
- •36. Операции композиции нечетких отношений и нечеткой импликации, их значение для нечеткого логического вывода.
- •37. Нечеткий логический вывод.
- •38. Особенности нечеткого логического вывода по Мамдани и Ларсену.
- •Алгоритм Мамдани
- •40. Основные проблемы, решаемые при помощи искусственных нейронных сетей.
- •42. Понятие и основные идеи коннекционизма
- •43. Схема формального нейрона. Роль его составных частей
- •44. Функции активации формального нейрона, их смысл и основные виды.
- •1. Жесткая ступенька :
- •3. Гиперболический тангенс
- •4. Пологая ступенька
- •5. Экспонента:
- •7. Участки синусоиды:
- •8. Гауссова кривая:
- •Сравнение ветвей компьютерной эволюции
- •Архитектура нейронных сетей. Понятие, основные виды. Примеры
- •(Звезды Гроссберга, модели Липпмана-Хемминга)
- •Обучение нейронных сетей, сущность и основные алгоритмы обучения
- •Обучение нейронных сетей как задача оптимизации.
44. Функции активации формального нейрона, их смысл и основные виды.
1. Жесткая ступенька :
Используется в классическом формальном нейроне. Развита полная теория, позволяющая синтезировать произвольные логические схемы на основе ФН с такой нелинейностью. Функция вычисляется двумя*тремя машинными инструкциями, поэтому нейроны с такой нелинейностью требуют малых вычислительных затрат.Эта функция чрезмерно упрощена и не позволяет моделировать схемы с непрерывными сигналами. Отсутствие первой производной затрудняет применение градиентных методов для обучения таких нейронов. Сети на классических ФН чаще всего формируются, синтезируются, т.е. их параметры рассчитываются по формулам, в противоположность обучению, когда параметры подстраиваются итеративно.
2. Логистическая функция (сигмоида, функция Ферми):
Применяется очень часто для многослойных перцептронов и других сетей с непрерывными сигналами. Гладкость, непрерывность функции — важные положительные качества. Непрерывность первой производной позволяет обучать сеть градиентными методами (например, метод обратногораспространения ошибки).Функция симметрична относительно точки (NET=0, OUT=1/2), это делает равноправными значения OUT=0 и OUT=1, что существенно в работе сети. Тем не менее, диапазон выходных значений от 0 до 1 несимметричен, из*за этого обучение значительно замедляется.Данная функция — сжимающая, т.е. для малых значений NET коэффициент передачи K=OUT/NET велик, для больших значений он снижается. Поэтому диапазон сигналов, с которыми нейрон работает без насыщения, оказывается широким. Значение производной легко выражается через саму функцию. Быстрый расчет производной ускоряет обучение.
3. Гиперболический тангенс
Тоже применяется часто для сетей с непрерывными сигналами. Функция симметрична относительно точки (0,0), это преимущество по сравнению с сигмоидой. Производная также непрерывна и выражается через саму функцию.
4. Пологая ступенька
Рассчитывается легко, но имеет разрывную первую производную в точках NET =θ , NET =θ + Δ ,что усложняет алгоритм обучения.
5. Экспонента:
Применяется в специальных случаях.
6. SOFTMAX*функция:
Здесь суммирование производится по всем нейронам данного слоя сети. Такой выбор функции обеспечивает сумму выходов слоя, равную единице при любых значениях сигналов NETi данного слоя. Это позволяет трактовать OUTi как вероятности событий, совокупность которых (все выходы слоя) образует полную группу. Это полезное свойство позволяет применить SOFTMAX*функцию в задачах классификации, проверки гипотез, распознавания образов и во всех других, где требуются выходы*вероятности.
7. Участки синусоиды:
8. Гауссова кривая:
Применяется в случаях, когда реакция нейрона должна быть максимальной для некоторого определенного значения NET.
9. Линейная функция, OUT = K NET, K=const. Применяется для тех моделей сетей, где не требуется последовательное соединение слоев нейронов друг за другом.
Рис. . Виды функций активации.