Контрольные вопросы и ответы по дисциплине ИИС
.docb) синтезирование обучающей системы;
c) парадигмы нейронных сетей;
d) эволюционные и генетические алгоритмы;
е) клеточные автоматы.
81. Современные подходы теории искусственного интеллекта это:
а) парадигмы нейронных сетей;
b) эволюционные и генетические алгоритмы;
c) детерминированные и статистические методы;
d) факторный анализ;
е) походы хемометрики.
82. Базовый принцип обучения заключается:
а) в самоорганизации (структурной перестройке);
b) в использовании методов хемометрики;
c) в использовании детерминированных и статистических методов;
d) в использовании дефазификационной композиции нечетких правил;
е) в формировании базы нечетких правил.
83. Где необходимо применять парадигмы нейровычислений:
а) при решении плохо формализуемых задач;
b) при исследовании устойчивости исследуемых объектов;
c) при сингулярном разложении произвольных матриц;
d) при вычислении энергии связи;
е) при решении задачи реконструкции динамической системы.
84. Какие новые принципы обработки данных реализует нейрокомпьютер:
а) массовый параллелизм, распределенную память, робастность;
b) показатели Ляпунова;
c) метод скользящего окна;
d) метод нормированного размаха;
е) самоподобные фракталы.
85. Компьютер подобный мозгу человека – это:
а) математическая модель механизмов активности мозга;
b) математическая модель эволюционных вычислений;
c) математическая модель механизмов генетики;
d) математическая модель механизмов иммунной системы;
е) математическая модель логистического отображения.
86. Принципы нейрокомпьютинга заключаются в использовании:
а) высоко взаимосвязанной структуры, обучения и адаптации;
b) путей перехода в хаос;
c) периода удвоения;
d) странного аттрактора Лоренца;
е) динамические модели в пространстве состояний.
87. Биологический нейрон – это:
а) простой арифметический вычисляющий элемент;
b) хромосомная модель;
c) модель странного аттрактора Лоренца;
d) модель бифуркации;
е) модель логистического отображения.
88. Сома – это:
а) центральное тело, в котором реализуются почти все функции нейрона;
b) нить нерва, которая может служить выходом нейрона;
c) разветвленное дерево нервных окончаний;
d) специальные контактные точки для входа аксона;
е) модель кватерниона.
89. Аксон – это:
а) нить нервного окончания;
b) разветвленное дерево нервных окончаний;
c) модель кватерниона;
d) центральное тело, в котором реализуются почти все функции нейрона;
е) специальные контактные точки для входа аксона.
90. Дендриты – это:
а) разветвленное дерево нервных окончаний;
b) центральное тело, в котором реализуются почти все функции нейрона;
c) нить нервного окончания;
е) диссипативная структура.
91. Каждый нейрон искусственной нейронной сети – это:
а) вычислительная единица с многомерным входом и нелинейным
преобразованием сигнала возбуждения;
b) одномерный вычислительный элемент;
c) логическое устройство;
d) симметричный релейный элемент;
е) элемент формальной иммунной сети.
92. Персептрон – это:
а) простейшая нейронная сеть;
b) адаптивная сеть с обратными связями;
c) многослойная сеть с прямым распространением активации;
d) адаптивная резонансная нейронная сеть;
е) клеточная топология нейронной сети.
93. Модель однослойного персептрона обладает:
а) способностью обучения и распознавания представленных образов;
b) возможностью реализовывать вычислительные процедуры скользящего среднего;
c) выявлять латентные структуры в исходных данных;
d) возможностью выявлять диссипативные структуры;
е) возможностью реализации генетического алгоритма.
94. В чем сущность задачи отделимости (Минский и Паперт):
а) с помощью линейной разграничивающей поверхности задача классификации
не может быть решена;
b) в нахождении единственной переменной дающей наибольшее изменение в доходе;
c) в выборе критериальной функции;
d) в выявлении диссипативных структур;
е) сравнительном анализе результатов сингулярного разложения.
95. Какая структура искусственной нейронной сети позволяет решить задачу отделимости:
а) персептрон с двумя и тремя слоями;
b) генетический алгоритм с выбранной функцией пригодности;
c) нечеткая система с продукционными правилами в базе знаний;
d) модуль дефаззификации и принятия решения;
е) модуль формирования индекса риска.
96. Цель решения задачи обучения для нейронной сети:
а) минимизация выбранного критерия качества по синаптическим коэффициентам;
b) оптимальное распределение ресурсов;
c) нахождение скользящего среднего для обучающей выборки;
d) нахождение расстояния по методу «ближнего соседа»;
е) нахождение расстояния по методу «дальнего соседа».
97. Какая критериальная функция использована в обучающем правиле Розенблатта:
а) линейная функция по значению величины ошибки функция;
b) квадратичная функция по значению величины ошибки;
c) в виде кососимметричной матрицы;
d) в виде кватерниона;
е) в виде нечеткого продукционного правила.
98. Какая критериальная функция использована в модифицированном обучающем правиле Розенблатта:
а) квадратичная функция по значению величины ошибки функция;
b) линейная функция по значению величины ошибки функция;
c) в виде нечеткого продукционного правила;
d) в виде кватерниона;
е) в виде кососимметричной матрицы.
99. Решение задачи оптимизации процедуры обучения обеспечивается:
а) итеративной процедурой определения оптимальной матрицы синаптических связей;
b) нечетким продукционным правилом;
c) итеративной процедурой сингулярного разложения матрицы;
d) процедурой многокритериального выбора;
е) кодированием общей структуры данных.
100. В модифицированном обучающем правиле Розенблатта использована функция:
а) логистическая функция;
b) релейная функция;
c) дельта-функция;
d) линейная функция;
е) кусочно-линейная функция.
101. Глобальные стратегии решения оптимизационных задач следующие:
а) исчерпывающего поиска и сортировки простых вариантов без изменения
алгоритмов;
b) оценки выбора лучших решений и их воспроизведение;
c) формирование базы правил;
d) определение лингвистических правил;
е) активизация нечеткой ассоциативной памяти.
102. Цель генетических алгоритмов заключается в:
а) абстрагировании и объяснении механизмов естественного отбора;
b) адаптации механизмов естественного отбора;
c) деффазификации выходной переменной;
d) фазификации входных переменных;
е) нечетком выборе.
103. Генетические алгоритмы являются:
а) стохастическим методом оптимизации;
b) методом случайного поиска;
c) детерминированными алгоритмами;
d) алгоритмами обновления трафика для выбора маршрута;
е) обучающими системами интерактивного аудиовизуального взаимодействия.
104. Генотип – это:
а) полная генетическая модель индивидуумов, которая представляет особенности структуры;
b) математический код, с помощью которого формализуются особенности структуры
индивидуумов;
c) элемент хромосомы, который кодирует некоторую особенность;
d) критерий, с помощью которого оценивается эффективность нового решения;
е) набор общих действующих моделей.
105. Хромосомная модель – это:
а) математический код, с помощью которого формализуются особенности структуры
индивидуумов;
b) полная генетическая модель индивидуумов, которая представляет особенности структуры;
c) элемент хромосомы, который кодирует некоторую особенность;
d) набор общих действующих моделей;
е) критерий, с помощью которого оценивается эффективность нового решения.
106. Фитнесс-функция – это:
а) критерий, с помощью которого оценивается эффективность нового решения:
b) полная генетическая модель индивидуумов, которая представляет особенности структуры;
c) элемент хромосомы, который кодирует некоторую особенность;
d) набор общих действующих моделей;
е) математический код, с помощью которого формализуются особенности структуры
индивидуумов.
107. Клеточная нейронная сеть содержит:
а) регулярно расположенные пространственные клетки, которые взаимодействуют
непосредственно с ближайшими соседними клетками;
b) последовательно соединенные нейронные блоки;
с) параллельно соединенные нейронные блоки;
d) соединение с обратной связью;
е) многослойную нейронную сеть.