Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ЭкзВопр(МиАПР)

.docx
Скачиваний:
10
Добавлен:
11.05.2015
Размер:
16.71 Кб
Скачать

ЭКЗАМЕНАЦИОННЫЕ ВОПРОСЫ (Методы и алгоритмы принятия решений)

  1. Общие составляющие теории распознавания образов и принятия решений.

  2. Определение интеллекта.

  3. Узловые интегральные операции построения выводов.

  4. Основные понятия теории распознавания образов.

  5. Функции системы распознавания.

  6. Основные принципы простейших методов классификации.

  7. Процесс обучения.

  8. Базовые принципы построения решающих правил.

  9. Простейшие методы построения решающих правил.

  10. Метод построения эталонов.

  11. Метод дробящихся эталонов.

  12. Метод ближайших соседей.

  13. Используемые простейшие метрики.

  14. Элементарный алгоритм выявления кластеров.

  15. Влияние пороговой величины на результат работы алгоритма [из вопроса 14].

  16. Недостатки и достоинства простейшего алгоритма кластеризации [из вопроса 14].

  17. Шаги по оптимизации алгоритма [из вопроса 14].

  18. Алгоритм К-групповых средних. Диаграмма Вороного.

  19. Описание алгоритма [из вопроса 18], оценка его эффективности, пример.

  20. Алгоритм максимина: описание, оценка его эффективности, пример.

  21. Метод потенциальных функций: специфика метода и его электростатическая составляющая, смысл потенциальной функции.

  22. Описание процедуры распознавания в методе потенциалов.

  23. Примеры потенциальных функций.

  24. Многочлены Эрмита.

  25. Выбор корректирующего множителя и построение разделяющей функции при использовании метода потенциалов. Пример реализации метода.

  26. Проблемы таксономии (кластеризации). Влияние метрики на результат.

  27. Идея метода иерархического группирования.

  28. Типы процедур иерархической классификации.

  29. Дендрограмма.

  30. Простейшая агломеративная процедура.

  31. Расстояние между классами.

  32. Общая формула вычисления расстояния между классами. Частные случаи.

  33. Различия в алгоритмах иерархической кластеризации.

  34. Общий вид алгоритма иерархической группировки.

  35. Методы включения нового объекта в существующий кластер.

  36. Методы объединения двух кластеров.

  37. Математические характеристики кластеров.

  38. Основные допущения кластерного анализа.

  39. Стандартизация переменных.

  40. Пример реализации алгоритма иерархической группировки.

  41. Понятие решающей функции.

  42. Линейные решающие функции (ЛРФ).

  43. Условия линейной разделимости классов.

  44. Общий подход к нахождению ЛРФ.

  45. Метод градиентного спуска.

  46. Алгоритм наименьшей среднеквадратичной ошибки (НСКО-алгоритм).

  47. Критерии ошибки неправильной классификации.

  48. Обобщенные решающие функции.

  49. Построение спрямляющего отображения.

  50. Мономиальные функции.

  51. Условие существования мономиального решения.

  52. Биологический нейрон и его свойства.

  53. Типы соединений нейронов.

  54. Биологические нейронные сети и их свойства.

  55. Основные положения теории деятельности головного мозга (У. Мак-Каллок, У. Питтс).

  56. Математическая модель нейрона (У. Мак-Каллок, У. Питтс).

  57. Моделирование элементарных логических функций.

  58. Модель нейрона со смещением.

  59. Функции активации, их аналитическая формула, свойства и график.

  60. Персептрон Розенблатта.

  61. Схема персептрона.

  62. Принцип функционирования.

  63. Алгоритм обучения персептрона.

  64. Упрощенный алгоритм обучения персептрона. Пример.

  65. Теорема о сходимости алгоритма обучения персептрона.

  66. Ограниченность персептрона.

  67. Нейросеть, моделирующая функцию «Исключающее ИЛИ».

  68. Основные схемы нейронных сетей.

  69. Математические возможности нейронных сетей.

  70. Базовые математические задачи, решаемые нейросетями.

  71. Общий принцип обучения нейросетей.

  72. Алгоритм обучения Хебба. Пример.

  73. Адаптивное обучение одного нейрона.

  74. Обучение многослойной сети методом обратного распространения ошибки.

  75. Алгоритм и сеть Кохонена.

  76. Сеть Кохонена для биполярных векторов.

  77. Сети ассоциативной памяти.

  78. Алгоритм и сеть Хопфилда. Пример.

  79. Алгоритм и сеть Хэмминга. Пример.

  80. Элементы теории статистических решений.

  81. Правило принятие решений в теории статистических решений.

  82. Нормальный закон распределения.

  83. Средний риск при многократном распознавании объектов (на примере двух классов).

  84. Минимизация среднего риска.

  85. Отношение правдоподобия.

  86. Некоторые вероятностные стратегии принятия решений: критерий Байеса, минимаксный, Неймана-Пирсона. Геометрические иллюстрации значений среднего риска и потерь от условной вероятности принадлежности объекта первому классу.

  87. Геометрическая интерпретация байесовского критерия.

  88. Пример нахождения порогового значения с использованием вероятностных методов.

Калугина М. А.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]