- •I. Основные понятия
- •1. Изображение объекта. Виды изображений.
- •2. Образ (класс).
- •9.Примеры задач распознавания.
- •I I Простейшие методы распознавания (сравнение с эталоном)
- •Вопрос 10. Общая характеристика простейших методов распознавания.
- •11. Метод совмещения с эталоном.
- •12. Метод зондов
- •22. Эвристический алгоритм максиминного расстояния.
- •23. Алгоритм к внутригрупповых средних.
- •24. Алгоритм isodata.
- •25. Достоинства и недостатки алгоритмов обучения без учителя.
- •V. Применение алгебры высказываний для решения задач распознавания
- •26. Изображающие числа и базис.
- •27. Восстановление булевой функции по изображающему числу.
- •28. Зависимость и независимость булевых функций.
- •30. Отыскание решений логического уравнения.
- •31. Техника решения логических уравнений с помощью булевых матриц.
- •32. Две задачи о замене переменных в булевых функциях.
- •33. Прямая и обратная логические задачи распознавания.
- •34. Пример логической задачи распознавания
- •37. Перцептрон и его мат. Модель
- •Вопрос 35. Алгоритм вычисления оценок (аво).
- •Вопрос 36. Основные идеи, лежащие в основе аво.
- •38. Алгоритм обучение перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •40. Итеративные процедуры распознав. На основе градиентных методов: минимизация одной ф-ии.
- •41. Итеративные процедуры распознав. На основе градиентных методов: совместная минимизация нескольких ф-ий.
- •42. Алгоритм обучения перцептрона как реализация спец. Стратегии совместной минимизации нескольких ф-ий с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных ф-ий.
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа.
- •VIII Стохастический подход к распознаванию образов
- •47. Элементы задачи решения.
- •48. Условный риск. Общий риск.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсона.
- •54 Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации.
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57 Правило ближайшего соседа как пример непараметрического метода
- •58. Основы мгуа.
- •59. Применение мгуа для решения задачи ро
- •70. Требование к вектору признаков
54 Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
Обучение процедуры распознавания сводится к оценке условных законов распределения системы наблюдаемых СВ Х=(Х1,…,Хn) при условии наличии каждого из имеющихся классов w1,w2…,wm по имеющейся маркированной обучающей выборке.
1) Вид каждого из условного ЗР нам известен, но эти ЗР содержат неизвестные параметры. В этом случае задача сводится к оценке неизвестных параметров методом максимального правдоподобия, методом моментов.
2) Когда вид условного ЗР неизвестен.
а) представление неизвестного закона распределения(ЗР) в виде разложения по системе опр-х функций по данным наблюдения, оценка коэф-в ряда и отбрасывания конца ряда.
б) минимизация общего риска: R решается заданием min (R c тильдой – это оценка общего риска)
Достоинства. 1)универсальность процедуры в приложениях к стохастическим системам 2)простота распознающей процедуры 3)проверяемость исходных предположений о законах распр. СВ на основе имеющихся данных наблюдений с помощью разработ. методов мат. стат-ки.
Недостаток. Для получения достаточно хороших оценок может потребоваться чрезвычайно большой объём обуч. выборки.
55. Оценка неизвестной плотности вероятности по априорной информации.
Если плотность распределения СВ неизвестна, то, согласно принципу максимума энтропии следует выбирать такую плотность распределения, которая обеспечивает максимизацию энтропии СВ с учетом всех известных ограничений. Энтропия совокупности образов с плотностью распред-я p(x): под p(x) имеется в виду p(x|wi). Априорная информация об СВ задается в виде: (1а) и (1б) Задача состоит в том, чтобы задать такое распределение p(x), чтобы величина энтропии при условиях (1а) и (1б) была максим-й. Используя множители Лагранжа построимфункцию
где a0=1, b0(x)=1 для всех образов x. Взяв частные производные от функции H1 по плотности распределения p(x) имеем:
приравняв подынтегральное выражение 0 и выразив p(x) получим: Здесь параметры следует выбирать так, чтобы они соответствовали априорной информации об образах x, содержащейся в соотношениях (1а) и (1б). Равномерное распределение. Выбираем, когда известно, что СВ отлична от нуля только в конечном интервале. Нормальное распределение. Выбираем, когда известно, что СВ может принимать любое действительное значение.
56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
Часто при неизвестном типе распределения СВ требуется оценить плотность распределения.
Пусть p’(x) – оценка плотности вероятности p(x), причем под p(x) принимаем p(x|wi). Мы пытаемся найти такую оценку, которая обеспечила бы минимизацию среднеквадратичной ошибки R, определяемой как
где u(x) – весовая функция. (1)
Воспользуемся разложением оценки p’(x) в ряд:
(2)
cj – коэффициенты, подлежащие определению,
{j(x)} – множество заданных базисных функций,
m – число членов разложения.
Получаем
Если базисные функции ортонормированны, то Ak=1 для всех k.
Результирующая формула для коэффициентов следующая:
, где N- количество элементов в выборке.
Замечание 1: качество аппроксимации с помощью выбранной системы базисных функций зависит от числа m членов разложения.
Замечание 2: Выбор базисных функций сильно влияет на простоту решения. При отсутствии априорных сведений о характере плотности распределения p(x) базисные функции в первую очередь должны выбираться исходя из простоты реализации.