- •Курс лекций
- •«Теория распознавания»
- •Введение
- •История развития теории распознавания, основные понятия, содержимое литературных источников
- •Математические истоки тр. Случайные события, процессы, смеси, свойства оценок.
- •Специфика оценок в математике распознавания.
- •Риск и его оценка. Модели полезности. Описание последствий ложного распознавания.
- •Описание объектов и классов в пространствах признаков. Алфавит признаков.
- •Анализ метрики пространства признаков. Минимизация объема описаний. Решающие границы в пространстве признаков.
- •Пространства представления исследуемых процессов
- •Сделаем вставку с примерами использования математических приемов снижения объемов описания изображений.
- •Логические методы распознавания, их специфика и применение.
- •Структурные методы распознавания, их специфика и применение.
- •Корреляционные методы и алгоритмы распознавания.
- •Проделав выше указанные операции получим оптимальное значение коэффициента суммирования
- •Сложные образы в задачах распознавания.
- •Обратные задачи в распознавании, тренажеры, ложные объекты.
- •Имитация поведения объектов в тренажерах, виртуальных моделях.
- •Более детально рассмотрим снижение порядка сложности моделей пространства состояний для линейных непрерывных стационарных систем:
- •Расчет эффективности распознавания.
- •Перспективы задач распознавания в обработке сигналов, компьютерных технологиях.
- •Список рекомендуемой литературы
- •Содержание
- •Учебное пособие для студентов факультета радиофизики и компьютерных технологий
Проделав выше указанные операции получим оптимальное значение коэффициента суммирования
. Наличие квадрата отображает метрику оси рисков, которую мы положили квадратичной, минимизируя среднеквадратичное отклонение.
Таким образом, делаем вывод об оптимальной стратегии включения новых оценок в расчеты, при которой учет их в итоговом выводе идет с коэффициентом, обратно пропорциональным величине их среднеквадратичного отклонения возведенной в степень, отображающей метрику шкалы рисков.
Перенесем полученный вывод на сигнал произвольной формы, у которого оценивается его амплитуда.
, где - искомая амплитуда, - гауссов шум с нулевым математическим ожиданием и среднеквадратичным отклонением .
Пусть на момент прихода текущего отсчета определена оценка с среднеквадратичным отклонением . Среднеквадратичное отклонение оценки в текущем отсчете , а .
Получим оптимальную оценку . Проведя расчеты с первого отсчета до - го получим оптимальную оценку амплитуды , где - известная форма исследуемого сигнала, которая принимается за эталон, - коэффициент учитывающий параметры формы эталонного сигнала в пространстве отсчетов и само количество отсчетов.
Для периодического сигнала с нулевым математическим ожиданием, при большом объеме корректной выборки и не зависит от исследуемого сигнала.
Уходя от ограничения на форму случайной помехи – белый шум, перейдем в частотную область.
Пусть мы оцениваем сигнал по его частотным составляющим, добавляя описание сигнала включением частот его спектра. Учитывая частотную зависимость величины среднеквадратичного отклонения шума на элементарной частоте от частоты по аналогии получим , где , , выборки со спектра входного, эталонного сигналов и шума соответственно.
Данные зависимости хорошо известны. Истоком их является новый математический аппарат, пришедший в свое время в среду радиофизиков, электронщиков, работающих с сигналами. Тогда он получил термин “желтая опасность” по цвету переплета отчета Винера. Оптимальный фильтр, вобравший в себя основные моменты новой теории, получил название фильтра Винера-Колмагорова.
Подводя итоги, сформулируем основные требования к процедуре распознавания образов с использованием корреляционных соотношений:
В алфавит признаков включают только те признаки, которые различны у распознаваемых классов;
Эталоны форм классов формируют пропорционально мощности признака в данном классе;
Произведения признаков у исследуемого объекта и эталона суммируются с коэффициентами обратно пропорционально их параметрам достоверности;
Проводя вычисления и стремясь к оптимальности следует четко определять конечный искомый параметр и решать корреляционную задачу относительно него. Не соблюдение этого условия может существенно снизить эффективность алгоритма. Например, при оценки фазы гармонического сигнала оптимальный эталон – сдвинут на четверть периода относительно исследуемого.
Как следует из рассмотренного материала, корректные корреляционные алгоритмы обеспечивают оптимальное или квазиоптимальное различие объектов и по своей форме близки к оптимальным фильтрам.
В систолических структурах так же, в основном, реализуются корреляционные алгоритмы распознавания с определенными упрощениями.
Оптимальная матрица весовых коэффициентов систолической структуры соответствует эталонному образу искомого сигнала с учетом описанных выше требований.