Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
_ТР_ЭлК_2012__Шестаков.doc
Скачиваний:
38
Добавлен:
26.09.2019
Размер:
11.56 Mб
Скачать
  1. Риск и его оценка. Модели полезности. Описание последствий ложного распознавания.

Множественность подходов к процессу распознавания порождает и множественность оценок важности каждого из этапов процесса.

Представим результаты измерений m объектов набором n – мерных векторов

… …

… … … … …

… … .

Обозначим вектор точек центральных моментов l классов вектором . Каждая точка n – мерный вектор (в примере, это математические ожидания эллипсоидов рассеивания компактных классов в n – мерном пространстве признаков).

Рис.4.1. Трехмерное признаковое пространство с 6 классами. Показаны зоны существования центральных моментов контрольных (из обучающей выборки) и двенадцать точек с прямыми, их соединяющими.

Рис.4.2. Добавлена точка центрального момента распознаваемого объекта и камера наблюдателя повернута. В классах выделены объекты, которые наиболее близки к распознаваемому.

На рис. 4.1 и 4.2 условно в трехмерном пространстве признаков n = 3, отображены множества центральных точек шести классов l = 6. Зоны образованы в процессе обучения по выборке значительного объема. Анализ дисперсий точек, образовавших множества, показал то, что классы покрывают все представленную область трехмерного пространства. Т.е. любой распознаваемый объект может относится к любому множеству и дальнейшей целью анализа должно быть обоснование формы и положения решающих поверхностей.

Связь между объектами (образовавшими классы и новым), как правило, ищется через анализ доверительных интервалов, вернее с наихудшим и наилучшей точкой, характеризующих классы в данном случае. На рис. 4.2 показаны центральные моменты этих точек.

Ковариационная матрица i-го объекта представим виде: , где ковариация , где i,j ,1 …, n – индексы номеров компонент вектора признаков; m – число образов, составляющих данный класс; – значение i-го признака k-го образа; _i – математическое ожидание i-ой компоненты вектора признаков; – дисперсия i-го признака; – коэффициент ковариации i-го и j-го признаков; – ковариационная матрица. Ковариационная матрица симметрична относительно главной диагонали и, следовательно, необходимо вычислять только половину ее элементов. Ковариация характеризует степень линейной зависимости случайных величин.

На первом этапе под распознаванием образа примем результат отнесения объекта к тому классу, расстояние до которого от данного образа в пространстве признаков минимально. Для определения расстояния между точкой и классами в метрическом пространстве необходимо ввести понятие метрики, т. е. определить процедуру измерения расстояния между точками и в этом пространстве так, чтобы выполнялись следующие аксиомы: симметричность - ; правило треугольника - для всех точек ; положительное значение величины , равенство нулю только при совпадении точек.

Расстояние между распознаваемым классами в - мерном признаковом пространстве и в эвклидовой метрике , где x – характерные точки классов, например, наиболее близкие точки в классах. Учет разброса в области существования класса, вызывает необходимость масштабирования метрик осей. Из приведенных на рис. 3.23 графиков плотностей распределения вероятности значений признака для двух классов. В одномерном случае расстояние, между классами учитывающее статистические характеристики признака можно найти по критерию Фишера, через значения математических ожиданий . Обобщением понятия расстояния Фишера на многомерный случай является расстояние Махаланобиса , где – обратная ковариационная матрица для класса l.

Методы, основанные на последовательном вычислении расстояний между распознаваемым образом и центрами кластеров в пространстве признаков с той или иной метрикой, например расстояния Махаланобиса широко используются в различных алгоритмах распознавания. Образ считается принадлежащим классу, расстояние до которого минимально.

Отмеченная выше функция правдоподобия (раздел 3) и дополненная понятиями смеси дает отношение вероятностей

, где - входной вектор, а - вероятность появления j – го объекта.

В приведенном выражении отсутствует оценка платы за ошибку, за риск принятия ошибочного решения.

В случае двух классов часто говорят о матрице потерь , где количественно выражает потери от принятого решения в пользу класса , когда в действительности выборка принадлежит классу ;

Вопрос о моменте завершения цикла исследований и достоверности получаемых оценок в статистике обычно решается по Вальду. При последовательном анализе Вальда на каждом этапе пространство выборок наблюдений разделяется на три области: допустимую G1, критическую G2 и промежуточную Gпр . Если выборочное значение попадает в Gпр , то делается следующее наблюдение, и так до тех пор, пока при некотором значении n1 размера выборки выборочное значение не попадет в одну из областей (G1 или G2 ), после чего принимается одна из гипотез: наблюдается класс a1 (при попадании в G1) или наблюдаемая выборка принадлежит классу a2 (G2 ). Критерием качества последовательного правила выбора решения обычно является минимум среднего значения размера выборки, необходимой для принятия решения, при заданных значениях вероятностей ложной тревоги α и пропуска сигнала β. А. Вальдом показано, что среди всех правил выбора решения для которых условные вероятности ложной тревоги и пропуска сигнала не превосходят α и β, последовательное правило выбора решения, состоящее в сравнении логарифма отношения правдоподобия с двумя порогами – нижним и верхним – приводит к наименьшим средним значениям размера выборок. При этом гипотезы и справедливы.

Процедура последовательного анализа при этом выглядит как останов на шаге выборки и

принятие гипотезы , если ; или

принятие гипотезы если ; .

Таким образом, последовательное правило выбора решения, в отличие от байесовского, предусматривает сравнение логарифма отношения правдоподобия с порогами c1 и c2 , не зависящими от априорных вероятностей наличия или отсутствия сигнала и от потерь. Эти пороги с некоторым приближением можно выразить через заданные значения вероятностей ложной тревоги α и пропуска сигнала β:

; .

Поскольку при последовательном анализе размер выборки является случайной величиной, то даже при сравнительно малых средних значениях длительности процедуры возможны случаи недопустимо больших размеров выборки. Примером компромиссного решения для определения длительности выборки является усеченный последовательный анализ, при котором заранее устанавливается максимальное значение объема выборки, при достижении которого последовательная процедура заканчивается. Соответствующее отношение правдоподобия сравнивается не с двумя порогами, а только с одним усредненным, по которому и принимается решение.

В структуру основных математических конструкций ТР входит матрица последствий принятия решений.

В ТР наиболее распространена, как правило, квадратная матрица, строки и столбцы которой представляют распознаваемые классы. В таблице 4.1 представлена квадратная матрица состоящая из столбцов и строк.

Строки показывают ситуации, которые могут возникнуть при распознавании неизвестного объекта, например объекта с номером .

Столбцы показывают последствия решений при наличии (предъявлении) образа из -го класса, а распознавании его как образа из -го класса.

Таблица 4.1.

Предъявлен/

Распознан

Образ 1

...

Образ j

...

Образ n

Образ 1

...

...

...

...

...

...

...

...

Образ i

...

...

...

...

...

...

...

...

Образ n

...

...

Для конкретной области применения часто называют полезностью решения т. е. предполагается то, что данная величина положительна. В заранее убыточных задачах матрица заполняется величинами платы за принимаемые решения. Реально - вектор, нередко объединяющий оценки разнородных величин, например, потери мощности, стоимость, безопасность в эксплуатации и др. Если компоненты вектора нельзя привести к одному знаменателю, например, денежному эквиваленту, то такие задачи относят к многокритериальным.

Отдельный разговор о метрике компонентов , не редко на практике существует нелинейность в оценке платы за неправильные результаты распознавания и отдельные потери не допустимы, тогда говорят о границах приемлемости существования ошибки.

При распознавании образов правильное решение для всех образов часто оценивается одинаково. . Тогда целесообразно перестроить матрицу полезности, превратив ее в матрицу рисков от принятия не правильных решений.

Вычисление величины риска для квадратной матрицы выполняется по формуле .

Результаты представлены в таблице 4.2. Квадратная матрица в этом случае имеет нулевые диагональные элементы.

Таблица 4.2.

Предъявлен/

Распознан

Образ 1

...

Образ j

...

Образ n

Образ 1

0

...

...

...

...

...

...

...

...

Образ i

...

...

...

...

...

...

...

...

Образ n

...

...

0

В конечном итоге формируется некоторый алгоритм распознавания. Его эффективность в значительной степени зависит от интегральной величины среднего риска при выбранной стратегии. По строкам можно определить усредненный риск от принятия решения с индексом .

, где вероятность появления образа - го типа.

Учет стратегии заключается в ведении коэффициента , который имеет смысл вероятности оценки объекта , как в стратегии .

Тогда для стратегии средний риск при принятии - го решения .

Наряду со средней величиной риска при решении используют понятие максимального риска. Учитывая отрицательный характер величины получим . Эта величина часто используется, как опорная, показывающая наибольший риск от принятия решения , его опасность.

Средний риск принятия решения при стратегии .

В системах с противодействием матрица потерь немного изменяется. В качестве опорной ситуации ищется наилучшее решение противника. Тогда матрица, например, платежей принимает вид расплаты в случае применения противником решения и нами решения .

По минимаксному критерию ищется решение, которое обеспечивает наибольший выигрыш в наихудших условиях.

По Бейесу ищется решение, дающее минимум среднего риска.

По Нейману – Пирсону - решение дающее максимальную величину условной вероятности правильного обнаружения при заданной величине ложной тревоги.

Таким образом, работа с матрицей рисков – итоговая процедура распознавания образов. Эта операция выполняется после построения вектора вероятностей, указывающих на значение смесей, характеризующих исследуемый объект таблица 4.3.

Анализ ситуации, формирование описаний классов подготавливает условия корректного решения этой процедуры. Сказанное не снимает целесообразности запуска итерационного процесса (подготовки описания ситуаций, дополнительных измерений и т. д.), если прогнозируемый риск выше допустимого или желательного.

Наиболее полно вопросы риска рассматриваются в теории полезности, в том числе и при решении многокритериальных задач.

Таблица 4.3.

Предъявлен/

Распознан

Образ 1

...

Образ j

...

Образ n

Образ 1

0

...

...

...

...

...

...

...

...

Образ i

...

...

...

...

...

...

...

...

Образ n

...

...

0

Работают в теории полезности и методы представления функций полиномами первой степени , где - удельная вещественная функция полезности - фактора. Факторы принимаются независимыми. Факторы самые различные, это и напряжение в В и частоты Гц и стоимость в руб.

К-факторная модель второго порядка, учитывающая частично и взаимное влияние факторов несколько сложнее:

.

Часто так же заменяют на , где прогноз . При отсутствии текущих данных о приведенные выражения позволяют провести ориентировочный расчет.