Скачиваний:
115
Добавлен:
01.05.2014
Размер:
1.38 Mб
Скачать

4.5. Восстановление плотностей распределения классов.

Напомним, что при вероятностном подходе предполагается, что в признаковом пространстве задано совместное дискретно-непрерывное распределение з(к,х), к=1,,m, хRn, где p(k,x)=p(k)f(x|k)=f(x)p(k|x). Как было показано, качество принятия решения о классе объекта х оценивается средним риском ошибки распознавания, который вычисляется как математическое ожидание потерь от несовпадения предполагаемого и истинного классов объекта R[g()]=M{[g(x),g()]}. Такая оценка качества, как известно, приводит к байесовскому решающему правилу .

Представим совместную плотность распределения p(k,x), k=1,,m в виде p(k,x)=p(k)f(x|k). Если предположить, что априорные вероятности з(к) и условные плотности распределения f(x|k) известны, то оптимальное решающее правило легко найти после из подстановки в выражение . Поэтому наиболее очевидный подход состоит в том, чтобы по обучающей выборке предварительно оценить вероятностиp(k) и плотности f(x|k).

Основной недостаток данного подхода состоит в том, что задача восстановления полных вероятностных характеристик данных значительно сложнее исходной задачи поиска решающего правила распознавания, которое лишь отражает основные геометрические особенности концентрации плотностей распределения классов в пространстве признаков. Тем не менее, такой подход часто удобен, когда можно указать достаточно простое параметрическое семейство плотностей распределений f(x,c), в котором плотности распределений классов определяются значениями параметров f(x|k)=f(x|ck), k=1,,m. Априорные вероятности классов p(к) и параметры ск частных распределений оцениваются по обучающей выборке, например, методом максимального правдоподобия.

Тогда вероятность p(k) оценивается как , к=1,m, где Nk – число объектов (xi,gi), i=1,,N, у которых gi=k. Оценки параметров условных распределений классов находятся из условия максимума частных функций правдоподобия

.

С другой стороны, оценки параметров p(k) и cк можно получить рекуррентно, если объекты (xi,gi) обучающей выборки поступают только последовательно i=1,,, а сама выборка неограниченна. Тогда значение параметра ск для класса к можно получить из условия

.

Если параметрическое семейство f(x|c) удовлетворяет условию регулярности, то операции дифференцирования и перехода к математическому ожиданию можно поменять местами. Тогда получим то, что называется уравнением регрессии

.

Поиск корня уравнения регрессии по бесконечной подпоследовательности объектов (xj,gj), gj=k, j=1,, класса к в исходной обучающей последовательности (xi,gi), i=1,, с независимыми элементами обеспечивает процедура стохастической аппроксимации (Роббинса-Монро) вида

ckj+1=ckj+jgradclogf(xjk|ckj)

Как известно, данная процедура сходится с вероятностью 1 (почти наверное) при следующих простых предположениях о параметрическом семействе f(x|c) и коэффициентах j.

Матрица вторых производных (гессиан) gradcgradcf(x|c) должна быть отрицательно определена в окрестности искомого значения ck (или положительно определена, если заменить в процедуре знак приращения на противоположный); коэффициенты стохастической аппроксимации j уменьшаются в ростом j не слишком медленно и не слишком быстро:

, например, j=.

В свою очередь, априорные вероятности классов рекуррентно оцениваются как рекуррентный пересчёт среднего , гдеij – номер очередного объекта xj бесконечной подпоследовательности объектов класса к в исходной обучающей последовательности (xi,gi), i=1,,.

Соседние файлы в папке Основы обработки данных