Скачиваний:
114
Добавлен:
01.05.2014
Размер:
2.53 Mб
Скачать

3.8.3. Емкость разделяющей плоскости

Наличие избыточных данных для классификации столь же важно, как и для оценки. В качестве сравнительно простого примера рас­смотрим разбиение d-мерного пространства признаков гиперпло­скостью wtx+=0. Допустим, что имеется общее расположение п выборочных точек 13, с каждой из которых можно сопоставить метку или . Среди 2n возможных дихотомий (разделений на два клас­са) п точек в d-мерном пространстве имеется некоторая доля f(n, d), так называемых линейных дихотомий. Это такая маркировка то­чек, при которой существует гиперплоскость, отделяющая точки, помеченные , от точек, помеченных . Можно показать, что эта доля определяется выражением

(48)

График этой функции для разных значений d приведен на рис. 3.4. Заметим, что все дихотомии для d+1 и менее точек линейны. Это значит, что гиперплоскость не ограничивается требованием правильной классификации d+1 или меньшего числа точек. Фактиче­ски при большом d, пока п не составляет значительной части от 2(d+1), это не означает, что задача начинает становиться трудной. При значении числа п=2(d+1), которое иногда называется емкостью гиперплоскости, половина из возможных дихотомий еще линейна.

Рис. 3.4. Доля линейных дихотомий п точек в d-мерном пространстве.

Таким образом, избыточность для построения линейных разделя­ющих функций до тех пор не будет достигнута, пока число выборок в несколько раз не превзойдет размерности пространства признаков.

3.8.4. Уровень ошибки усредненный по задачам

Приведенные примеры позволяют, таким образом, заключить, что при малом числе выборок вся проблема в том, что разрабаты­ваемый классификатор не будет хорошо работать при получении новых данных. Мы можем, таким образом, полагать, что уровень ошибки явится функцией числа п выборок, убывающей до некото­рого минимального значения при стремлении п к бесконечности.

Чтобы исследовать это теоретически, требуется выполнить следую­щие действия:

1) произвести оценку неизвестных параметров по выборкам;

2) применить эти оценки для определения классификатора;

3) вычислить уровень ошибки полученного классификатора.

В целом такой анализ очень сложен. Проведение его зависит от многих причин — частных значений получаемых выборок, спо­соба их использования для определения классификатора и неиз­вестной вероятностной структуры, положенной в основание расчетов. Однако аппроксимируя неизвестные плотности гистограммами и усредняя их соответствующим образом, можно прийти к некоторым интересным выводам.

Рассмотрим случай с двумя классами, предполагаемыми равно­вероятными. Предположим, что пространство признаков мы разби­ли на некоторое число т отдельных ячеек , . . ., . Если в пре­делах каждой из ячеек условные плотности p(x|) и р(x|) за­метно не изменяются, то вместо того, чтобы отыскивать точное зна­чение х, потребуется лишь определить, в какую из ячеек попадает х. Это упрощает задачу, сводя ее к дискретной. Пусть рi=Р(х |) и qi=Р(х|). Тогда, поскольку мы предположили, что P()=Р()=1/2, векторы р= (p1, . . .,pm)t и q= (q1, . . ., qm)t опреде­лят вероятностную структуру задачи. Если х попадает в ^;, то байесовское решающее правило выразится в принятии решения , если pi>qi. Получаемый байесовский уровень ошибки опреде­лится выражением

Если параметры р и q неизвестны и должны быть оценены по множеству выборок, то получаем уровень ошибки, больший, чем байесовский. Точный ответ будет зависеть от взятого множества вы­борок и способа построения по ним классификатора. Допустим, что одна половина выборок помечена , а другая , причем nij пред­ставляет число выборок с пометкой попавших в ячейку 'ё,. До­пустим далее, что мы строим классификатор, пользуясь оценками по максимуму правдоподобия и, как если бы они и были истинными значениями. Тогда новый вектор признаков, по­падающий в'ё,, будет отнесен к , если ni1>пi2 .Со всеми этими предположениями вероятность ошибки для получаемого классифи­катора определится выражением

.

Чтобы оценить вероятность ошибки, надо знать истинные значе­ния условных вероятностей р и q и множество выборок или по мень­шей мере числа пij. Различные множества из n случайных выборок приведут к различным значениям Р(е|р, q, ).

Для усреднения п случайных выборок по всем возможным мно­жествам и получения средней вероятности ошибки Р(е|р, q, ) можно использовать тот факт, что числа пij распределены по поли­номиальному закону. Грубо говоря, это даст типичный уровень ошибки, который можно ожидать для п выборок. Однако оценка этого среднего уровня потребует еще решения второстепенной за­дачи — оценки величин р и q. Если р и q различаются сильно, то средний уровень ошибки будет близок к нулю; при сходных р и q он приближается к 1/2.

Радикальным путем устранения этой зависимости решения от задачи будет усреднение результатов решения всех возможных задач. Для этого следует выбрать некоторое априорное распределение не­известных параметров р и q, а затем усреднить Р(е|р, q, п) в соот­ветствии с этими р и q. Получаемая усредненная по задачам вероят­ность ошибки (е|т, п) будет зависеть только от числа т ячеек, числа п выборок и вида априорного распределения.

Выбор априорного распределения является, несомненно, тон­ким моментом. Стараясь облегчить задачу, мы можем принять ве­личину близкой к 0, а стараясь ее усложнить близкой к 1/2. Априорное распределение следовало бы выбирать соответствующим тому классу задач, с которым мы обычно встречаемся, однако не яс­но, как это сделать. Можно просто предположить эти задачи «рав­номерно распределенными», т. е. предположить, что векторы р и q распределены равномерно на симплексах pi0, , qi0. Г. Ф. Хугсом, предположившим такой подход, проведены необходимые вычисления, результаты которых представлены графиками рис. 3.5. Рассмотрим некоторые приложения его резуль­татов.

Заметим сначала, что эти кривые представляют как функцию числа ячеек для постоянного числа выборок. Если число выборок бесконечно, то становятся верны оценки по максимуму правдоподо­бия, и для любой задачи будет средним значением байесовского уровня ошибки. Кривая, соответствующая (е|т,), быстро убы­вает от 0,5 при т=1 до асимптотического значения 0,25 при стрем­лении т к бесконечности. Не удивительно, что =0,5 при т=1, так как в случае всего лишь одного элемента решение должно ос­новываться только на априорных вероятностях. Эффектно и то, что стремится к 0,25 при стремлении т к бесконечности, так как эта величина находится как раз посередине между предельными значе­ниями 0,0 и 0,5. Столь большое значение уровня ошибки свидетель­ствует лишь о том, что в этой средней величине отражено множе­ство безнадежно трудных задач, связанных с классификацией. И конечно, не следует считать, что «типичная» задача распознавания образов может иметь такой уровень ошибки.

Однако самая интересная особенность этих кривых заключается в том, что для каждой из них, соответствующей конечному числу выборок, имеется оптимальное число ячеек. Это непосредственно связано с тем, что если при конечном числе выборок использовать

Рис. 3.5. Усредненный по задаче уровень ошибки (по данным Г. Ф. Хугса, 1968. Здесь пчисло выборок, тчисло ячеек).

излишнее количество признаков, то качество работы ухудшится. Почему это так, в данном случае ясно. Во-первых, увеличение числа ячеек позволяет легче различать p(x|) и р(х|) (представляемые векторами р и q), тем самым способствуя улучшению качества ра­боты. Если, однако, число ячеек становится слишком большим, то не хватит выборок, чтобы их заполнить. В конечном счете число выборок в большинстве ячеек окажется равным нулю, и для клас­сификации придется вернуться к неэффективным априорным веро­ятностям. Таким образом, при любом конечном п величина (е|т, п)должна стремиться к 0,5 при стремлении т к бесконечности.

Значение т, для которого (е| т, п) достигает минимума, чрез­вычайно мало. При числе выборок п=500 эта величина лежит где-то около m=20 ячеек. Допустим, что мы сформировали ячейки посред­ством разбиения каждой оси на l интервалов. Тогда для d призна­ков получим т=ld ячеек. Это будет означать, что при l=2, т. е. предельно грубом квантовании, использование более четырех-пяти бинарных признаков ухудшит, а не улучшит качество работы. Та­кой результат весьма пессимистичен, но не более чем утверждение о том, что средний уровень ошибки равен 0,25. Приведенные численные значения получены в соответствии с априорным распреде­лением, выбранным для конкретной задачи, и могут не иметь отно­шения к частным задачам, с которыми можно еще столкнуться. Ос­новной замысел проведенного анализа состоит в том, чтобы усвоить, что качество работы классификатора безусловно зависит от числа конструктивных выборок и что при заданном числе выборок увели­чение числа признаков сверх определенного может оказаться вред­ным.

Соседние файлы в папке Анализ и интерпретация данных